Науковці не стоять на місці, навчаючи штучний інтелект, аби він умів виконувати якомога більше задач. До прикладу, тепер він може генерувати людські обличчя з урахуванням статі, етнічної приналежності та віку, а не індивідуальних особливостей.
Учені назвали цей спосіб визначення – Speech2Face. Нейронній мережі, яка "мислить", як людський мозок, показали мільйон освітніх відеороликів з мережі, на яких були зображені понад 100 тисяч мовців.
І ще: З'явилася нейромережа, яка визначає привабливість людини
З цього набору даних Speech2Face сформувала асоціацію між голосовими сигналами та певними фізичними особливостями людського обличчя. Потім ШІ використовував звуковий запис для моделювання фотореалістичного обличчя, яке б відповідало голосу. Результати були опубліковані у мережі 23 травня.
На щастя, штучний інтелект (поки) точно не визначає, як виглядає конкретна людина, ґрунтуючись тільки на її голосі. Автори дослідження повідомили, що нейронна мережа розпізнає в мові певні маркери, що вказують на стать, вік і етнічну приналежність, а також на особливості, які властиві багатьом людям.
Таким чином, модель буде виробляти тільки усереднені обличчя, – писали вчені. – Вона не буде виробляти зображення конкретних людей".
Обличчя, згенеровані Speech2Face – усі в положенні анфас і з нейтральними виразами – неточно відповідали людям, чий голос вивчав ШІ. Однак зображення зазвичай ілюструють правильний вік, етнічну та статеву приналежність людей.
Так ШІ упізнавав мовців:
При зіткненні з мовними варіаціями ШІ теж демонстрував помилки. Наприклад, коли нейронна мережа "слухала" аудіозапис азіата, що говорить китайською, програма згенерувала зображення азіатського обличчя. Однак, коли ця ж людина говорила англійською в іншому звуковому записі, штучний інтелект сформував обличчя людини європейської раси.
Алгоритм також продемонстрував гендерну упередженість, пов'язуючи низькі голоси з чоловічими обличчями та високі голоси з жіночими.
Читайте також: Наче справжня людина: у Японії створили віртуальну модель