Алгоритм виявляє діпфейки, аналізуючи відбиття в очах

Згідно з дослідженням, інструмент для виявлення діпфейків з Університету Баффало довів свою ефективність на 94%.

Хибне виявлення

Дослідники розробили алгоритм, який визначає діпфейкові зображення по їхніх очах.

Комп'ютерні фахівці з Університету Баффало створили алгоритм глибокого виявлення підробок, відповідно до прес-релізу, який аналізує відбивання в очах портретів, щоб визначити їх справжність.

В дослідженні, прийнятому на Міжнародній конференції IEEE по акустиці, обробці мови та сигналів, дослідники стверджують, що алгоритм на 94% ефективний при розпізнаванні помилкових зображень — новий цікавий підхід до перевірки реальних зображень і відео.

Вікна для душі

Причина, по якій алгоритм здатний виявляти помилкові зображення, на подив проста: штучний інтелект з глибокими підробками погано справляється зі створенням точних відбитків очей.

«Рогівка схожа на ідеальну півкулю і володіє високою здатністю, що відбиває», — сказав в прес-релізі д-р Сівей Лю, професор інновацій SUNY Empire і провідний автор дослідження. «Отже, все, що потрапляє в око зі світлом, випромінюваних з цих джерел, буде мати зображення на рогівці».

«У двох очей повинні бути дуже схожі зображені візерунки, тому що вони бачать одне й те саме», — додав він. «Це те, що ми зазвичай не помічаємо, коли дивимося на обличчя».

Однак діпфейкі ШІ напрочуд нездатні створювати стійкі відбиття в обох очах. Чорт забирай, ви, ймовірно, зможете добре попрацювати, виявивши різницю самостійно, використовуючи зображення нижче реальних людських очей і очей, створених штучним інтелектом:

Університет Буффало

Небезпеки Deepfake

Розробка алгоритму є частиною пропаганди Лю, яка залучає увагу до зростальної потреби в інструментах для виявлення діпфейків. Його попередження і досвід в цьому питанні навіть привели його до Конгресу у 2019 році, де він дав свідчення про небезпеки діпфейків і способах боротьби з ними.

«На жаль, великий шматок з цих видів підроблених відео були створені для порнографічних цілей, і що [причиною] багато ... психічної шкоди жертвам» сказав він в прес-релізі. «Є також потенційне політичний вплив, фальшиве відео, на якому політики говорять щось або роблять щось, чого вони не повинні робити. Це погано».

Не кажучи вже про те, що за допомогою діпфейків можна створювати моторошні фальшиві відео з мегавідомими саєнтологами.

Джерела: SciTechDaily

Автор: Тоні Тран
Вакцинуйся!
ОСТАННІ КОМЕНТАРІ