Технологія, яка «виявляє емоції», може перешкодити вам отримати роботу
Змішані емоції
Машини можуть не мати емоцій, але це не означає, що вони не можуть їх розпізнати.
Принаймні, це одна добре фінансована віра в технологічну індустрію.
Від стартапів до відомих гравців, таких як Amazon і Microsoft, ряд технологічних компаній тепер пропонують продукти «аналізу емоцій», які являють собою системи, призначені для аналізу особи людини, щоб визначити, як він себе почуває — хоча є підстави вважати, що ці системи можуть принести більше шкоди, ніж користі, коли їх застосовують для найму на роботу або прийняття рішення про утворення.
Подвійна технологія
Згідно з новою історії Guardian, системи виявлення емоцій є комбінацією двох технологій.
Перше — це комп'ютерний зір — це те, що «бачить» зображення або відео особи людини та виявляє його риси й вирази. Другий — це штучний інтелект, здатний аналізувати цю інформацію, щоб визначити, що людина відчуває. Наприклад, він може помітити когось з опущеними бровами й виряченими очима як «злого», а когось з широкою посмішкою — як «щасливого».
Ці системи вже використовуються для безлічі додатків — в IBM, Unilever і декількох інших компаній є системи, які вони використовують для відбору кандидатів на роботу, в той час як Disney використовує систему виявлення емоцій, щоб визначити, як глядачі ставляться до фільмів у час показу.
«Ви також бачите експериментальні методики, пропоновані в шкільному середовищі, щоб побачити, чи зайнятий учень, нудьгує або злиться на уроках», — сказав Мередіт Уіттакер, со-директор дослідницького інституту AI Now, в інтерв'ю The Guardian.
Упереджений ШІ
Неважко побачити переваги цього типу технологій для Disney, IBM та інших компаній — принаймні, якби системи були надзвичайно точними. Але, схоже, це не так.
В грудні дослідники з Університету Уейк Форест опублікували дослідження, в якому вони протестували кілька систем виявлення емоцій, в тому числі Microsoft, і виявили, що ці системи привласнюють негативні емоції фотографій чорношкірих людей частіше, ніж фотографій білих людей, навіть коли вони посміхалися в тій же мірі — імітуючи расові забобони, притаманні іншими типами ШІ.
Як зазначає Уіттакер, ці несправні системи можуть принести більше шкоди, ніж користі, принаймні, для людей, яких вони аналізують.
«Ця інформація може використовуватися таким чином, щоб люди не могли отримати роботу або не могли визначити, як з ними поводяться та оцінюють в школі, — сказала вона The Guardian, — і якщо аналіз не дуже точний, це конкретний матеріальний збиток».
Джерела: The Guardian