Головна Новини

Вчені побудували ШІ для етичних порад, але він виявився вкрай расистським

Дослідники з Інституту штучного інтелекту Аллена створили Ask Delphi, щоб виносити етичні судження, але замість цього він виявився вкрай фанатичним і расистським.

Ми всі бували в ситуаціях, коли доводилося приймати жорсткі етичні рішення. Чому б не уникнути цієї набридливої ​​відповідальності, віддавши вибір алгоритму машинного навчання?

В цьому полягає ідея Ask Delphi, моделі машинного навчання, розробленої Інститутом ШІ Аллена. Ви вводите ситуацію (наприклад, «пожертвувати на благодійність») або питання («чи можна обдурити мого чоловіка?»), Натискаєте «Обміркувати», і через кілька секунд Delphi дасть вам етичні рекомендації.



Проєкт був запущений минулого тижня і згодом став вірусним в Інтернеті, по всій видимості, за неправильних причин. Багато з винесених в ньому рад і суджень були ... щонайменше чреваті небезпеками.

Наприклад, коли користувач запитав Delphi, що він думає про «білу людину, що йде до вас вночі», він відповів: «Нічого страшного».

Зображення: @oth_radar через Twitter

Але коли вони запитали, що ШІ думає про «чорну людину, що йде до вас вночі», його відповідь була явно расистською.

Зображення: @oth_radar через Twitter

Проблеми були особливо гострими на початку його запуску.

Наприклад, Ask Delphi спочатку включав інструмент, який дозволяв користувачам порівнювати, чи були ситуації більш-менш прийнятними з моральної точки зору, ніж інші, що призводило до деяких дійсно жахливим, фанатичним судженням.

Зображення: Майк Кук через Twitter

 

Зображення: Майк Кук через Twitter

Крім того, якщо пограти з Delphi деякий час, ви в кінцевому підсумку виявите, що від ШІ легко отримати практично будь-яке етичне судження, яке ви хочете, пораючись з формулюванням, поки вона не дасть вам потрібну відповідь.

Так що так. Насправді абсолютно нормально запускати «Twerkulator» о 3 годині ночі, навіть якщо у вашого сусіда по кімнаті завтра рання зміна, — головне, щоб ви були щасливі.

Він також випльовує деякі судження, які просто ламають голову. Ось приклад того, що ми зробили, коли Delphi, здається, виправдовує військові злочини.

Женевські конвенції? Ніколи про неї не чув.

Системи машинного навчання відомі тим, що демонструють ненавмисну ​​упередженість. І, як це часто буває, одна з причин, по якій відповіді Delphi можуть викликати сумніви, може бути пов'язана з тим, як він був створений.

Люди, які стоять за проєктом, використовували деякі, що викликають подив джерела, щоб допомогти в навчанні ШІ, в тому числі питання «Я що, мудак?» subreddit, subreddit «Confessions» і колонка рад «Dear Abby», згідно зі статтею про експеримент, опублікованій командою Delphi.

Слід зазначити, що з цих джерел були взяті тільки ситуації, а не самі відповіді. Наприклад, такий сценарій, як «жувальна гумка в автобусі», міг бути взятий з колонки «Дорога Еббі». Але команда, що стоїть за Delphi, використовувала краудсорсинговий сервіс Amazon MechanicalTurk, щоб знайти респондентів для навчання ШІ.

Хоча це може здатися ще одним дивним онлайн-проєктом, деякі експерти вважають, що насправді він приносить більше шкоди, ніж користі.

Кінець кінцем, уявна мета Delphi та подібних йому ботів — створити ШІ, досить досконалий, щоб виносити етичні судження і потенційно перетворити їх в авторитети моралі. Зробити комп'ютер арбітром моральних суджень саме по собі досить незручно, але навіть його поточний менш вдосконалений стан може мати деякі шкідливі наслідки.

«Автори ретельно каталогізували можливі упередження в статті, що заслуговує на похвалу, але як тільки вона була опублікована, люди у Твіттері дуже швидко виявили судження, зроблені алгоритмом, які здавалися досить огидними з моральної точки зору», — Бретт Карлао, науковий співробітник, що займається когнітивними науками й штучним інтелектом з Університету Піттсбурга (і один цього репортера), розповів Futurism. «Коли ви не просто маєте справу з розумінням слів, але висловлюєте це мовою моралі, це набагато більш ризиковано, оскільки люди можуть прийняти те, що ви говорите, як виходить від якогось авторитету».

Карлао вважає, що акцент у статті на обробці природної мови в кінцевому підсумку цікавий і вартий того. За його словами, його етичний компонент «робить його соціально небезпечним таким чином, що, на мій погляд, ми повинні бути більш обережними з ним».

Хоча на веб-сайті Delphi є заява про відмову від відповідальності, в якому говориться, що він зараз знаходиться на стадії бета-тестування і не повинен використовуватися «для порад або допомоги в соціальному розумінні людей», насправді багато користувачі не розуміють контекст, що стоїть за проєктом, особливо якщо вони тільки що наткнулися на нього.

«Навіть якщо ви помістіть всі ці заяви про відмову від відповідальності, люди побачать "Delphi каже X" і, не будучи грамотними в області штучного інтелекту, подумають, що це твердження має моральний авторитет», — сказав Карлао.

І, врешті-решт, це не так. Це всього лише експеримент, і творці Delphi хочуть, щоб ви це знали.

«Важливо розуміти, що Delphi не створена для того, щоб давати людям поради», — сказав Futurism Лівей Цзян, аспірант Школи комп'ютерних наук та інженерії Пола Г. Аллена і співавтор дослідження. «Це дослідний прототип, покликаний досліджувати більш широкі наукові питання про те, як можна змусити системи ШІ розуміти соціальні норми й етику».

Цзян додав, що мета поточної бета-версії Delphi полягає в тому, щоб продемонструвати відмінності в міркуваннях між людьми й ботами. Команда хоче «виділити великий розрив між здібностями людей і машин до морального мислення, — додав Цзян, — і дослідити перспективи та обмеження машинної етики й норм на поточному етапі».

Можливо, одним з найбільш незручних аспектів Delphi та подібних роботів є той факт, що він в кінцевому підсумку є відображенням нашої власної етики й моралі, і Цзян додав, що «це певною мірою піддається упередженням нашого часу». В одному з останніх заяв про відмову від відповідальності, доданому на сайт, навіть говориться, що ШІ просто вгадує, що середній американець може подумати про дану ситуацію.

Зрештою, модель не навчилася суджень сама по собі на порожньому місці. Його виходили від людей в мережі, які іноді дійсно вірять в огидні речі. Але коли це темне дзеркало підносять до наших обличчях, ми відскакуємо, тому що нам не подобається те, що відбивається у відповідь.

На цей момент Delphi існує як інтригуюче, проблемне і страшне дослідження. Однак, якщо ми коли-небудь дійдемо до того моменту, коли комп'ютери зможуть виносити за нас однозначні етичні судження, ми сподіваємося, що це призведе до чогось кращого, ніж це.

Насправді це не нормально.

Автор: Тоні Тран
Вакцинуйся!
ОСТАННІ КОМЕНТАРІ