Головна Новини

ДАРПА працює над тим, щоб надати штучному інтелектові більше довір'я

Щоб дослідити розум, ДАРПА фінансує дослідження в університеті штату Орегон, яке спробує зрозуміти аргументи на користь рішень, прийнятих системами штучного інтелекту. ДАРПА сподівається, що це надасть таким системам більше довіри.

Взломати чорну скриню ШІ

За останні роки штучний інтелект (AI) виріс не по днях, а по годинах. Тепер існують системи штучного інтелекту, здатні керувати автомобілями і робити медичні діагнози, а також численні інші варіанти, які люди роблять на щоденній основі. За винятком того, що коли справа доходить до людей, ми дійсно можемо зрозуміти причини таких рішень (в певній мірі).

Однак, коли справа доходить до ІІ, для рішень є певний «чорний ящик», який робить його так, що навіть самі розробники ІІ не зовсім розуміють або передбачають рішення, які робить ІІ. Ми знаємо, що нейронні мережі вчать робити ці вибори, піддаючи їх величезному набору даних. Звідти ІІ тренуються в застосуванні того, що вони вивчають. Досить важко довіряти тому, що ніхто не розуміє.

Агентство перспективних досліджень США (DARPA) хоче розбити цей чорний ящик, і першим кроком буде фінансування восьми професорів комп'ютерних наук з Університету штату Орегон (OSU) з грантом на дослідження в розмірі $ 6,5 млн. «У кінцевому рахунку, ми хочемо, щоб ці пояснення були дуже природними - переклад цих глибоких мережевих рішень в пропозиції і візуалізації », - йдеться в прес-релізі головного дослідника гранту OSA Алана Ферна.

Звукові та інформаційні варіанти

Програма DARPA-OSU, розрахована на чотири роки, буде включати розробку системи, яка дозволить ІІ спілкуватися з експертами з комп'ютерного навчання. Вони почнуть розробляти цю систему, підключивши гравців, які працюють від AI, до стратегічних стратегіям реального часу, таким як StarCraft. Гравці ІІ будуть навчені пояснювати гравцям-людям аргументацію за свої внутрішньоігрові вибори. Це не перший проект, який поміщає AI в середу відеоігор. Google DeepMind також вибрав StarCraft як навчального середовища для ІІ. Там також є спірне Doom-який грає бот AI.

Результати цього дослідницького проекту потім будуть застосовані DARPA до їх існуючої роботі з робототехнікою і безпілотними літальними апаратами. Очевидно, що потенційні застосування ІІ в правоохоронних органах і військових вимагають, щоб ці системи були етичними.

«Ніхто не збирається використовувати ці нові технології для критично важливих додатків, поки ми не зможемо створити певний рівень довіри, а можливість пояснення - один з важливих способів побудови довіри», - сказав Ферн. На щастя, цей проект DARPA-OSU не єдиний, хто працює над гуманізуючим ІІ, щоб зробити його більш надійним.

Посилання: Tech, Oregon State University

Автор: Дом Галеон
Читайте також:
putin-khuylo
Вакцинуйся!
ОСТАННІ КОМЕНТАРІ