Новий штучний інтелект робить щось незвичайне - він пам'ятає

Новий штучний інтелект робить щось незвичайне - він пам'ятає
Emily Cho
Катастрофічне забування - одна з головних причин, через які експерти не очікували побачити штучний інтелект на людському рівні найближчим часом.

Коли ви повертаєтеся в школу після річної перерви, може здатися, що ви забули все, чому навчилися рік тому. Але якщо ви дізналися, як працює система ШІ, насправді у вас буде - коли ви сіли в перший день занять, ваш мозок сприйме це як сигнал, щоб стерти шифер і почати з нуля.

Прагнення AI систем забути про речі, які раніше вивчали при отриманні нової інформації, називається катастрофічним забування.

Це велика проблема. Див., Передові алгоритми вчаться, так би мовити, після аналізу незліченних прикладів того, що вони очікували робити. Система AI розпізнавання осіб, наприклад, буде аналізувати тисячі фотографій облич людей, ймовірно, фотографії, які були анотовані вручну, щоб вона могла виявити особа, коли воно з'являється в потоці. Але оскільки ці системи ШІ фактично не розуміють основну логіку того, що вони роблять, навчаючи їх робити що-небудь ще, навіть якщо це досить схоже - наприклад, визнаючи певні емоції, - означає, що вони знову і знову тренуються з нуля. Після того як алгоритм буде навчений, це зроблено, ми більше не можемо його оновлювати.

Протягом багатьох років вчені намагалися з'ясувати, як вирішити цю проблему. Якщо вони матимуть успіх, системи ШІ зможуть вчитися на новому наборі даних навчання, що не переписуючи більшу частину того, що вони вже знали в цьому процесі. В принципі, якщо роботи коли-небудь підніметься, наші нові королі зможуть перемогти все життя на Землі і одночасно пережувати бульбашки.

Проте, катастрофічне забування є одним з основних перешкод, що заважають вченим створювати штучний загальний інтелект (AGI) - AI, який є всеосяжним, чуйним і образним, як ті, що ми бачимо в тілі і кіно.

 

Фактично, деякі експерти ІІ, які були присутні на спільній мультіконференціі зі штучного інтелекту на рівні людини минулого тижня в Празі, в приватних бесідах з футуризмом або під час панелей і презентацій заявили, що проблема катастрофічного забування є однією з головні причини, по яким вони не очікують побачити AGI або AI на людському рівні найближчим часом.

Але Ірина Хіггінс, старший науковий співробітник Google DeepMind, використовувала її презентацію під час конференції, щоб оголосити, що її команда почала зламувати код.

Вона розробила агент ІІ - ніби як персонаж відеоігри, керований алгоритмом AI, який міг би мислити більш творчо, ніж типовий алгоритм. Він міг би «уявити», що речі, з якими він зіткнувся в одному віртуальному середовищі, можуть виглядати як в іншому місці. Іншими словами, нейронна мережа здатна розплутати деякі об'єкти, з якими вона стикалася в імітованої середовищі з самого середовища.

Це не те ж саме, що уява людини, де ми можемо взагалі придумати нові розумові образи (подумайте про птаха - ви можете, ймовірно, створити образ того, як виглядала б вигадана сферична червона птах в вашому очей розуму.) Система ІІ не так витончено, але може уявити об'єкти, які вже бачили в нових конфігураціях або місцях.

«Ми хочемо, щоб машина навчилася безпечного здоровому глузду в своєму дослідженні, тому вона не завдає шкоди самому собі», - сказав Хіггінс в своєму виступі на конференції, організованій GoodAI. На цьому тижні вона опублікувала свій документ на сервері preprint arXiv, а також написала супровідне повідомлення в блозі.

Припустимо, ви йдете по пустелі (як і кожен), і ви стикаєтеся з кактусом. Один з тих великих, двох-збройних, які ви бачите в усіх мультфільмах. Ви можете визнати, що це кактус, тому що ви, ймовірно, зіткнулися з ним раніше. Можливо, ваш офіс купив сукулентів, щоб оживити це місце. Але навіть якщо ваш офіс без кактусів, ви, ймовірно, могли б уявити собі, як цей пустельний кактус буде виглядати у великому глиняному горщику, можливо, поруч з Брендой зі столу бухгалтерського обліку.

Тепер система AI Хіггінса може робити майже те ж саме. За допомогою всього лише п'яти прикладів того, як даний об'єкт виглядає з різних ракурсів, агент ІІ вивчає, що це таке, як він ставиться до навколишнього середовища, а також як він може виглядати з-за інших кутів, які він не бачив або в різних умовах освітлення. У документі підкреслюється, як був підготовлений алгоритм для визначення білого валізи або крісла. Після його навчання алгоритм може уявити, як цей об'єкт буде виглядати в абсолютно новому віртуальному світі і розпізнати об'єкт, коли він зустріне його там.

«Ми запускаємо точну настройку, яку я використовував для мотивування цієї моделі, а потім ми представляємо зображення з одного середовища і просимо модель уявити, як вона буде виглядати в іншому середовищі», - сказав Хіггінс. Знову і знову її новий алгоритм перевершував завдання в порівнянні з системами ІІ з заплутаними уявленнями, які могли передбачити меншу кількість якостей і характеристик об'єктів.

Якщо коротко, алгоритм може відзначити відмінності між тим, що він зустрічає і тим, що він бачив в минулому. Як і більшість людей, але на відміну від більшості інших алгоритмів, нова система Higgins, створена для Google, може зрозуміти, що вона не зустрічає абсолютно новий об'єкт тільки тому, що бачить щось під новим кутом. Потім він може використовувати деяку запасну обчислювальну потужність для отримання цієї нової інформації; система AI оновлює те, що вона знає про світ, без необхідності перепідготовки та повторного вивчення всього заново. В принципі, система може передавати і застосовувати свої існуючі знання в нове середовище. Кінцевий результат - це свого роду спектр або континуум, який показує, як він розуміє різні якості об'єкта.

Тільки модель Хіггінса не приведе нас до AGI, звичайно. Але це знаменує собою важливий перший крок до алгоритмів ШІ, які можуть постійно оновлюватися в міру їх надходження, вивчаючи нові речі про світ, не втрачаючи того, що у них вже було.

«Я думаю, що дуже важливо досягти чогось близького до штучного загального інтелекту», - сказав Хіггінс.

І ця робота все ще перебуває на ранніх стадіях. Ці алгоритми, як і багато інших інструментів AI розпізнавання об'єктів, досягають успіху в досить вузькій задачі з обмеженим набором правил, наприклад, дивлячись на фотографію і виділяючи особа серед багатьох речей, які не є особами. Але нова система AI Хіггінса робить вузьку задачу таким чином, що ближче нагадує творчість і деякий цифрове моделювання уяви.

І хоча дослідження Хіггінса не відразу призвело до епохи штучного загального інтелекту, її новий алгоритм вже має здатність покращувати існуючі системи AI, які ми використовуємо весь час. Наприклад, Хіггінс спробував свою нову систему ІІ на великому наборі даних, що використовуються для навчання програм розпізнавання осіб. Після аналізу тисяч і тисяч хедшотов, знайдених в наборі даних, алгоритм може створити спектр будь-якої якості, з яким ці фотографії були помічені. Як приклад Хіггінс представив спектр осіб, оцінених за тону шкіри.

Хіггінс потім показав, що її алгоритм зміг зробити те ж саме для суб'єктивних якостей, які також знаходять свої шляхи в цих наборах даних, в кінцевому рахунку навчаючи людські упередженості AI розпізнавання особи. Хіггінс показав, як зображення, які люди назвали «привабливими», створили спектр, який вказував прямо на фотографії молодих, блідих жінок. Це означає, що будь-яка система штучного інтелекту, яка була навчена цим фотографіям, і їх багато, тепер дотримуються тих же расистських поглядів, що і люди, які в першу чергу позначають фотографії: білі люди більш привабливі.

Цей новий новий алгоритм вже краще, ніж ми, коли мова заходить про пошук нових способів виявлення людських ухилень в інших алгоритмах, щоб інженери могли входити і видаляти їх.

Таким чином, поки він не може замінити виконавців, команда Хіггінса - досить великий крок до того, щоб змусити ІІ уявити собі більше як людини і менш схоже на алгоритм.

Автор: Ден Робітцкі
ОСТАННІ КОМЕНТАРІ