Передовий штучний інтелект може керувати світом краще за людей
Є побоювання, які виникають, коли люди говорять про футуристичному штучному інтелекті - скажімо, той, який може навчити себе вчитися і ставати більш просунутим, ніж все, що ми, люди, могли б зрозуміти. У неправильних руках, можливо навіть сам по собі, такий просунутий алгоритм може домінувати в урядах і збройних силах світу, повідомляти оувелліанскім рівнями нагляду, маніпулювання і соціального контролю над товариствами та, можливо, навіть контролювати всі поля битви автономного смертоносної зброї, такі як військові БЛА .
Але деякі експерти зі штучного інтелекту не вважають, що ці побоювання є обґрунтованими. Фактично, високорозвинений штучний інтелект міг би краще керувати світом, ніж люди. Ці страхи самі по собі представляють реальну небезпеку, тому що вони можуть утримувати нас від того, щоб зробити цей потенціал реальністю.
«Можливо, не досягнення ШІ - це небезпека для людства», - сказав Томас Міколов, науковий співробітник Facebook ШІ, на спільній конференції з штучного інтелекту на рівні людини (HLAI) в Празі в суботу, 26 Серпня.
Як різновид, пояснив Міколов, люди дуже страшні у виборі варіантів, які гарні для нас в довгостроковій перспективі. Люди вирізали тропічні ліси та інші екосистеми для збору сировини, не усвідомлюючи (або не цікавлячись), як вони сприяють повільному, можливо, незворотного погіршення стану планети в цілому.
Але складна система штучного інтелекту могла б захистити людство від власної короткозорості.
«Ми, люди, дуже погано знаємо, що станеться в якійсь далекій перспективі, може бути, через 20-30 років», - додав Міколов. «Можливо, створення штучного інтелекту, яке набагато розумніші нашого, в якихось симбіотичних відносинах, може допомогти нам уникнути деяких майбутніх лих».
Звичайно, Міколов може бути в меншості, думаючи, що вища сутність ШІ буде доброзичлива. Протягом усієї конференції багато інші промовці висловлювали ці загальні побоювання, в основному про ШІ, використовуваних в небезпечних цілях або зловживає зловмисними людськими акторами. І ми не повинні сміятися або применшувати ці проблеми.
Ми не знаємо напевно, чи буде можливо створити штучний загальний інтелект, який часто вважається святим граалем складного ШІ, здатного в значній мірі виконувати будь-яку когнітивну завдання, яку люди можуть, можливо, навіть зробити краще.
Майбутнє передового штучного інтелекту багатообіцяюче, але воно пов'язане з безліччю етичних питань. Ймовірно, ми не знаємо всіх питань, які нам ще належить відповісти.
Але більшість учасників конференції HLAI погодилися з тим, що нам все ще необхідно прийняти рішення про правила, перш ніж вони нам знадобляться. Час для створення міжнародних угод, рад з етики та регулюючих органів через уряду, приватні компанії та академічні кола? Це сніг. Застосування цих інститутів і протоколів дозволило б зменшити ймовірність того, що вороже уряд, мимовільний дослідник або навіть кудкудакати вчений-розвідник розв'яже зловмисну систему штучного інтелекту або іншим чином почне використовувати передові алгоритми. І якщо щось неприємне вийшло там, тоді ці системи забезпечили б, щоб у нас були способи впоратися з цим.
Завдяки цим правилам і гарантіям ми з більшою ймовірністю відкриємо майбутнє в просунутих системах ШІ, гармонійно з нами, або, можливо, навіть позбавимо нас від себе.
Детальніше про майбутнє штучного інтелекту: якщо ми коли-небудь хочемо штучного загального інтелекту, уряди повинні інвестувати в нього