ООН розглядає можливу заборону «вбивчих роботів»
Все ще в порядку
Представники країн світу зібралися 18 листопада для обговорення систем озброєнь в Конвенції Організації Об'єднаних Націй про звичайні збройні сили (КНО). Одним з питань, що становлять особливий інтерес на зустрічі, був заклик 22 країн поставити пряму заборону на розробку і використання автоматизованого зброї, також відомого як «вбивчі роботи».
Напередодні з'їзду сотні експертів в області штучного інтелекту (ШІ) і робототехніки об'єдналися, надсилаючи листи світовим лідерам, закликаючи їх підтримати заборону на автономне зброю. Елон Маск, засновник OpenAI і генеральний директор Tesla і SpaceX, також наполягає на регулюванні розвитку автономного зброї.
Зустріч, можливо, була менш продуктивною, ніж очікували ці групи. Вони в основному сприяли створенню майбутніх переговорів, які, ймовірно, відбудуться в наступному році. Мері Уерех, директор інформаційно-пропагандистської служби Відділу по зброї в Хьюман Райтс Вотч та глобальний координатор кампанії «Зупинити вбивчі роботи», сказала AFP: «Країни не встигають ... витрачати даремно просто розмови з цього питання». Вона каже, що військові і оборонні компанії вже вкладають значні кошти в втілення цієї зброї в реальність.
Однак голова наради Amandeep Gill, посол Індії в галузі роззброєння, спробував усунути деякі з галасу, пов'язані з цим питанням. «Пані та панове, у мене є новини для вас: роботи не захоплюють світ. Люди як і раніше несуть відповідальність », - вигукнув він, згідно з повідомленнями The Guardian. «Я думаю, що ми повинні бути обережні, щоб не хвилювати і не драматизувати цю проблему».
Відповідно до кампанією «Зупинити вбивчі роботи» зустріч привела до двох точках угоди в цьому напрямку: більшість країн погодилися, що нам потрібен «юридично обов'язковий інструмент», який контролює використання цих технологій, і що більшість «держав» тепер погоджуйтеся з тим , що над системами озброєнь повинна підтримуватися якась форма людського контролю ». Переговори, що просуваються вперед, повинні будуть сфокусуватися на тому, як будуть виглядати ці точки відповідності на практиці.
Встановлення меж
Автономне зброю зробить глибокий вплив на хід війни, і ескалація озброєнь, яка може привести до цього, спонукала деяких, особливо країн з меншими військовими бюджетами, вимагати регулювання (принаймні). Тобі Уолш, експерт з ШІ в Університеті Нового Південного Уельсу в Австралії, не розповідав про свої почуття по цій темі.
«Це буде зброя масового знищення», - сказав Уолш журналістам під час окремого заходу в ООН. «Я насправді абсолютно впевнений, що ми заборонимо цю зброю ... Моя єдина турбота полягає в тому, чи є [країни] мужність переконання зробити це зараз, або нам доведеться чекати, поки люди помруть в першу чергу».
У той час як міжнародні угоди про розробку і використання автономного зброї ідеальні, окремі країни також знають свої наміри. У відповідь на лист від Муска і інших, Сполучене Королівство вже прийняло рішення заборонити повністю автономне зброю. Оголошення було передано Міністерством оборони США у вересні.
Але занепокоєння Муска про майбутнє ШІ не віднесено до заявок на зброю, оскільки він вважає, що розвиток ШІ в цілому слід уважно стежити і регулювати. «Я думаю, що все, що становить загрозу для суспільства, заслуговує, принаймні, розуміння уряду, тому що одним з мандатів уряду є суспільне благополуччя», - сказав він на телефонній конференції з інвесторами Tesla.
AI є передвісником в невизначеному майбутньому. Багато експертів, такі як Рей Курцвейл, намагаються протистояти аргументам на користь ослаблення розробки ШІ з обіцянками, що ІІ «поліпшить нас». Проте, будь-яка хороша технологія може також мати руйнівні програми. Забезпечення того, щоб дивовижний потенціал цих технологій розвивався таким чином, який дійсно хороший для всього людства, не дивно, що це кращий спосіб просування вперед.
Література: The Guardian, Washington Post