Пентагон приймає нові етичні "принципи" для штучного інтелекту у військових діях
"Етичне використання"
У понеділок Пентагон оголосив про офіційне прийняття ряду нових принципів етичного використання штучного інтелекту в військових діях, повідомляє Associated Press.
Принципи були сформовані комісією під назвою (похмуро Newspeak-y) Рада з оборонних інновацій, який випустив свої рекомендації (назва: «Принципи ШІ: рекомендації по етичному використанню штучного інтелекту Міністерством оборони») в Пентагон в жовтні минулого року.
Правління було організовано колишнім генеральним директором Google Еріком Шмідтом, цікавий поворот, даний (як вказав AP) через те, як Google, здавалося, (або прикидався) випав з проєкту міністерства оборони за участю О.І. у 2018 році після внутрішніх протестів співробітників Google (не кажучи вже про те, як Пентагон брав участь Google).
"Відповідальний"
Згідно зі звітом на кінець 2019 року, принципи (з перефразування в дужках):
1. Відповідальний («люди» в D.O.D. повинні виносити судження при використанні A.I. у війні)
2. Справедливий (Д.О. «повинен зробити навмисні кроки», щоб уникнути упередженого ставлення до визнання А.І.)
3. Простежуваний (Д.О. повинен показати свою домашню роботу і зрозуміти, як працює технологія)
4. Надійний (системи A.I. повинні мати «чітко визначену область використання», а також працювати добре)
5. Керований (системи A.I. потребують «здатності виявляти і уникати ненавмисного шкоди або порушення», тобто не використовувати Skynet для нас).
Якщо все це звучить широко, без шкоди, неефективно, недалекоглядно, болісно очевидно і беззубо, ну ...
"Принципи"
The Next Web назвала принципи «туманними» і «беззубими». А Дейв Гершгорн з OneZero зазначив, що ці передбачувані етичні принципи відсутні: «Не вбивай кого-небудь роботом». Ви можете самі вирішити, наскільки вони ефективні, прочитавши їх тут.
Джерела: Associated Press, The Next Web