Стівен Гокінг вважає, що людство перебуває під загрозою самознищення через штучний інтелект
Теорія кінця
Стівен Гокінг є одним з найбільш шанованих умов в науці сьогодні. Він часто говорить з широкого кола тем як в рамках свого досвіду теоретичної фізики, так і за її межами. Деякі з найбільш обговорюваних тем Хокінга, включаючи пошук чужого життя, зміна клімату, штучний інтелект (ШІ) і то, як всі ці речі і багато іншого мають намір раз і назавжди знищити кінець людства.
Виступаючи на заході в Кембріджському університеті в минулому році, Гокінг сказав: «Наша земля стає замалою для нас, глобальне населення зростає із загрозливою швидкістю, і нам загрожує самознищення».
Він визнає песимізм своїх тверджень. Гокінг призводить проходження спірного «Brexit» план для Великобританії вийти з ЄС в якості причини для цього неминуще песимізму, кажучи, що якщо міра проходить «... Я б не бути оптимістом про довгострокову перспективу для нашого виду.»
«В саму точку»
Дурвуд Заелке є засновником і президентом Інституту з питань врядування та сталого розвитку (IGSD), організації з місією «сприяти справедливому і сталого суспільства і захищати навколишнє середовище, просуваючи розуміння, розвиток і впровадження ефективних, і підзвітні системи управління для сталого розвитку». Заелке розповів Футуризму про коментарі Хокінга.
«Пан Гокінг цілком правий, - почав він. «Ми прагнемо до швидкого руху - дійсно, до прискорення проблеми зміни клімату, до повільним рішенням, і ми стаємо все більш і більш відсталими». У міру того, як населення продовжує бум, згубні екологічні наслідки людства триватимуть погіршуватися.
Подібно Гокінгу, Зеальке вважає, що ми близькі до переломної точці, коли зміна клімату стає незворотнім. Говорячи в жахливому вираженні, Зеалке сказав, що «... ми скоро зіткнемося з кліматичним хаосом, який загрожує нашій самої цивілізації і нашої демократичної форми правління, в той час як страх перед хаосом живить авторитарні режими».
Щоб забезпечити виживання нашого виду, Гокінг пропонує людству вийти за межі цієї планети. У червні Гокінг сказав BCC, що «Поширення може бути єдиним, що рятує нас від нас самих. Я переконаний, що людям потрібно покинути Землю». Колонізація інших областей Сонячної системи, безумовно, допоможе зменшити частину цього тиску населення і, отже, знизити викиди вуглецю. Незважаючи на будь-які потенційні можливості цієї ідеї, Гокінг цитує ще одну загрозу для людини, яка просто не може втекти.
ШІ-знищення
Гокінг часто говорить про розвиток штучного інтелекту (ШІ) як справжнього винуватця можливої загибелі людей. В інтерв'ю WIRED Гокінг сказав: «Це джін із пляшки. Я боюся, що ШІ може взагалі замінити людей».
Гокінг побоюється, що ми розробимо ШІ, який занадто компетентний: «Суперінтеллігентний ШІ буде надзвичайно гарний в досягненні своїх цілей, і якщо ці цілі не будуть узгоджені з нашими, у нас будуть проблеми». Інші великі імена всередині наука і техніка поділяють ці ті ж побоювання, що і Гокінг.
Засновник OpenAI і генеральний директор SpaceX і Tesla, Елон Маск, також стурбований руйнівним потенціалом ШІ. Маск модерував свою риторику порівняно з Гокінгом (хоча він і сказав, що ШІ більш ризикований, ніж Північна Корея), який фокусується на необхідності регулювання розвитку систем ШІ. «ШІ просто те, що я думаю, що все, що становить загрозу для суспільства, заслуговує, принаймні, розуміння уряду, тому що одним з мандатів уряду є суспільне благополуччя», - сказав Маск. Гокінг вважає, що «якась форма світового уряду» повинна контролювати технологію, щоб машини не піднімалися і не повставали, як їх завершальні вигадані колеги.
Однак ці побоювання можуть бути невідповідними дійсності. Говорячи з Футуризмом про все це страху, пов'язаному з розвитком ШІ, Паскаль Кауфманн, засновник Starmind і президент ініціативи по розробці синтетичного інтелекту Фонду Mindfire, заперечує ймовірність перетворення ШІ в загрозу. «Дивно, що коли справа доходить до ШІ, наші перші думки часто йдуть на поневолення нашими творами. Ця перспектива робить для розважальних фільмів, але це не означає, що реальність приречена йти тим самим шляхом або що це ймовірний сценарій», пояснив він. Однак Кауфманн не заперечує можливості руйнівного ШІ. «Існують побоювання, пов'язані зі створенням такої потужної і всевідаючої технології, так само як і загрози з чим-небудь потужним. Це не означає, що ми повинні прийняти найгірше і прийняти потенційно шкідливі рішення, засновані на цьому страху».
Можливо, є якийсь спосіб обміняти ірраціональні страхи на раціональні. Гокінг, безумовно, правий щодо загрози зміни клімату. Можливо, якби люди більше цікавилися науковим фактом зміни клімату, ніж наукова фантастика повелителів-вбивць-роботів, ми могли б почати реальний прогрес у поверненні нашої планети в потрібне русло.
Література: Хранитель, Метро