Людство під загрозою: розробники порівняли ШІ з ядерною війною

Сотні директорів та дослідників штучного інтелекту б'ють на сполох

Розвиток штучного інтелекту може становити реальну загрозу існування людства. За своїми масштабами небезпека, що виходить від технології ШІ, можна порівняти з пандеміями та ядерними війнами.

Про це йдеться у відкритому листі Центру безпеки ШІ, який підписали близько 350 керівників та дослідників галузевих компаній. Документ підписали гендиректор OpenAI Сем Альтман, голова Google DeepMind Деміс Гасабіс, співзасновник Asana Дастін Московіц та інші, зокрема "хрещені батьки" ШІ Джеффрі Хінтон та Йошуа Бенжії.

"Зниження ризику зникнення людства через ШІ має стати пріоритетом глобального рівня поряд з такими ризиками аналогічного масштабу, як пандемії та ядерна війна", - йдеться у листі. Вони сподіваються, що їхній заклик стане початком повноцінної громадської дискусії про небезпеку штучного інтелекту.

Заява відзначається лаконічністю. До того ж, не можна не згадати, що схоже застереження було оприлюднене в березні. Його автори (ними стали зокрема Ілон Маск, Стів Возняк та понад 1000 інших експертів) закликали зупинити експерименти зі штучним інтелектом.

Вони пояснили свої побоювання тим, що останніми місяцями ведуться безконтрольні перегони алгоритмів штучного інтелекту, поведінку яких не можуть передбачити і контролювати самі розробники. Тому якщо творці ШІ-проєктів не зможуть самі влаштувати піврічну паузу, в цей процес має втрутитися уряд.

Центр безпеки ШІ – некомерційна організація з Сан-Франциско, яка детально вивчає ризики, що надходять від цієї технології. Серед очевидних прикладів дослідники наводять такі:

  • ШІ може використовуватися для дезінформації, здатної дестабілізувати суспільство та підірвати колективне прийняття рішень;
  • за допомогою ШІ можна створювати автономну зброю та хімічні озброєння;
  • ШІ в руках автократичних режимів допоможе їм нав'язувати вузькі цінності через всепроникний контроль та жорстку цензуру;
  • повсюдне впровадження ШІ послабить людський потенціал і зробить людей занадто залежними від цієї технології.

Існує кілька кроків для запобігання реалізації найгіршого сценарію: створення єдиного стандарту безпеки та етики при розробці ШІ, а також механізмів контролю та відповідальності за дії таких розробок. Крім того, міжнародне співтовариство має співпрацювати та підтримувати діалог з питань, пов'язаних із штучним інтелектом, а громадськість необхідно просвітлювати про можливості та небезпеки цієї технології.

Раніше OBOZREVATEL вже повідомляв про застереження Джеффрі Хінтона щодо ШІ. Він закликав владу країн має розробити правила, щоб відповідні дослідження залишалися відповідальними.

Тільки перевірена інформація у нас у Telegram-каналі Obozrevatel та у Viber. Не ведіться на фейки!