УкраїнськаУКР
EnglishENG
PolskiPOL
русскийРУС

Человечество под угрозой: разработчики сравнили ИИ с ядерной войной

2 минуты
22,8 т.
Сотни директоров и исследователей искусственного интеллекта бьют тревогу

Развитие искусственного интеллекта может представлять реальную угрозу для существования человечества. По своим масштабам опасность, исходящая от технологии ИИ, сравнима с пандемиями и ядерными войнами.

Видео дня

Об этом говорится в открытом письме Центра безопасности ИИ, которое подписали порядка 350 руководителей и исследователей отраслевых компаний. Документ подписали гендиректор OpenAI Сэм Альтман, глава Google DeepMind Демис Гассабис, соучредитель Asana Дастин Московиц и другие, в частности "крестные отцы" ИИ Джеффри Хинтон и Йошуа Бенжии.

"Снижение риска исчезновения человечества из-за ИИ должно стать приоритетом глобального уровня наряду с такими рисками аналогичного масштаба, как пандемии и ядерная война", – говорится в письме. Они надеются, что их призыв станет началом полноценной общественной дискуссии об опасности искусственного интеллекта.

Заявление отмечается лаконичностью. К тому же, нельзя не вспомнить, что похожее предостережение было обнародовано в марте. Его авторы (ими стали в том числе Илон Маск, Стив Возняк и более 1000 других экспертов) призвали остановить эксперименты с искусственным интеллектом.

Они объяснили свои опасения тем, что в последние месяцы ведется бесконтрольная гонка алгоритмов искусственного интеллекта, поведение которых не могут предсказать и контролировать сами разработчики. Поэтому, если создатели ИИ-проектов не смогут сами устроить полугодовую паузу, в этот процесс должно вмешаться правительство.

Центр безопасности ИИ – некоммерческая организация из Сан-Франциско, детально изучающая риски, которые исходят от этой технологии. Среди самых очевидных примеров исследователи приводят такие:

  • ИИ может использоваться для дезинформации, способной дестабилизировать общество и подорвать коллективное принятие решений;
  • при помощи ИИ можно создавать автономное оружие и химические вооружения;
  • ИИ в руках автократических режимов поможет им навязывать узкие ценности через всепроникающий контроль и жесткую цензуру;
  • повсеместное внедрение ИИ ослабит человеческий потенциал и сделает людей чересчур зависимыми от этой технологии.

Существует несколько шагов для предотвращения реализации худшего сценария: создание единого стандарта безопасности и этики при разработке ИИ, а также механизмов контроля и ответственности за действия таких разработок. Кроме того, международное сообщество должно сотрудничать и поддерживать диалог по вопросам, связанным с искусственным интеллектом, а общественность необходимо просвещать о возможностях и опасностях этой технологии.

Ранее OBOZREVATEL уже сообщал об предостережениях Джеффри Хинтона относительно ИИ. Он призвал власти стран должны разработать правила, чтобы соответствующие исследования оставались ответственными.

Только проверенная информация у нас в Telegram-канале Obozrevatel и в Viber. Не ведитесь на фейки!