Британскую МИ6 впервые возглавит женщина: кого считают фавориткой и при чем здесь Китай
С Днем матери: теплые поздравления для самых родных
Даже короткое сообщение или звонок способны согреть сердце мамы
Развитие искусственного интеллекта может представлять реальную угрозу для существования человечества. По своим масштабам опасность, исходящая от технологии ИИ, сравнима с пандемиями и ядерными войнами.
Об этом говорится в открытом письме Центра безопасности ИИ, которое подписали порядка 350 руководителей и исследователей отраслевых компаний. Документ подписали гендиректор OpenAI Сэм Альтман, глава Google DeepMind Демис Гассабис, соучредитель Asana Дастин Московиц и другие, в частности "крестные отцы" ИИ Джеффри Хинтон и Йошуа Бенжии.
"Снижение риска исчезновения человечества из-за ИИ должно стать приоритетом глобального уровня наряду с такими рисками аналогичного масштаба, как пандемии и ядерная война", – говорится в письме. Они надеются, что их призыв станет началом полноценной общественной дискуссии об опасности искусственного интеллекта.
Заявление отмечается лаконичностью. К тому же, нельзя не вспомнить, что похожее предостережение было обнародовано в марте. Его авторы (ими стали в том числе Илон Маск, Стив Возняк и более 1000 других экспертов) призвали остановить эксперименты с искусственным интеллектом.
Они объяснили свои опасения тем, что в последние месяцы ведется бесконтрольная гонка алгоритмов искусственного интеллекта, поведение которых не могут предсказать и контролировать сами разработчики. Поэтому, если создатели ИИ-проектов не смогут сами устроить полугодовую паузу, в этот процесс должно вмешаться правительство.
Центр безопасности ИИ – некоммерческая организация из Сан-Франциско, детально изучающая риски, которые исходят от этой технологии. Среди самых очевидных примеров исследователи приводят такие:
Существует несколько шагов для предотвращения реализации худшего сценария: создание единого стандарта безопасности и этики при разработке ИИ, а также механизмов контроля и ответственности за действия таких разработок. Кроме того, международное сообщество должно сотрудничать и поддерживать диалог по вопросам, связанным с искусственным интеллектом, а общественность необходимо просвещать о возможностях и опасностях этой технологии.
Ранее OBOZREVATEL уже сообщал об предостережениях Джеффри Хинтона относительно ИИ. Он призвал власти стран должны разработать правила, чтобы соответствующие исследования оставались ответственными.
Только проверенная информация у нас в Telegram-канале Obozrevatel и в Viber. Не ведитесь на фейки!
Жми! Подписывайся! Читай только лучшее!
Даже короткое сообщение или звонок способны согреть сердце мамы