Гений ядерной медицины Сильвия Ольга Федорук: первая украинка, занимавшая высокие посты в Канаде
Она внесла огромный вклад в диагностику и лечение онкологических заболеваний
Развитие искусственного интеллекта может представлять реальную угрозу для существования человечества. По своим масштабам опасность, исходящая от технологии ИИ, сравнима с пандемиями и ядерными войнами.
Об этом говорится в открытом письме Центра безопасности ИИ, которое подписали порядка 350 руководителей и исследователей отраслевых компаний. Документ подписали гендиректор OpenAI Сэм Альтман, глава Google DeepMind Демис Гассабис, соучредитель Asana Дастин Московиц и другие, в частности "крестные отцы" ИИ Джеффри Хинтон и Йошуа Бенжии.
"Снижение риска исчезновения человечества из-за ИИ должно стать приоритетом глобального уровня наряду с такими рисками аналогичного масштаба, как пандемии и ядерная война", – говорится в письме. Они надеются, что их призыв станет началом полноценной общественной дискуссии об опасности искусственного интеллекта.
Заявление отмечается лаконичностью. К тому же, нельзя не вспомнить, что похожее предостережение было обнародовано в марте. Его авторы (ими стали в том числе Илон Маск, Стив Возняк и более 1000 других экспертов) призвали остановить эксперименты с искусственным интеллектом.
Они объяснили свои опасения тем, что в последние месяцы ведется бесконтрольная гонка алгоритмов искусственного интеллекта, поведение которых не могут предсказать и контролировать сами разработчики. Поэтому, если создатели ИИ-проектов не смогут сами устроить полугодовую паузу, в этот процесс должно вмешаться правительство.
Центр безопасности ИИ – некоммерческая организация из Сан-Франциско, детально изучающая риски, которые исходят от этой технологии. Среди самых очевидных примеров исследователи приводят такие:
Существует несколько шагов для предотвращения реализации худшего сценария: создание единого стандарта безопасности и этики при разработке ИИ, а также механизмов контроля и ответственности за действия таких разработок. Кроме того, международное сообщество должно сотрудничать и поддерживать диалог по вопросам, связанным с искусственным интеллектом, а общественность необходимо просвещать о возможностях и опасностях этой технологии.
Ранее OBOZREVATEL уже сообщал об предостережениях Джеффри Хинтона относительно ИИ. Он призвал власти стран должны разработать правила, чтобы соответствующие исследования оставались ответственными.
Только проверенная информация у нас в Telegram-канале Obozrevatel и в Viber. Не ведитесь на фейки!
Ты еще не читаешь наш Telegram? А зря! Подписывайся
Она внесла огромный вклад в диагностику и лечение онкологических заболеваний
Украинки на "бирюзовой дорожке" напомнили о российских преступлениях
Противник нашел наиболее слабое место в обороне и пытается закрепить успех