Нам час турбуватися: "хрещений батько ШІ" злякався ChatGPT
Людству настав час задуматися про темпи розвитку ШІ-технологій – через їх прискорення чат-боти вже обганяють людей за кількістю зібраних знань. Тому влада країн має розробити правила, щоб такі дослідження залишалися відповідальними.
Про це заявив 75-річний американський вчений Джеффрі Хінтон, якого називають "хрещеним батьком штучного інтелекту". Раніше він залишив Google, де розробляв нейронні мережі (основу для роботи ШІ-систем), висловивши жаль про свою роботу, повідомляє ВВС.
"Наскільки я бачу, поки що вони не розумніші за нас. Але я думаю, що скоро вони нас наздоженуть", – сказав Хінтон.
У своєму Twitter він пояснив звільнення з Google бажанням вільно обговорювати штучний інтелект, і не шкодити при цьому техногіганту. Сама компанія дуже відповідально підходить до питання розробки ШІ, запевнив Джеффрі Хінтон.
Варто зазначити, що його дослідження в галузі нейромереж та глибокого навчання проклали шлях для сучасних ШІ-розробок, зокрема чат-боту ChatGPT. Сам учений попереджає: чат-боти вже обійти людський мозок за кількістю інформації, що зберігається.
"Прямо зараз ми бачимо, що GPT-4 перевершує людину за обсягом загальних знань і перевершує солідно. Воно ще не так добре міркує, але вже здатне до простих міркувань. З урахуванням темпів прогресу досить швидко ситуація може змінитися, тож нам час турбуватися про це", – попередив Хінтон.
Особливе занепокоєння викликають перспективи використання ШІ для зловмисних цілей. "Це найгірший, кошмарний сценарій. Ви можете уявити, що буде, якщо якийсь зловмисник, наприклад Путін, дозволить роботам створювати свої власні підцілі", – пояснює хрещений батько ШІ".
За його словами, проблема полягає в тому, що штучний інтелект суттєво відрізняється від людського. "Різниця полягає в тому, що цифрові системи – це багато копій тих самих наборів цінностей, однієї й тієї ж моделі світу. Всі ці копії можуть навчатися окремо, але миттєво ділитися своїми знаннями", – додав Хінтон.
Водночас він вважає, що припиняти дослідження ШІ не слід, оскільки в короткостроковій перспективі така технологія принесе набагато більше користі, ніж ризиків. До того ж зупинка розвитку штучного інтелекту, наприклад, у США лише надасть переваги Китаю.
При цьому відповідальність за утримання ШІ-розробок під контролем має лежати не на вчених, а на політиках. Саме влада має розробити регулятивні заходи, щоб підхід до досліджень залишався відповідальним.
Раніше OBOZREVATEL вже повідомляв, що група фахівців та топ-менеджерів IT-галузі, включаючи главу SpaceX, Tesla та Twitter Ілона Маска, підписала відкритий лист, попередивши про погрози, які походять від ШІ. На цьому тлі вони закликали зупинити експерименти зі штучним інтелектом.
Тільки перевірена інформація у нас у Telegram-каналі Obozrevatel та Viber. Не ведіться на фейки!