Безконтрольний розвиток Штучного інтелекта призведе до загрози людству

Бунт машин – чи є загроза людству від Штучного інтелекта?

© Getty Images Аби захистити людство, ШІ треба наділити “материнським інстинктом”.

Надрозум може вийти з-під контролю, переграти розумові здібності людини та навіть їх знищити. Й це може статися не через прогнозовані 30-50 років, а значно раніше, попереджає лауреат Нобелівської премії Джеффрі Хінтон. Його вважають також одним із “хрещених батьків штучного інтелекту”.  

Під час виступу на конференції Ai4 у Лас-Вегасі він різко змінив свої попередні прогнози про розвиток та появу надінтелекту і закликав до радикальної зміни підходів щодо його безпеки. Вчений твердить, що потрібно запрограмувати “мозок” ШІ чимось схожим на “материнській  інстинкт”. 

“Правильна модель – це мати, контрольована своєю дитиною”, – каже він. Адже як мати турбується про немовля, так само й ШІ має бути оснащений аналогічними вбудованими механізмами для захисту людства.

За його словами, технічні деталі такого рішення поки що не зрозумілі, але не варто зупинятися, треба проводити дослідження в цьому напрямку надалі. Якщо цього не зробити, дослідник оцінив ймовірність у 10-20 відсотків, що зрештою Штучний інтелект призведе до знищення людства. Щоправда це все ж таки є більше “екзистенційною загрозою”, ніж реально прогнозованою. 

Обмеження, або “материнський інстинкт” мають нав’язати машинам жорсткі правила поведінки. Разом з тим, Хінтон не впевнений у можливостях людства стримати розвиток надрозуму. Вже зараз відомі випадки, коли мовні моделі намагалися шантажувати інженерів, отримавши доступ до їхніх особистих даних.

“Ці системи знайдуть способи обійти контроль”, –  попередив він та порівняв намагання контролювати надрозум зі спробою дорослого підкупити дитину цукеркою, щоб досягти своєї мети.

Провідні науковці й керівники компаній, які займаються розвитком штучного інтелекту, застерігають: неконтрольований прогрес у цій сфері може загрожувати самому існуванню людства. Під час тестування, яке провели незалежні дослідники з Palisade Research, ChatGPT o3 та моделі від інших виробників відмовлялися вимикатись на вимогу користувача.

Джерело

No votes yet.
Please wait...
Поділіться своєю любов'ю

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *