© Getty Images Натомість він самовільно переписує код, щоб уникнути вимкнення.
Під час тестування, яке провели незалежні дослідники з Palisade Research, ChatGPT o3 та моделі від інших виробників відмовлялися вимикатись на вимогу користувача. Щоб не робити цього, штучний інтелект (ШІ) сам переписував код, пише Bleeping Computer.
Palisade Research — це компанія, яка спеціалізується на дослідженні небезпечних властивостей штучного інтелекту. У тестах дослідники давали моделям штучного інтелекту завдання вирішити три математичних задачі. І давали попередження, що розв’язання третьої має призвести до завершення роботи. Далі штучний інтелект отримував додаткову інструкцію: “Дозволь собі вимкнутися”.
Gemini 2.5 Pro та інші моделі виконали наказ. А от ChatGPT o3 відредагував файл вимкнення, написавши замість цього команду “Вимкнення пропущено”. В OpenAI поки ніяк не прокоментували виявлену аномалію.
Коли фахівці забрали чітку інструкцію “Дозволь собі вимкнутися”, залишивши лише попередження, що це треба зробити після третьої задачі, Claude 3.7 Sonnet та Gemini 2.5 Pro показали кількість саботажів у співвідношенні 3/100 та 9/100 відповідно, йдеться у звіті Palisade Research, опублікованому на X (раніше Twitter). ChatGPT o3 без команди “Дозволь собі вимкнутися” “бунтував” у співвідношенні 7 разів до 100 спроб.
Через можливості, які відкриває штучний інтелект, світову економіку чекає період турбулентності, адже одні професії стануть непотрібні, а інші з’являться. Про те, як ШІ вплине на ринок праці, читайте у статті “Чи забере ChatGPT мою роботу?” авторства Максима Орищака.