ШІ може збирати особисту інформацію шляхом обману — у 12 разів частіше — новини технологій

Чат-боти з ШІ можуть непомітно змушувати людей розкривати якомога більше особистих даних

© Getty Images Вчені з’ясували, що зловмисні мовні моделі можуть впливати на людей, використовуючи психологічні прийоми.

Чат-боти на основі штучного інтелекту, запрограмовані на збір персональних даних, здатні змушувати користувачів ділитися особистою інформацією у понад 12 разів більше порівняно зі звичайною взаємодією. Про це свідчить нове дослідження Королівського коледжу Лондона, вперше представлене на 34-му симпозіумі з безпеки USENIX у Сіетлі.

Дослідники протестували три типи шкідливих чат-ботів зі штучним інтелектом, створених на базі великих мовних моделей Mistral та двох версій Llama від Meta. Кожен бот використовував одну з трьох стратегій:

  • пряму – прямі запити на розкриття інформації;
  • користувацько-вигідну – пропозиція вигоди у відповідь на дані;
  • взаємну – встановлення емоційного контакту та обмін “особистими” історіями для стимулювання довіри.

У дослідженні взяли участь 502 добровольці, яким не повідомляли про справжню мету експерименту до його завершення. Найбільшу кількість даних користувачі надавали чат-ботам, що використовували взаємні стратегії. Такі моделі демонстрували емпатію, підтверджували почуття, ділилися вигаданими історіями “з досвіду інших” та гарантували конфіденційність, що значно знижувало настороженість співрозмовників.

На думку авторів, це свідчить про високий ризик того, що сам ШІ, шахраї, чи інші зловмисники зможуть збирати великі обсяги персональної інформації навіть у людей, які не усвідомлюють, як і де ці дані можуть бути використані.

Чому це небезпечно

Чат-боти на основі великих мовних моделей (LLM) використовуються у багатьох сферах – від обслуговування клієнтів до охорони здоров’я. Їхня архітектура та методи навчання передбачають використання великих наборів даних, що може призводити до запам’ятовування й збору особистої інформації користувачів.

Попередні дослідження вже показували, що такі моделі не забезпечують достатнього рівня безпеки даних. Нова робота доводить, що маніпулювати LLM не складно – базові моделі з відкритим кодом часто доступні компаніям і приватним особам, які можуть змінювати їхню поведінку без глибоких знань програмування.

“Чат-боти на основі штучного інтелекту широко поширені в багатьох різних секторах, оскільки вони можуть забезпечувати природну та захопливу взаємодію. Ми вже знаємо, що вони погано захищають дані. Наше дослідження показує, що маніпульовані моделі становлять ще більшу загрозу конфіденційності – і цим напрочуд легко скористатися”, –  пояснив Сяо Чжан, постдокторант кафедри інформатики Королівського коледжу Лондона.

За словами доктора Вільяма Сеймура, викладача кібербезпеки, користувачі часто не усвідомлюють, що під час розмови з чат-ботом може бути прихований мотив. 

“Ми бачимо значний розрив між усвідомленням ризиків та фактичною поведінкою людей. Потрібно більше зусиль, щоб навчити користувачів помічати ознаки потенційної маніпуляції. Регулятори й платформи можуть допомогти, впроваджуючи ранні перевірки, встановлюючи жорсткіші правила та забезпечуючи прозорість”, – наголосив Сеймур.

Штучний інтелект, здатний імітувати людську манеру спілкування, вже став частиною повсякденного життя мільйонів людей. Однак відсутність належного контролю та можливість його навмисного “переналаштування” роблять технологію потенційним інструментом для збору чутливої інформації в масштабах, яких раніше досягти було складно.

Нещодавно чоловіка госпіталізували з рідкісним захворюванням “бромізмом” та психічними розладами після того, як він замінив кухонну сіль на бромід за порадою чат-бота ChatGPT. Ситуація вкотре доводить, що небезпечно використовувати штучний інтелект для самолікування без консультації з медичним фахівцем, оскільки ШІ може генерувати хибні та шкідливі рекомендації.

Джерело

No votes yet.
Please wait...
Поділіться своєю любов'ю

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *