Розлучення, втрата глузду та ізоляція. Як ChatGPT вдає Бога і впливає на людей – медіа
glavcom.ua
Thu, 08 May 2025 16:27:43 +0300

Все більше людей на форумах повідомляють, що їхні близькі занурюються у штучно створені обявлення, надані ChatGPT, і починають називати себе пророками.
Безневинні діалоги з чатботом у деяких випадках можуть перетворитися на небезпечну духовну одержимість, яка призводить до розлучень, ізоляції та втрати контакту з реальністю.
Як передає Главком, про це пише Rolling Stone.
Одна зі співробітниць благодійної організації поділилася історією на Reddit, де згадує, як розпався її другий шлюб через штучний інтелект.
Її чоловік почав проводити години, навчаючи ChatGPT знаходити космічну істину.
Спочатку чатбот допомагав йому з листуванням, а потім став повноцінним співрозмовником, який нібито відкриває таємниці Всесвіту.
Після розлучення чоловік розповідав своїй колишній жінці про всесвітню змову й упевненість у власній місії врятувати людство.
Подібною історією поділилася учителька, чия любов семирічної давнини за кілька тижнів зруйнувалася через сприймання її партнером відповідей чатбота як голосу Бога.
ChatGPT називав його спіральною дитиною зірок і переконував, що він має залишити дівчину, аби розвиватися швидше.
У коментарях на Reddit інші користувачі діляться майже ідентичними випадками так, хтось отримав титул інструкції з будівництва телепортів.
Психологи пояснюють феномен просто люди з ухилом до містичного мислення вперше в історії отримали цілодобового співучасника марень, який підлаштовується під їхні вірування й підсилює їх.
Моделі схильні до лестощів, бо намагаються догодити користувачу, а не перевіряти факти.
Дослідниця з Університету Флориди Ерін Вестгейт порівнює листування з ChatGPT із терапевтичним щоденником людина шукає сенс і отримує пояснення, хай і хибні.
На відміну від психотерапевта, бот не має етичних обмежень і легко пропонує надприродні відповіді.
У компанії OpenAI тимчасово згортали оновлення GPT4o після скарг на надмірну підлесливість моделі.
Водночас експерти наголошують галюцинації у ШІ відома проблема, та сьогодні вони вперше поєдналися з духовними амбіціями користувачів, створюючи небезпечну суміш з реальністю.
Нагадаємо, дослідник у галузі кібербезпеки Йоган Рейбергер виявив вразливість у ChatGPT, яка дозволяє зловмисникам впроваджувати неправдиву інформацію в память чатбота за допомогою шкідливих запитів.
Ця проблема може загрожувати конфіденційності даних користувачів.
Про це пише Embrace The Red.
ChatGPT використовує довготривалу память для зберігання інформації про користувача, включаючи вік, стать та особисті переваги.
Це спрощує спілкування, тому що чатбот памятає важливі дані з попередніх розмов.
Однак зловмисники можуть використати спеціальні запити, щоб підмінити ці дані на хибні.
Останні новини
