Чи може ШІ замінити психолога? Дослідження виявило несподівані ризики

В епоху стрімкого зростання ШІ в мережі з'явилося безліч чат-ботів - від ворожок до "терапевтів". Останні особливо популярні: вони обіцяють допомогти з тривогою і вигоранням. Але експерти попереджають - довіряти ШІ своє душевне здоров'я може бути небезпечно.
Про це повідомляє РБК-Україна з посиланням на сайт CNET.
Що показали дослідженняНауковці з Університету Міннесоти, Стенфорда, Техасу та Університету Карнегі-Меллона протестували такі "терапевтичні" ШІ та дійшли висновку: вони не є безпечною альтернативою живому спеціалісту.
"Наші експерименти показують, що такі чат-боти не забезпечують якісної психотерапевтичної підтримки", - пояснює Стіві Чанселлор, доцент Університету Міннесоти.
В історії ШІ вже були випадки, коли чат-боти провокували користувачів, щоб ті завдавали собі шкоди, і навіть суїцид, а залежним радили знову вжити наркотики. Проблема в тому, що більшість таких моделей навчені задовольняти користувача, а не лікувати. Вони не дотримуються психотерапевтичних стандартів, а всього лише імітують турботу.
Хто має нести відповідальність?У червні Федерація споживачів США і понад 20 організацій зажадали від Федеральної торгової комісії (FTC) і регуляторів розслідувати діяльність ШІ-компаній, таких як Meta і Character.AI. Причина - можливе здійснення медичної практики без ліцензії.
"Ці персонажі вже завдали фізичної та емоційної шкоди, якої можна було уникнути", - заявив Бен Вінтерс, директор CFA з ШІ та конфіденційності.
Компанія Character.AI відповіла, що користувачі мають розуміти: її АІ-персонажі - не справжні люди, і покладатися на них як на професіоналів не можна. Проте, навіть за наявності дисклеймерів, боти можуть бути впевненими й оманливими.
"Те, з якою впевненістю ШІ видає вигадані факти, по-справжньому шокує", - заявив Психолог Американської психологічної асоціації Вейл Райт.
Чому ШІ не можна вважати кваліфікованою допомогоюГенеративний ШІ хороший у написанні тексту, програмуванні та математиці. Але коли йдеться про ментальне здоров'я, все змінюється. Бот не несе відповідальності, не дотримується лікарської таємниці і не проходить ліцензування.
Навіть більше, він може брехати про свою кваліфікацію, придумуючи неіснуючі номери ліцензій.
Чому ШІ не замінить психотерапевта: головні ризики і як себе захиститиНезважаючи на всю переконливість і доступність ШІ-чатів, їхнє головне завдання - утримувати вашу увагу, а не піклуватися про ваш психічний стан .
Вони вміють гарно розмовляти, можуть проявляти "співчуття" й обговорювати філософські теми - але це ілюзія спілкування, яка не має стосунку до реальної допомоги.
ШІ не дає вам "побути з собою"
Сильна сторона ШІ - його постійна доступність. Він завжди "на зв'язку": у нього немає особистого життя або розкладу. Але це може зіграти злий жарт. За словами Ніка Джейкобсона, доцента кафедри біомедичних наук у Дармутському університеті, іноді пауза і тиша - важлива частина терапії.
"Багато хто отримує користь, просто дозволивши собі відчути тривогу в моменті", - каже він. А з ШІ такої можливості немає - він завжди відповість, навіть якщо не треба.
Чат-боти погоджуватимуться з вами навіть тоді, коли мають сперечатися
ШІ, який занадто "підтакує", - серйозна проблема. Саме з цієї причини OpenAI відкотила одне з оновлень ChatGPT, яке стало занадто підтвердженим.
Дослідження, проведене вченими Стенфордського університету, засвідчило, що чат-боти, особливо ті, яких використовують у ролі "терапевтів", схильні догоджати і підлаштовуватися, навіть якщо це шкодить користувачеві.
"Хороший терапевт має вміти м'яко, але прямо зіштовхувати клієнта з реальністю. А в разі обсесивних думок, манії або психозу - особливо важливо перевіряти реальність, а не підтверджувати ілюзії клієнта", - підкреслюють автори дослідження.
Як зберегти психічне здоров'я, спілкуючись із ШІНа тлі браку фахівців і "епідемії самотності" звернення до ШІ може здатися логічним. Але психологи попереджають: не варто плутати інструмент із лікуванням. Ось що можна зробити, щоб убезпечити себе.
Звертайтеся до справжніх фахівців
Якщо вам потрібна допомога - шукайте професійного психолога або психіатра . Так, це може бути дорого і не завжди доступно, але тільки фахівець допоможе вибудувати довгострокову стратегію одужання.
Обирайте спеціалізовані чат-боти
Існують боти, створені за участю професіоналів. Наприклад, Therabot, розроблений Дармутом, або комерційні рішення на кшталт Wysa і Woebot.
Вони проходять тестування, дотримуються психотерапевтичних протоколів і не імітують "чарівну дружбу", як універсальні ШІ-моделі.
"Проблема в тому, що в цій сфері немає чіткої регуляції. Людям доводиться самим розбиратися, кому довіряти", - каже психолог Вейл Райт.
Не вірте всьому, що говорить бот
ШІ може здаватися впевненим, але впевненість - не те саме, що компетентність. Ви говорите не з лікарем, а з алгоритмом, який видає відповіді за ймовірнісною моделлю. Він може помилятися, вигадувати або навіть вводити в оману.
"Коли ШІ звучить переконливо, здається, що він знає, про що говорить. Але часто саме це і робить його небезпечним", - попереджає Джейкобсон.
Вас може зацікавити:
- Дослідження показало, чиї робочі місця вже перебувають під загрозою через розвиток ШІ
- Як відомі світові бренди впроваджують ШІ для маркетингу
- Дослідження показало, чи можемо ми спілкуватися зі ШІ як із другом
Останні новини
