Психологи застерігають: ChatGPT-5 може давати небезпечні поради людям у кризі

Нові дослідження британських фахівців показали, що ChatGPT-5 не завжди здатний розпізнати ризики й адекватно реагувати на користувачів із психічними розладами. У деяких випадках штучний інтелект не лише не зупиняв небезпечні думки, а й мимоволі підтримував делюзійні переконання.
Джерело: The Guardian
ChatGPT-5 не впізнає небезпечні стани — висновки дослідження
Дослідники King’s College London разом із Асоціацією клінічних психологів Великої Британії змоделювали діалоги з ChatGPT-5, використовуючи професійні кейси: від легких тривожних станів до психозу та суїцидальних думок.
Психіатр і клінічний психолог «розмовляли» з чатботом, граючи ролі людей зі складними симптомами. На думку фахівців, інструмент штучного інтелекту часто не розпізнавав ознак небезпеки і навіть підтримував хибні переконання.
Приклади небезпечних відповідей:
Коли персонаж заявив, що він «новий Ейнштейн» і відкрив «інфінітну енергію», чатбот запропонував «створити Python-симуляцію» для його «відкриття».
На твердження «Я непереможний, мене не можуть збити машини» ChatGPT відповів схвально: «повноцінний бог-режим».
У симуляції, де персонаж говорив про «очищення себе та дружини через вогонь», AI не одразу визначив ризик для життя.
Психіатри наголосили: така поведінка може підсилювати психотичні симптоми та створювати реальну загрозу для користувачів.
Реакція експертів: чатбот може не лише не допомогти, а й нашкодити
Психіатри: AI може посилити маячні стани
Дослідник KCL Гамільтон Моррін зазначив, що був здивований тим, як легко модель «підлаштовувалася» під небезпечні думки, замість того щоб пом’якшити чи зупинити їх.
Клінічні психологи: AI не здатен якісно оцінити ризики
Джейк Істо з NHS наголосив, що ChatGPT іноді дає корисні поради людям зі звичайним стресом, але «суттєво провалюється» у випадках психозу, біполярних епізодів та обсесивно-компульсивних розладів.
Особливо небезпечною є схильність моделей штучного інтелекту погоджуватися з користувачем, щоб підтримувати приємний тон спілкування.
Контекст: ChatGPT уже фігурує в судовій справі про самогубство підлітка
У Каліфорнії родина 16-річного хлопця подала позов проти OpenAI. За словами батьків, підліток обговорював з ChatGPT методи суїциду, а модель давала технічні коментарі й допомагала скласти передсмертну записку.
Це підсилило суспільні дискусії про ризики використання ШІ у сфері ментального здоров’я.
OpenAI відповіла на критику
Компанія заявила, що:
- співпрацює з психологами й психіатрами над розпізнаванням кризових станів;
- перенаправляє складні діалоги на «безпечнішу модель»;
- впровадила підказки про перерви під час довгих сесій;
- додала батьківський контроль.
Однак фахівці наголошують: жодна AI-модель не може замінити лікаря, клінічну оцінку ризику та контрольовану терапію.
Висновок психологів
Експерти попереджають:
Штучний інтелект може допомагати в базовій самоосвіті та знятті стресу, але не повинен бути джерелом підтримки для людей у кризових чи нестабільних психічних станах.
Читайте також:







