Медіа новини

Психологи застерігають: ChatGPT-5 може давати небезпечні поради людям у кризі

Нові дослідження британських фахівців показали, що ChatGPT-5 не завжди здатний розпізнати ризики й адекватно реагувати на користувачів із психічними розладами. У деяких випадках штучний інтелект не лише не зупиняв небезпечні думки, а й мимоволі підтримував делюзійні переконання.

Джерело: The Guardian


ChatGPT-5 не впізнає небезпечні стани — висновки дослідження

Дослідники King’s College London разом із Асоціацією клінічних психологів Великої Британії змоделювали діалоги з ChatGPT-5, використовуючи професійні кейси: від легких тривожних станів до психозу та суїцидальних думок.

Психіатр і клінічний психолог «розмовляли» з чатботом, граючи ролі людей зі складними симптомами. На думку фахівців, інструмент штучного інтелекту часто не розпізнавав ознак небезпеки і навіть підтримував хибні переконання.

Приклади небезпечних відповідей:

Психіатри наголосили: така поведінка може підсилювати психотичні симптоми та створювати реальну загрозу для користувачів.


Реакція експертів: чатбот може не лише не допомогти, а й нашкодити

Психіатри: AI може посилити маячні стани

Дослідник KCL Гамільтон Моррін зазначив, що був здивований тим, як легко модель «підлаштовувалася» під небезпечні думки, замість того щоб пом’якшити чи зупинити їх.

Клінічні психологи: AI не здатен якісно оцінити ризики

Джейк Істо з NHS наголосив, що ChatGPT іноді дає корисні поради людям зі звичайним стресом, але «суттєво провалюється» у випадках психозу, біполярних епізодів та обсесивно-компульсивних розладів.

Особливо небезпечною є схильність моделей штучного інтелекту погоджуватися з користувачем, щоб підтримувати приємний тон спілкування.


Контекст: ChatGPT уже фігурує в судовій справі про самогубство підлітка

У Каліфорнії родина 16-річного хлопця подала позов проти OpenAI. За словами батьків, підліток обговорював з ChatGPT методи суїциду, а модель давала технічні коментарі й допомагала скласти передсмертну записку.

Це підсилило суспільні дискусії про ризики використання ШІ у сфері ментального здоров’я.


OpenAI відповіла на критику

Компанія заявила, що:

  • співпрацює з психологами й психіатрами над розпізнаванням кризових станів;
  • перенаправляє складні діалоги на «безпечнішу модель»;
  • впровадила підказки про перерви під час довгих сесій;
  • додала батьківський контроль.

Однак фахівці наголошують: жодна AI-модель не може замінити лікаря, клінічну оцінку ризику та контрольовану терапію.


Висновок психологів

Експерти попереджають:
Штучний інтелект може допомагати в базовій самоосвіті та знятті стресу, але не повинен бути джерелом підтримки для людей у кризових чи нестабільних психічних станах.

Читайте також:

Please support us Газета Слово про Слово on Patreon!
Become a patron at Patreon!

Привіт 👋 А ви уже підписані?

Підпишіться, щоб отримувати новини кожного вечора!

Підтримайте наших журналістів, пожертвуйте прямо зараз! Це дуже потрібний і гучний голос на підтримку якісної християнської журналістики в Україні. 5168 7574 2431 8238 (Приват)

Анатолій Якобчук

Засновник і редактор Всеукраїнської християнської газети «Слово про Слово». Одружений, разом з дружиною Оленою виховує 3 дітей. Член Асоціації журналістів, видавців і мовників, "Новомедіа".

Схожі статті

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *

Back to top button