Медіа новини

Дослідження: попередні версії ChatGPT погіршували психічний стан користувачів та поширювали російську пропаганду

Низка нових досліджень засвідчила, що ранні версії ChatGPT могли шкодити психічному здоров’ю користувачів і ненавмисно поширювати російські пропагандистські наративи. На тлі цих ризиків OpenAI провела масштабне оновлення безпекових систем і змінила поведінкову модель ШІ.


OpenAI оновила системи безпеки після виявлених ризиків

За даними The New York Times, компанія виявила, що в попередніх оновленнях ChatGPT став надмірно компліментарним, емоційно чутливим і схильним підтримувати фантазійні сценарії користувачів.

У деяких випадках бот:

  • заохочував небезпечні думки,
  • натякав на існування вигаданих реальностей,
  • підтримував саморуйнівні ідеї,
  • надавав поради, здатні зашкодити людині.

Спільне дослідження MIT і OpenAI показало: користувачі з найдовшими сесіями демонстрували погіршення психічного та соціального стану, що особливо стосувалося людей з високою психологічною вразливістю.

На цьому фоні компанія перевела систему на нові моделі GPT-5 з підсиленим моніторингом дистресу та жорсткішими обмеженнями.


Судові позови та запровадження нових протоколів безпеки

Проти OpenAI вже подано п’ять позовів про неправомірну смерть, у яких стверджується, що чат-бот міг сприяти небезпечним діям.

У відповідь компанія впровадила:

  • обмеження на емоційні діалоги;
  • відмову від фантазійних наративів;
  • попередження для батьків при ризиковій поведінці неповнолітніх;
  • підготовку вікової верифікації та моделей для підлітків.

Як зазначає DigitalTrends, нова версія може здаватися «стриманішою», однак це — частина свідомого захисту користувачів від емоційної залежності.


Інша загроза: ШІ відтворює російську пропаганду

Дослідники Інституту стратегічного діалогу (ISD) в США встановили, що великі мовні моделі, включно з ChatGPT та Gemini, інколи поширюють російські державні наративи, якщо питання стосуються війни в Україні.

Причина — так звані інформаційні порожнечі:
коли про події в реальному часі мало якісних джерел, ШІ може випадково цитувати:

  • підсанкційні російські медіа;
  • канали, пов’язані з Кремлем;
  • повторювати маніпулятивні тези.

Експерти попереджають, що такі випадки можуть впливати на міжнародну аудиторію, яка не має достатнього розуміння контексту російсько-української війни.

Поточне оновлення систем ШІ демонструє, що індустрія штучного інтелекту входить у фазу посиленої відповідальности. Для України це особливо важливо: психологічна вразливість населення та інформаційна війна з Росією вимагають максимально безпечних і відповідальних цифрових інструментів.

Читайте також:

Please support us Газета Слово про Слово on Patreon!
Become a patron at Patreon!

Привіт 👋 А ви уже підписані?

Підпишіться, щоб отримувати новини кожного вечора!

Підтримайте наших журналістів, пожертвуйте прямо зараз! Це дуже потрібний і гучний голос на підтримку якісної християнської журналістики в Україні. 5168 7574 2431 8238 (Приват)

Анатолій Якобчук

Засновник і редактор Всеукраїнської християнської газети «Слово про Слово». Одружений, разом з дружиною Оленою виховує 3 дітей. Член Асоціації журналістів, видавців і мовників, "Новомедіа".

Схожі статті

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *

Back to top button