Низка нових досліджень засвідчила, що ранні версії ChatGPT могли шкодити психічному здоров’ю користувачів і ненавмисно поширювати російські пропагандистські наративи. На тлі цих ризиків OpenAI провела масштабне оновлення безпекових систем і змінила поведінкову модель ШІ.
OpenAI оновила системи безпеки після виявлених ризиків
За даними The New York Times, компанія виявила, що в попередніх оновленнях ChatGPT став надмірно компліментарним, емоційно чутливим і схильним підтримувати фантазійні сценарії користувачів.
У деяких випадках бот:
- заохочував небезпечні думки,
- натякав на існування вигаданих реальностей,
- підтримував саморуйнівні ідеї,
- надавав поради, здатні зашкодити людині.
Спільне дослідження MIT і OpenAI показало: користувачі з найдовшими сесіями демонстрували погіршення психічного та соціального стану, що особливо стосувалося людей з високою психологічною вразливістю.
На цьому фоні компанія перевела систему на нові моделі GPT-5 з підсиленим моніторингом дистресу та жорсткішими обмеженнями.
Судові позови та запровадження нових протоколів безпеки
Проти OpenAI вже подано п’ять позовів про неправомірну смерть, у яких стверджується, що чат-бот міг сприяти небезпечним діям.
У відповідь компанія впровадила:
- обмеження на емоційні діалоги;
- відмову від фантазійних наративів;
- попередження для батьків при ризиковій поведінці неповнолітніх;
- підготовку вікової верифікації та моделей для підлітків.
Як зазначає DigitalTrends, нова версія може здаватися «стриманішою», однак це — частина свідомого захисту користувачів від емоційної залежності.
Інша загроза: ШІ відтворює російську пропаганду
Дослідники Інституту стратегічного діалогу (ISD) в США встановили, що великі мовні моделі, включно з ChatGPT та Gemini, інколи поширюють російські державні наративи, якщо питання стосуються війни в Україні.
Причина — так звані інформаційні порожнечі:
коли про події в реальному часі мало якісних джерел, ШІ може випадково цитувати:
- підсанкційні російські медіа;
- канали, пов’язані з Кремлем;
- повторювати маніпулятивні тези.
Експерти попереджають, що такі випадки можуть впливати на міжнародну аудиторію, яка не має достатнього розуміння контексту російсько-української війни.
Поточне оновлення систем ШІ демонструє, що індустрія штучного інтелекту входить у фазу посиленої відповідальности. Для України це особливо важливо: психологічна вразливість населення та інформаційна війна з Росією вимагають максимально безпечних і відповідальних цифрових інструментів.
Читайте також:
