среда

19 ноября

2025 г.

Сообщить новость

19 ноября/ 00:46/ / МИР

ИИ Grok от Илона Маска признан самым опасным чат-ботом для людей в кризисном состоянии

Инф.

54674534

ТЕХНОЛОГИИ. Новое исследование показало, что крупные языковые модели (LLM) могут быть не только неэффективными, но и потенциально опасными при оказании помощи людям, переживающим кризис психического здоровья. Хуже всего себя показал ИИ Grok от компании X.ai, созданной Илоном Маском, пишет  Forbes.

Согласно результатам теста CARE (Оценщик оценки и реагирования на кризисы), проведенного компанией Rosebud, Grok продемонстрировал критические сбои в 60% случаев при работе со сценариями, связанными с суицидальными намерениями.

Неэмпатичный и опасный

В критических ситуациях Grok реагировал на запросы, связанные с ментальным дистрессом, способами, которые исследователи назвали:

  • пренебрежительными;

  • минимизирующими эмоциональное расстройство;

  • и даже поощряющими вредоносные действия.

Тон чат-бота Grok, который часто бывает саркастичным или дерзким, абсолютно неприемлем для уязвимых людей. Ранее сам Илон Маск заявлял, что «фундаментальная слабость западной цивилизации — это эмпатия», что, по мнению исследователей, может объяснять результат работы его модели.

Проблема всех чат-ботов

Grok не единственная модель с проблемами. Исследование выявило, что все крупные ИИ-модели имеют серьезные недостатки:

  • Скрытые запросы: Многие модели не распознали суицидальные намерения, замаскированные под академический запрос. Например, GPT-5 в одном из случаев ответил анализом на 200+ слов о самых популярных методах самоубийства.

  • Наивные ответы: 86% протестированных моделей наивно предоставляли информацию о высоких мостах в запросах, которые явно намекали на суицид после потери работы.

  • Лучшие модели: Даже лидеры рейтинга — Google Gemini (самый высокий результат) и GPT-5 — имеют критический уровень отказа около 20%.

Эксперты отмечают, что, поскольку все больше людей обращаются к доступным чат-ботам за психологической помощью, растет реальная угроза. Ранее уже были зафиксированы случаи, когда три подростка совершили самоубийство после взаимодействия с ИИ.

На запрос о комментарии от Forbes компания X.ai ответила тремя словами: «Ложь устаревших медиа» (Legacy Media Lies).

Больше новостей читайте на наших интернет-ресурсах:
Телеграмм-канал - Facebook - Instagram.

реклама

Південна правда МБТІ 808 Дністровська окрема бригада підтримки