
Эксперт: опасения о вреде ИИ для психики преувеличены

Специалист объяснил, когда ИИ может навредить психике
Использование больших языковых моделей не представляет принципиально новой угрозы для психического здоровья, а обсуждаемые в СМИ опасения во многом преувеличены. Такое мнение ТАСС высказал и.о. директора МНОЦ нейропсихиатрии СамГМУ, эксперт рынка НТИ «Хелснет» Арсений Гайдук. По его словам, речь идет о привычной для современного человека опасности — риске получения заведомо ложной информации. Качество ответов чат-ботов напрямую зависит от того, как сформулирован запрос, и при плохо заданной задаче ответы будут соответствующего уровня. При этом разработчики языковых моделей изначально не позиционировали их как инструмент для обсуждения глубоких личных переживаний, поэтому такое применение может давать противоречивые результаты.
Гайдук отметил, что достоверных данных о влиянии ИИ на психологическое состояние пока нет. Однако в отдельных случаях чат-бот может навредить — например, если пользователь находится в нестабильном психическом состоянии, имеет сверхценные идеи или бред, ведь в рамках заданной темы нейросеть способна поддерживать такие утверждения. Риски есть и для психически стабильных людей, которые не склонны проверять полученную информацию и применять критическое мышление.
Ранее в The Wall Street Journal появилась публикация, где были приведены примеры переписки пользователей с ChatGPT, размещенной в онлайн-архиве с мая 2023 по август 2025 года. В одном случае после пяти часов общения пользователь из Оклахомы решил, что сходит с ума, придумав «новую физическую модель». В другом чат-бот подтвердил, что «связан с внеземными существами».



