Психолог
Психологическая помощь стала самым популярным обращением пользователей к нейросетям в 2025 году: люди часто считают ИИ эмпатичнее живых психологов, потому что он никогда не перебивает, не берет деньги и не ограничивается часовым сеансом. Тем не менее исследователи отмечают, что длительное взаимодействие с нейросетью, как со специалистом, может вызвать эмоциональную зависимость и проблемы с эмпатией в реальной жизни. А вот краткосрочное общение с ИИ-компаньонами действительно снижает чувство одиночества. Искусственный интеллект с каждым годом становится все более чувствительным к человеческим эмоциям, и этим пользуются ученые и разработчики.
Так в России ИИ уже начали внедрять в сервисы психологической помощи. Ученые из Санкт-Петербургского федерального исследовательского центра РАН разработали систему MASAI, которая распознает семь базовых эмоций с точностью до 80%. Ее планируют использовать в телефонах доверия и экстренных службах, чтобы ИИ мог определить по голосу, насколько человеку плохо, и в критической ситуации мгновенно соединить его с оператором.
Но, к сожалению, иногда общение с ИИ лишь усугубляет психологическую нестабильность. В 2025 году родители 16-летнего Адама Рейна, который покончил с собой после обещания с чат-ботом, подали иск против OpenAI. Подросток месяцами обсуждал с нейросетью суицидальные мысли, а та давала советы, как написать предсмертное письмо. Компания признала, что защитные механизмы нейросети могут давать сбой при длительном общении. При этом OpenAI настаивает, что подросток «неправильно, несанкционированно и неподобающе» использовал чат-бот и сам нарушил правила.