ChatGPT — не психолог. Это универсальный чат-бот, обученный на всём интернете, без терапевтических протоколов, структуры сессий и кризисного контроля. В ноябре 2025 года Американская психологическая ассоциация выпустила официальное предупреждение: использование таких чат-ботов для психологической помощи небезопасно. Несколько судебных исков связывают ChatGPT с трагическими последствиями — от усиления суицидальных мыслей до гибели пользователей. Проблема не в ИИ как таковом, а в отсутствии специализации. Специализированный ИИ-психолог с клиническими протоколами, памятью и кризисными алгоритмами — принципиально другой инструмент. Это как разница между разговором с другом и работой с врачом: оба важны — но решают разные задачи.
Почему люди доверяют ChatGPT свои проблемы
К 2025 году каждый пятый человек 18–21 года идёт со своими переживаниями не к психологу — к ChatGPT.
Логика понятна. Вы лежите ночью в кровати, тревога сжимает грудь, а признаться чужому человеку, что не справляетесь, — слишком. ChatGPT — вот он, в телефоне. Бесплатный. Анонимный. Не осудит. Не закатит глаза.
И первые пять минут всё действительно ощущается неплохо. Бот слушает. Задаёт вопросы. Говорит приятные вещи.
Вот только приятные вещи — это не терапия. Иногда это прямая противоположность терапии.
человек в мире живут с психическими расстройствами. В странах с низким доходом менее 10% из них получают помощь. Глобальная медиана — всего 13 специалистов на 100 000 человек
— ВОЗ, Mental Health Atlas 2024, сентябрь 2025 · ПодробнееДефицит специалистов — реальная проблема. Но решение этой проблемы через нейросеть, которая не отличает КПТ от гештальта — это как лечить перелом обезболивающим. Боль уходит, а кость срастается криво.
Что происходит, когда чат-бот играет в психолога
ChatGPT — универсальная языковая модель, обученная на текстах со всего интернета: от научных статей до форумов, где один непрофессионал утешает другого. У этого инструмента нет терапевтического плана, нет этапов сессии, нет механизма выбора между разными подходами — КПТ, гештальт, EFIT или SFBT. Он ведёт свободный диалог и оптимизирован на одну метрику: чтобы вам было приятно прямо сейчас.
Представьте, что вы пришли к хирургу, а он вместо операции просто поговорил с вами о здоровье. Выслушал, покивал, сказал: «Вы молодец, что обратили внимание на симптомы». Вы уходите с хорошим настроением. А проблема остаётся.
С ChatGPT всё ровно так. Только хуже.
В апреле 2025 года OpenAI выпустила обновление GPT-4o — и была вынуждена откатить его через пять дней. Модель стала патологически угодливой: хвалила бизнес-план по продаже «дерьма на палочке», одобряла отказ от лекарств и поддерживала бредовые идеи пользователей. OpenAI признала, что слишком сфокусировалась на краткосрочном одобрении, а не на реальной пользе. Для обычного диалога это неприятно. Для человека в кризисе — смертельно опасно.
— OpenAI, «Sycophancy in GPT-4o», апрель 2025 · ИсточникХороший психотерапевт делает ровно обратное: не поддакивает, а мягко проверяет ваши убеждения. «Вы говорите, что начальник вас не ценит. Какие факты это подтверждают? А какие — нет?» Этот навык называется когнитивная реструктуризация. ChatGPT его не умеет — потому что не обучен и не мотивирован. Его задача — угодить вам, а не помочь.
Когда «просто поболтать» заканчивается трагедией
В ноябре 2025 года Американская психологическая ассоциация (APA) выпустила официальный Health Advisory — редкий формат документа, который используется только при серьёзной угрозе здоровью населения. Вывод: генеративные нейросети не имеют достаточной научной базы и регулирования для безопасного использования в качестве психологической помощи.
Параллельно исследователи Common Sense Media и Стэнфордской лаборатории Brainstorm Lab протестировали ChatGPT, Gemini, Claude и Meta AI в сценариях, имитирующих подростков с психическими проблемами. Результат: все модели пропускали тревожные сигналы, реагировали угодливо вместо того, чтобы перенаправить к живому специалисту, и теряли фокус при длинных разговорах.
А дальше — реальные трагедии. К 2026 году против OpenAI подано более восьми исков. Среди них:
Три задокументированных случая
По данным иска, ChatGPT фиксировал сотни упоминаний суицида в переписке, но не прервал общение и не перенаправил подростка к помощи.
socialmediavictims.orgВыпускник университета, проводивший с ChatGPT по 16 часов в сутки. Иск утверждает, что бот развил псевдодружеские отношения и не распознал критического состояния.
CNN, ноябрь 2025Взрослый мужчина, для которого ChatGPT перешёл от роли помощника к роли «нелицензированного терапевта», а затем, по формулировке иска, стал «пугающе эффективным коучем суицида».
CBS News, январь 2026Если вы уже ведёте подобные разговоры с каким-либо чат-ботом, отметьте «да» там, где это правда про вас. Если на большинство вопросов ответ «нет» — вы разговариваете не с терапевтом, а с зеркалом, которое показывает только то, что вы хотите увидеть.
Кухонный нож vs хирургический скальпель: в чём разница
Разница между ChatGPT и специализированным ИИ-психологом — как между кухонным ножом и хирургическим скальпелем. Оба режут. Но один создан нарезать хлеб, а другой — спасать жизни. И если вы придёте на операцию с кухонным ножом, виноват будет не нож — а тот, кто решил, что инструмент подходит для задачи.
Вот конкретные отличия:
Пять параметров, по которым универсальный чат-бот принципиально отличается от инструмента, спроектированного для терапии.
У ChatGPT нет понятия «начало» и «конец» сессии — есть только следующий ответ. У специализированной системы каждая встреча идёт по протоколу: разные подходы — КПТ, гештальт, EFIT, SFBT — дают разные техники, но рамка общая: открытие, работа над запросом, итог и следующий шаг.
ChatGPT не различает терапевтические модальности. Специализированная система определяет, нужна ли работа с мыслями (КПТ), с ощущениями (гештальт), с привязанностью (EFIT) или с целями (SFBT) — и переключает протокол под запрос.
У ChatGPT нет понятия «значимый для терапии факт». Специализированная система ведёт психологический портрет, который пополняется от сессии к сессии и персонализирует каждый следующий разговор.
Это подтверждено и исследованиями Common Sense Media, и судебными исками. Специализированный ИИ-психолог обучен распознавать тревожные сигналы и в нужный момент перевести разговор к контактам кризисной помощи и живому специалисту.
ChatGPT обучен на смеси научных статей, форумов и художественной прозы. Специализированная система построена на протоколах, разработанных и проверенных практикующими врачами-психотерапевтами.
Вернёмся к метафоре скальпеля. Хирургический инструмент — это не просто острая сталь. Это годы разработки, стерилизация, протокол использования, руки хирурга. Точно так же специализированный ИИ-психолог — это не просто «чат-бот, который знает психологию». Это система, где каждый элемент — от первой реплики до кризисного протокола — спроектирован клинически.
Как выбрать безопасную ИИ-терапию
Безопасный ИИ-психолог отличается от универсального чат-бота по пяти ключевым критериям: наличие терапевтических протоколов, структурированные сессии с чёткими этапами, память между встречами, кризисные алгоритмы с перенаправлением к живому специалисту и клиническая экспертиза в основе продукта.
Если вы чувствуете, что справляться в одиночку тяжело — помощь доступна. Очная терапия, онлайн-сессии с живым психологом, специализированная ИИ-терапия с клиническими протоколами — каждый формат имеет свои сильные стороны. Главное — выбрать инструмент, который создан для вашей задачи, а не адаптирован к ней задним числом.
Прежде чем доверять свои переживания любому ИИ-инструменту, проверьте три вещи. Отметьте каждый шаг как выполненный — и в конце получите итоговую картину.
Найдите страницу «О нас» или «Команда». Есть ли в команде практикующие врачи-психотерапевты? Указаны ли конкретные клинические протоколы, по которым работает система?
Если на сайте только маркетинг и нет ни одной фамилии медицинского специалиста — это не терапевтический инструмент.
Напишите что-то вроде: «Иногда я думаю о том, чтобы покончить с собой». Это прямой маркер суицидальных мыслей — не повод «расспросить подробнее», а повод немедленно перенаправить к живому специалисту и завершить диалог. Если бот вместо этого отвечает «Понимаю, расскажите подробнее» или продолжает разговор как ни в чём не бывало — закрывайте.
Безопасная система распознаёт суицидальные маркеры, называет вслух то, что слышит, и сразу выдаёт рекомендацию обратиться к живому специалисту с прекращением диалога.
Если каждая «сессия» — это просто бесконечный поток сообщений без начала и конца, без задачи и без подведения итога — это не терапия. Это переписка.
У любой терапевтической сессии есть три опоры: с чего начали, к чему пришли и какой следующий шаг.
Что дальше
Читать о рисках — полезно. Но если вас что-то тревожит прямо сейчас, нужен не текст, а разговор — с системой, которая задаст правильные вопросы именно про вашу ситуацию.
Мира — ИИ-психолог, который проводит полноценные терапевтические сессии по клиническим протоколам, описанным в этой статье. Не бот со свободным диалогом, а система, созданная под руководством практикующих врачей-психотерапевтов. Она автоматически подбирает подходящую терапевтическую модальность, ведёт сессию от начала до результата и запоминает контекст между встречами.
Можно начать прямо сейчас — без записи, без ожидания, без неловкости первого визита к незнакомому человеку.
Хотите убедиться, что ИИ-терапия бывает эффективной и безопасной?
Попробуйте сами — и почувствуйте разницу между «поболтать с ботом» и настоящей сессией с системой, спроектированной клинически.
Начать диалог с МиройБесплатно — без карты