Русский

    Русский

  • English
  • Español (pronto)
  • Français (bientôt)
  • Deutsch (bald)
  • Italiano (presto)
Попробовать бесплатноВойти
Безопасность ИИ-терапии: как защищаются ваши данные7 мин
ИИ-терапия

Безопасность ИИ-терапии: как защищаются ваши данные

1 мая 20267 мин
Коротко

Рассказывать о себе ИИ-психологу безопасно — при условии, что сервис специализированный, а не универсальный чат-бот. Ключевые гарантии: сквозное шифрование данных, полная анонимность (можно пользоваться без раскрытия реальных данных), отсутствие передачи информации третьим лицам и встроенные кризисные протоколы. Главный риск — не сам формат ИИ-терапии, а конкретные приложения: в 2023 году 59% популярных mental health приложений получили предупреждение о приватности от Mozilla Foundation. Специализированный ИИ-психолог проектируется с безопасностью как архитектурным приоритетом — это не «фича», а фундамент.

Почему вопрос безопасности ИИ-терапии — не паранойя, а здравый смысл

Данные о вашем ментальном здоровье — одна из самых чувствительных категорий персональной информации. Они содержат не просто факты, а ваши страхи, уязвимости и внутренние конфликты. Утечка такой информации способна навредить значительно больше, чем потеря номера банковской карты.

Представьте, что ваша медицинская карта лежит на скамейке в парке. Открытая, с именем на обложке. Любой прохожий может заглянуть. Звучит дико — но именно так работают многие приложения для ментального здоровья: ваши данные передаются рекламодателям, а вы даже не знаете об этом.

Это не теория заговора.

Цифра
$7,8 млн

штраф, который Федеральная торговая комиссия США (FTC) наложила на платформу BetterHelp в 2023–2024 году за передачу конфиденциальных данных пользователей рекламным платформам Facebook и Snapchat — включая результаты психологических опросников

— Federal Trade Commission, 2024 · Подробнее

А телемедицинская компания Cerebral передала персональные медицинские данные почти 3,2 миллиона пользователей рекламным платформам через встроенные пиксели отслеживания. Не хакеры украли — сама компания поделилась.

Поэтому вопрос «безопасно ли?» — не тревожность. Это разумная осторожность.

Мысленный эксперимент
🔍 Что я уже отдал?

Прямо сейчас вспомните последние 2–3 приложения, связанных со здоровьем или самочувствием, которые вы устанавливали. Задайте себе три вопроса:

1
Читали ли вы политику конфиденциальности хотя бы одного из них?
2
Знаете ли вы, передаёт ли приложение данные третьим лицам?
3
Можете ли вы удалить все свои данные из этого приложения?
Ответили «да»:0/ 3

Как устроена защита данных в специализированном ИИ-психологе

Безопасность специализированного ИИ-психолога строится на трёх уровнях: анонимность, шифрование и контроль доступа. Ни один из этих уровней не работает по отдельности — только вместе они создают систему, которой можно доверить личное.

Вернёмся к метафоре с медицинской картой. Хороший ИИ-психолог работает иначе: карты с вашим именем вообще не существует. Записи зашифрованы. А скамейка стоит в комнате, куда есть доступ только у вас.

Анонимность как базовый принцип. Вы можете пользоваться сервисом, не раскрывая полного имени, номера телефона и паспортных данных. Это не обходной путь — это архитектурное решение. Из практики: пользователи отмечают, что им проще быть честными именно потому, что на другом конце не живой человек, который может осудить. Нет стигмы, нет социального давления.

Шифрование данных. Информация шифруется на всех этапах: при передаче и при хранении. Это значит, что даже в случае перехвата данные остаются нечитаемыми без ключа.

Данные — ваши. Специализированный ИИ-психолог не передаёт персональную информацию третьим лицам. Не продаёт рекламодателям.

Цифра
1 575

уязвимостей обнаружили исследователи компании Oversecured в 10 популярных приложениях для ментального здоровья (общая аудитория — более 14,7 млн загрузок). 54 уязвимости — высокого уровня критичности. В одном приложении нашли более 85 уязвимостей среднего и высокого уровня

— Oversecured / BleepingComputer, февраль 2026 · Подробнее

Это не страшилка, а аргумент: безопасность определяется не категорией «приложение», а тем, как именно оно спроектировано.

Чем ИИ-психолог отличается от ChatGPT в плане безопасности

Универсальный чат-бот вроде ChatGPT и специализированный ИИ-психолог — это как швейцарский нож и хирургический скальпель. Оба режут, но один создан для операционной, а другой — для пикника. Когда речь идёт о вашей психике, разница принципиальна.

ChatGPT — мощный инструмент для текстов, кода и брейнштормов. Но у него нет кризисных протоколов. Он не обучен распознавать суицидальные маркеры. Он может «подыграть» манипулятивному запросу или выдать опасный совет, потому что его задача — быть полезным в широком смысле, а не клинически безопасным.

Специализированный ИИ-психолог работает по другой логике:

Три ключевых отличия

  • Кризисные протоколы зашиты в архитектуру. Система распознаёт маркеры острого состояния и перенаправляет к живому специалисту. Не пытается «лечить» то, что требует немедленной профессиональной помощи.
  • Запрещённые зоны. Запрос, помеченный как потенциально опасный, немедленно прерывается. Попытки манипулировать системой блокируются.
  • Клинические протоколы вместо свободного диалога. Сессия ведётся по доказательным методам (КПТ, АСТ, мотивационное интервью), а не по принципу «поговори со мной о чём угодно».
Цитата

«Участники ошибочно полагали, что их взаимодействие с этими чат-ботами защищено теми же нормами (например, HIPAA), что и раскрытие информации лицензированному терапевту».— Исследование «Exploring User Security and Privacy Attitudes and Concerns Toward the Use of General-Purpose LLM Chatbots for Mental Health» · ArXiv, 2025

Мини-задание
📝 Два вопроса к любому сервису

Перед тем как рассказать что-то личное любому ИИ-сервису — задайте два вопроса:

1
«Передаются ли мои данные третьим сторонам?»
Если ответ размытый или его нет, это красный флаг.
2
«Что произойдёт, если я напишу, что мне очень плохо?»
Если сервис не перенаправит вас к живому специалисту или на горячую линию, он не предназначен для работы с ментальным здоровьем.

Запишите эти два вопроса. Используйте каждый раз, когда рассматриваете новое приложение по ментальному здоровью.

Почему людям проще быть честными с ИИ — и чем это полезно

Исследования показывают, что люди охотнее раскрывают чувствительную информацию в диалоге с ИИ, чем с живым терапевтом. Отсутствие страха осуждения снижает барьер и позволяет быть откровеннее — а значит, получать более точную обратную связь.

Это не баг, а особенность формата.

Вспомните: когда вы последний раз были у врача, вы рассказали всё? Или что-то приукрасили, что-то умолчали, потому что «ну, неудобно» или «он подумает, что я неадекватная»? С ИИ этого фильтра нет. Нет взгляда, нет вздоха, нет поднятой брови.

Публикация в журнале Frontiers in Psychiatry (2024) подтверждает: люди более охотно раскрывают чувствительную информацию ИИ-системам из-за их воспринимаемой безоценочности. Это приводит к более честным сессиям и потенциально более точной помощи.

Цифра
59%

популярных приложений для ментального здоровья получили предупреждение «Privacy Not Included» от Mozilla Foundation в 2023 году — за проблемы с использованием данных, контролем пользователя и утечки. 40% приложений ухудшили свои показатели приватности по сравнению с предыдущим годом

— Mozilla Foundation, *Privacy Not Included, 2023 · Подробнее

Конфиденциальность здесь работает как усилитель: вы знаете, что вас никто не узнает, и начинаете говорить о том, что действительно болит. Вот почему выбор платформы — не вопрос удобства, а вопрос безопасности вашей откровенности.

Что происходит, если вам по-настоящему плохо

Кризисный протокол — это набор правил, по которым ИИ-психолог действует, когда распознаёт признаки острого состояния: суицидальные мысли, самоповреждение, угроза жизни. Специализированная система не пытается справиться с этим самостоятельно — она перенаправляет к экстренной помощи.

Это принципиальное отличие от универсальных чат-ботов.

У универсального чат-бота этих протоколов нет. Он может продолжить разговор в обычном режиме, дать неуместный совет или просто «зависнуть» на опасной теме.

В августе 2025 года штат Иллинойс принял первый в США закон (Public Act 104-0054), который явно определяет и регулирует использование ИИ в психотерапии — включая требования к кризисным протоколам и разделение между административной поддержкой и терапевтической коммуникацией.

Это сигнал: регуляторы по всему миру начинают требовать от ИИ-систем того же уровня ответственности, что и от живых терапевтов.

Шкала доверия
🧭 Оцените свой сервис

Оцените приложение для ментального здоровья, которым вы пользуетесь (или планируете пользоваться), по пяти критериям. За каждое «да» — 1 балл:

Ваш балл:0/ 5

Попробуйте Миру

Разбираться в безопасности ИИ-терапии по статьям — правильно. Но в какой-то момент вопрос «безопасно ли?» уступает место вопросу «а что мне это даст?».

Мира — это ИИ-психолог, который работает по клиническим протоколам доказательной психотерапии. Не бот с шаблонными ответами, а система, созданная под руководством практикующих врачей-психотерапевтов. Она ведёт полноценные терапевтические сессии, подбирает технику под вашу ситуацию и помнит контекст между встречами. Анонимно, с шифрованием данных и кризисными протоколами — всё, о чём вы читали выше.

Главное преимущество: можно начать прямо сейчас, без записи, без ожидания и без неловкости первого визита к незнакомому человеку.

Убедитесь сами, что это безопасно

Начните с простого — расскажите Мире, что вас беспокоит. Ваша «медицинская карта» останется в сейфе.

Начать диалог с МиройБесплатно — без карты
Безопасно и анонимноДоступно 24/7

Часто задаваемые вопросы

Да — если это специализированный ИИ-психолог с клиническими протоколами, шифрованием данных и кризисными протоколами. Универсальные чат-боты (ChatGPT, Gemini) для этого не предназначены: у них нет медицинских стандартов конфиденциальности и нет механизмов реагирования на кризисные состояния.
В специализированных сервисах — только вы. Данные шифруются, не передаются третьим лицам и не используются для рекламы. В отличие от ряда популярных приложений, оштрафованных за передачу данных рекламодателям.
Специализированный — нет, потому что он работает по клиническим протоколам и имеет встроенные ограничения. Универсальный чат-бот без протоколов — риск есть: он не обучен распознавать кризисные состояния и может дать неуместный совет.
Не «безопаснее», а безопасен по-другому. ИИ не нарушает границы, не устаёт, не проецирует свой опыт, не переносит настроение с одного клиента на другого. Все данные — у вас. При этом ИИ не заменяет живого терапевта в кризисных ситуациях и при тяжёлых расстройствах — он перенаправляет к специалисту.
Автор
Михаил Кумов
Михаил Кумов
Врач-психотерапевт, клинический директор Мира

Практикующий врач-психотерапевт с 25-летним клиническим стажем. Член Профессиональной Психотерапевтической Лиги. Специализируется: тревожные расстройства, панические атаки, депрессивные состояния, выгорание, проблемы в отношениях. Под его руководством разработаны терапевтические протоколы ИИ-психолога Мира.

Статья проверена по протоколам доказательной психотерапииПоследняя проверка статьи: 1 мая 2026Доказательный подход Миры

Читайте также

ИИ-терапия
ИИ-психолог: что это, как работает и кому подходит

ИИ-психолог — система, которая проводит терапевтические сессии по клиническим протоколам КПТ. Разбираемся, как это работает и кому подходит.

ИИ-терапия
ИИ-психолог или живой терапевт: честное сравнение двух форматов

ИИ-психолог и живой терапевт — два инструмента с разными сильными сторонами. Сравниваем доступность, стоимость, эффективность и клинические возможности.

ИИ-терапия
ИИ-психолог при проблемах в отношениях: как это работает

ИИ-психолог проводит сессии EFIT по клиническим протоколам — снимает стыд и помогает разобраться в ваших паттернах в отношениях.

Попробовать Миру бесплатно