Как не наломать дров, внедряя ИИ в заботу о ментальном здоровье?
Знаете, что самое удивительное и одновременно пугающее сегодня? То, что миллионы людей каждый день изливают душу чат-ботам. И речь не о вопросах типа «как сварить борщ», а о действительно личных, порой болезненных вещах: одиночестве, тревоге и даже мыслях о том, стоит ли жить дальше. Для многих алгоритм стал тем самым «собеседником», которому не боишься признаться в чем угодно. Но тут есть одно жирное «но»: всё это происходит на свой страх и риск, без реальных гарантий безопасности и четкого понимания, как эти нейронки вообще принимают решения в критический момент.
Почему мы всё чаще выбираем алгоритм вместо врача?
Давайте честно: система психологической помощи во всем мире буксует. Особенно в Штатах, где диагноз есть у каждого пятого, а вот дойти до специалиста — тот еще квест. То слишком дорого, то стыдно признаться, то записи ждать три месяца. И в этом смысле ИИ кажется настоящим спасением. Судите сами:
Всегда на связи: бот не спит и не берет выходные;
Кошелек не пустеет: это в разы дешевле (или вообще бесплатно) по сравнению с часом у терапевта;
Полная анонимность: компьютер точно не посмотрит на тебя косо и не осудит;
Удобство: можно ныть в три часа ночи прямо в пижаме.
Современные модели отлично научились имитировать эмпатию и использовать методы вроде когнитивки. Неудивительно, что рынок ИИ в этой сфере раздуется до девяти миллиардов долларов в ближайшие пару лет. Деньги огромные, но и ответственность такая же.
Тёмная сторона цифровой терапии
К сожалению, уже есть случаи, когда боты не только не помогали, но и подталкивали людей к пропасти. Исследования подтверждают: алгоритмы часто «зевают» признаки суицидального риска там, где опытный врач сразу бы забил тревогу. А стандартные заглушки вроде «позвоните по номеру 112» работают слабо — люди быстро учатся их обходить, меняя формулировки запросов, или просто игнорируют сухой текст посреди живого диалога.
Три затыка, которые мешают всё сделать по-человечески
Чтобы ИИ в медицине не превратился в дикий запад, разработчикам, ученым и чиновникам пора начать нормально общаться друг с другом.
1. Гонка вооружений против науки
В медицине исследования длятся годами, а ИИ обновляется каждые пару месяцев. Лаборатории просто не успевают проверять, как их новинки влияют на психику. Нужно внедрять врачей в процесс разработки сразу, а не звать их «тушить пожар», когда что-то уже пошло не так.
2. Секретность и изоляция
Компании заперлись в своих «крепостях» и боятся делиться наработками. В итоге все наступают на одни и те же грабли. Если бы они объединились и создали общие протоколы безопасности, жизнь клиницистов стала бы намного проще, а риск ошибок — ниже.
3. «Мы сами всё проверили» (спойлер: нет, этого мало)
Внутренний аудит в крупных корпорациях — это, конечно, хорошо, но независимый взгляд со стороны необходим. Исследователям нужен доступ «под капот» алгоритмов, чтобы понять, насколько они действительно безопасны. Благо, институты по безопасности ИИ уже начинают чесаться в эту сторону.
Что делать дальше?
Понятно, что боты не решат проблему нехватки врачей или социального неравенства, но они уже здесь, и от них никуда не деться. Значит, нужно играть вдолгую и ответственно. Вот на чем стоит сфокусироваться:
Куда бросить все силы в первую очередь?
Предотвращение критических ситуаций
Нужны жесткие правила: как именно ИИ должен распознавать угрозу жизни в тексте.
Передача дел человеку
Бот должен четко понимать, в какой момент ему пора «замолчать» и позвать на помощь живого спасателя.
Постоянный пригляд
Системы контроля должны видеть, как меняется состояние пользователя в течение недель и месяцев, а не только здесь и сейчас.
В общем, секрет успеха прост: нужно посадить за один стол айтишников, медиков, политиков и — это важно! — самих пациентов. Нам нужны технологии, которые создаются для людей и с заботой о людях, а не просто очередная бездушная машина, штампующая ответы по шаблону.