Исследование: только 17% работ об ИИ в психиатрии анализировали защиту данных
Журнал JMIR AI представил обзор, подготовленный учеными из ОАЭ, Египта и Саудовской Аравии, в котором содержится вывод, что быстрый рост систем на базе искусственного интеллекта (ИИ) для диагностики и поддержки пациентов с психическими расстройствами сопровождается ограниченным вниманием к вопросам конфиденциальности, прозрачности алгоритмов и предотвращения дискриминационных ошибок.
Было проанализировано 35 исследований, опубликованных в 2013–2024 годах, в которых оценивалось применение ИИ для диагностики, мониторинга состояния и терапии психических расстройств. В обзор вошли модели обработки естественного языка, чат-боты, носимые устройства, системы анализа медицинских записей и нейровизуализации.
В отдельных научных работах ИИ-системы показывали до 89% точности при выявлении депрессии по текстам из соцсетей и клинических записей, а алгоритмы оценки суицидального риска – до 92%. Носимые устройства для анализа физиологических сигналов достигали точности около 81% при прогнозировании тревожных эпизодов.
Теме не менее, несмотря на такие показатели, лишь около 17% исследований анализировали соответствие GDPR (общий регламент ЕС по защите данных) и другим требованиям защиты персональных данных, а проверки алгоритмов на риск дискриминационных ошибок проводились примерно в 20% случаев.
Дополнительно ученые указали на проблему ограниченной универсальности таких систем. Многие модели обучались преимущественно на англоязычных данных из США и Великобритании, а при тестировании на материалах других языков точность отдельных алгоритмов снижалась примерно на 15%.
В обзоре утверждается, что некоторые ИИ-системы хуже интерпретируют особенности речи и описание симптомов у представителей этнических меньшинств и пользователей из других культурных групп.
Кроме того, эксперты привлекли внимание к непрозрачности логики работы алгоритмов. В большинстве исследований системы демонстрировали высокую точность, однако разработчики редко раскрывали, какие именно признаки влияют на итоговые выводы модели. Это усложняет как клиническую интерпретацию результатов, так и распределение ответственности в случае ошибок, включая неверную оценку суицидального риска или некорректные рекомендации пациентам.
Еще одной проблемой названа слабая доказательная база части работ. Только около четверти исследований были признаны имеющими низкий риск систематической ошибки, а многие результаты основаны на ретроспективных данных и ограниченных выборках. Ученые пришли к выводу, что эффективность алгоритмов в контролируемых тестах не гарантирует аналогичных результатов в реальной клинической практике.