МОСКВА, 19 янв -. Анализ медицинских данных с помощью нейросети может привести к их утечке, рассказал старший юрист MWS AI (входит в ERION, объединяющую нетелеком-активы МТС) Кирилл Дьяков.
«Использование больших языковых моделей, таких как ChatGPT, которые предлагают пользователям возможность анализа медицинской информации, может привести к утечке таких данных», — сказал Дьяков.
Он объяснил, что такие ИИ-сервисы способны запоминать пользовательские данные, обучаться на них и в дальнейшем воспроизводить информацию о пользователе, в том числе ссылаясь на медицинские данные. Это может привести к компрометации личности. Кроме того, создатели ИИ-моделей обязаны в ряде случаев раскрывать данные пользователей по решению суда, и это создает дополнительные риски для конфиденциальности.
Помимо прочего, неспециализированные модели при некорректно сформулированных запросах могут допускать ошибки в ответах, добавил Дьяков.
«Оптимальным решением является либо загрузка в нейросети обезличенных данных (условно — с удалёнными или замаскированными ФИО), либо использование специализиированных систем, например, в клиниках — в закрытом контуре организации, без доступа к внешним ресурсам, что делает их менее уязвимыми к атакам и утечкам по сравнению с публичными сервисами», — добавил эксперт.
Источник: РИА Новости
