Перейти к содержимому

Как мы защищаем персональные данные при работе с ИИ

persdata

Когда речь идёт о медицинских документах, вопрос безопасности данных – критично важен. Мы в «Мислаб» используем два подхода:

Деперсонификация и работа с внешними ИИ-моделями

В этом случае система убирает личную информацию из документов – заменяет фамилии, номера карт и другие данные кодами или просто удаляет их. После этого "очищенный" текст передаётся в мощные языковые модели, которые помогают анализировать информацию и составлять отчёты. Это удобно, когда важны сложные аналитические задачи, но передавать персональные данные нельзя.

Локальная обработка в защищённой среде

Когда персональные данные нельзя выносить за пределы системы, используется локальная модель. Именно так работает MislabMedAI. Модель развёртывается на арендованном сервере или внутри медицинского учреждения, где полностью контролируется службой безопасности. Такой вариант подходит для задач, где важно сохранить всю информацию внутри — например, когда нужно распознать имя пациента, его диагноз и дату приёма.

Какой вариант выбрать? Всё зависит от задач и требований к безопасности. В MislabMedAI мы используем оба подхода: если задачу можно решить через облачные мощности без риска для данных, то применяется деперсонификация. Если информация слишком чувствительна, она обрабатывается локально.

Так мы совмещаем удобство, точность и безопасность, помогая врачам работать быстрее, а пациентам – быть уверенными, что их данные под надёжной защитой

  • Просмотров: 21