В Америке половина ИИ-решений, разрешенных FDA, не проходили клинические испытания. Причина — дефицит реальных медицинских данных.
Скандал на американском рынке ИИ в здравоохранении.
Исследователи Университета Северной Каролины (UNC) проанализировали более 500 систем ИИ и приборов на их базе, разрешенных для использования в США Управлением по контролю качества пищевых продуктов и лекарственных средств (FDA) , и сделали вывод: около половины этих алгоритмов обучалось не на реальных, а на сгенерированных данных. Это ставит под сомнение их клиническую применимость.
Из исследования, опубликованного в Nature, следует, что лишь 22 системы ИИ (4,2% от их общего числа) прошли полноценные клинические испытания, и при этом почти у половины алгоритмов, около 43% из них, отсутствовали любые публично доступные результаты проверки их работы на практике. В дополнение к этому исследователи обнаружили, что почти 50% нейросетей и связанных с ними устройств проходили обучение или проверку работы не на реальных, а на сгенерированных данных о пациентах.
Как HealthOS решает проблему плохого качества данных?
- Управлением риском искажения информации за счет исполнения протоколов определения признаков карты знаний в момент создания медицинских записей
- Маркировкой каждой медицинской записи метками выявленных рисков искажения по результатам верификации каждого признака
- Обеспечением подотчетности всех этапов конвейера создания, обработки и выдачи медицинских записей по запросу путем формирования инфраструктуры аудита.
Подробнее — см. описание модели доверия медицинской информации.