Многие исследования утверждают, что искусственный интеллект так же хорошо, как (или лучше чем) человека специалисты по интерпретации медицинских изображений низкого качества и, возможно, преувеличены, представляющих угрозу для безопасности ‘миллионы пациентов предупреждают сегодня исследователям в BMJ.
Их результаты вызывают опасения по поводу качества данных, лежащих в основе многих из этих исследований, и подчеркнуть необходимость совершенствования их конструкции и стандарты отчетности.
Искусственный интеллект (ИИ) — это инновационная и быстро движущихся поле с потенциалом для улучшения ухода за пациентами и облегчения перегруженных медицинских услуг. Глубокое обучение-это отрасль ИИ, который показывает конкретное обещание в медицинской визуализации.
Объем опубликованных исследований по глубокому обучению растет, и некоторые заголовки СМИ, которые утверждают, что главное представление для врачей вызвали ажиотаж на быструю реализацию. Но методы и риск предвзятости исследований за этих заголовков не были подробно изучены.
Для решения этой проблемы команда исследователей проанализировали результаты опубликованных исследований за последние 10 лет, Сравнение результатов работы алгоритма глубинного обучения в области медицинской визуализации с опытными врачами.
Они нашли только два правомочных рандомизированных клинических испытаниях и 81 нерандомизированных исследований.
В нерандомизированных исследований, только девять были перспективные (отслеживание и сбор информации о физических лицах с течением времени) и только шесть из них были проверены в ‘реальном мире’ клинических условиях.
Среднее число человеческих экспертов в группе компаратора было всего четыре, в то время как доступ к необработанным данным и код (возможность независимой проверки результатов) была сильно ограничена.
Более чем две трети (58 из 81) исследования считаются с высоким риском предвзятости (проблемы в дизайне исследования, которые могут повлиять на результаты), и соблюдение признанных стандартов отчетности зачастую оставляет желать лучшего.
Три четверти (61 исследований) заявил, что результативность ИИ была по крайней мере сравнима (или лучше), что врачей, и только у 31 (38%) заявили, что необходимы дальнейшие проспективные исследования или испытания.
Исследователи указывают на некоторые ограничения, такие как возможность упустил исследования и акцент на глубокое изучение медицинских исследований, визуализации, поэтому результаты могут быть не применимы для других типов AI.
Тем не менее, они говорят, что в настоящее время «многие, возможно, преувеличенные претензии о равноценности (или превосходства над) врачей, который представляет собой потенциальный риск для безопасности пациентов и здоровья населения на социальном уровне».
Чрезмерными обещаниями язык «уходит исследований восприимчивы к неверно истолкованы средствами массовой информации и общественностью, и, как следствие, возможного оказания ненадлежащей помощи, которые не обязательно совпадают с интересами пациентов», — предупреждают они.
«Увеличивая безопасность пациентов будут максимально эффективными, гарантируя, что мы разрабатываем высококачественные и прозрачно сообщает доказательной базе двигаться вперед», — заключают они.
сделать разницу: спонсорские возможности

Ответить
Хотите присоединиться к обсуждению?Не стесняйтесь вносить свой вклад!