Недолеченный ИИ: россияне жалуются на неверные диагнозы искусственного интеллекта в поликлиниках
Искусственный интеллект (ИИ) помог столичным терапевтам и врачам общей практики поставить более 14 миллионов диагнозов, заявила вице-мэр Москвы Анастасия Ракова. Систему внедрили в московских поликлиниках в сентябре 2023 года. Чиновники обещали, что ИИ будет полезным инструментом для медиков. Однако пациенты стали чаще сталкиваться с ошибочными диагнозами из-за советов цифровых помощников, а при заполнении электронных карт теперь допускается больше ошибок.
На этапе внедрения системы поддержки принятия врачебных решений, работающей на базе искусственного интеллекта во всех взрослых поликлиниках Москвы, чиновники говорили, что она значительно повысит эффективность лечебно-диагностического процесса и обеспечит москвичей максимально персонализированной медицинской помощью.
Анастасия Ракова отметила, что систему разработали несколько лет назад совместно с компанией «СберМедИИ» и Лабораторией ИИ Сбера. Один из этих сервисов, цифровой помощник «ТОП-3», анализирует жалобы пациента на здоровье и на основе полученной информации предлагает три наиболее вероятных предварительных диагноза. Врач может согласиться с одним из них или поставить свой. Сервис определяет 95% самых распространенных заболеваний.
По словам мэра Москвы Сергея Собянина, в ближайшее время в поликлиниках будет доступна расшифровка флюорографии и рентгена грудной клетки с помощью ИИ.
(Не) правильные диагнозы
Правда, многие пациенты сталкиваются с тем, что терапевты не пытаются интерпретировать результаты исследований и анализов, а просто соглашаются с диагнозом виртуального помощника. В некоторых случаях это приводит к постановке неправильных диагнозов, разбираться с которыми приходится в платных медучреждениях.
Москвичка Татьяна в беседе с изданием «Октагон» рассказала, что обратилась в поликлинику с жалобами на повышенное давление. Новый участковый терапевт дала ей направление на ЭКГ. По результатам диагностик поставили диагноз «ишемия», хотя никаких жалоб, кроме давления, у нее не было.
Женщина просила дать направления на дополнительные исследования, но медик заверила ее, что тут все очевидно, так как ИИ это подтвердил, и просто выписала таблетки. Верить, что в 42 года у Татьяны развилось серьезное сердечное заболевание, не хотелось, поэтому она решила пройти развернутое обследование в платном центре. Диагноз не подтвердился. А ведь кто-то в такой ситуации просто начал бы принимать таблетки, опасные для человека, который не страдает ишемией.
Пишет, но неправильно
С приходом цифровизации в сферу здравоохранения участились жалобы на некорректное заполнение электронных медицинских карт, а это может повлиять на советы, которые дает ИИ.
Пенсионерка Светлана Громова рассказала, что на прием теперь отводится всего 12 минут. Медики часто не успевают выслушать, осмотреть пациента и внести данные в систему, особенно в случае полной записи. Очевидно, чтобы ускорить процесс, некоторые врачи просто копируют шаблонные жалобы и списки назначений. На словах пациенту они могут назначить верные лекарства, а в компьютере оказываются другие. Часто приводится описание осмотров, которых не было. Когда вы оказываетесь, например, на приеме у какого-то узкого специалиста, ИИ просто использует все данные из медицинской карты, поэтому начинается неразбериха.
Медработники утверждают, что на данном этапе развития искусственный интеллект часто ставит ложноположительные диагнозы, и полностью полагаться на него нельзя.
Врач-терапевт Александр Косых говорит, что проблема также заключается в текущей системе подготовки медиков. После отмены интернатуры, где врачи обучались на практике, молодые терапевты приходят в поликлиники сразу после университета, часто без какого-либо практического опыта. Там их встречает искусственный интеллект, который всегда готов помочь с диагнозом. К сожалению, многие молодые врачи воспринимают государственные клиники как ступень на пути в частные, терпят эту работу для получения стажа или отработки по целевому направлению. Они не хотят утруждаться, чтобы помочь пациенту, а работают для галочки.
Внедрение ИИ в поликлиниках может иметь негативные последствия для здравоохранения и самих пациентов, которых при постановке ошибочного диагноза, по сути, вынуждают нести деньги в платные учреждения, пояснил Косых.
Эксперты также задаются вопросами о юридических аспектах применения искусственного интеллекта в медицине. Кто будет отвечать за ошибочный диагноз, интерпретацию результатов анализов или исследований и лечение, если это дело рук нейросети?
Пока ответственность полностью лежит на враче, так как за ним всегда остается последнее слово в постановке диагноза, считает кандидат медицинских наук, врач-рентгенолог Сергей Анохин.
Правда, по его словам, ИИ будет все шире использоваться в медицине, так как его роль неоценима при выполнении различных рутинных задач и систематизации, поэтому необходимо развивать законодательную базу.
Главное, при внедрении искусственного интеллекта не получить ситуацию, как с видеокамерами, которые фиксируют нарушения. Россиянам обещали, что проверять обоснованность вынесения штрафов будет человек. На деле гражданам приходят тысячи квитанций с ошибками системы, где на фото отчетливо видно, что на самом деле нарушения не было. При этом оспорить штраф — весьма непростая задача, пояснил Анохин.
В сфере здравоохранения подобные ошибки могут быть фатальными. Например, нейросети могут ошибаться при исследовании снимков, полученных в ходе проведения КТ, — не видеть или, наоборот, дорисовывать несуществующие детали, имеющие принципиальное значение для постановки диагноза. Это может оказаться фатально, предупредили эксперты.
Подписывайтесь на Новости LIVE24.RU и на наш канал в Дзенe. Следите за главными новостями России и Мира в telegram-канале LIVE24.RU.