Виртуальный доктор. Можно ли доверять советам медицинских чат-ботов
Ученые сравнили ответы реальных врачей и медицинских чат-ботов на запросы пациентов. Оказалось, что советы искусственного интеллекта (ИИ) часто кажутся людям более понятными, информативными и корректными. Почему к рекомендациям «виртуального доктора» все же следует относиться с осторожностью — в материале РИА Новости.Медицина в эпоху ИИПрактические приложения на основе генеративного ИИ развиваются стремительно, в том числе в медицине. Сегодня искусственный интеллект помогает врачам расшифровывать результаты рентгенографических, МРТ, КТ и других исследований, анализирует истории болезни пациентов, создает шаблоны рецептов и рекомендаций.Пандемия COVID-19 ускорила внедрение цифрового здравоохранения и телемедицины. С одной стороны, это упростило доступ к медицинской помощи, с другой — привело к снижению ее качества и нарушению регламентов. ИИ частично освобождает врачей от рутинной бумажной работы и готовит информацию, но за диагноз и лечение все равно отвечает человек.Благодаря медицинским чат-ботам на основе ChatGPT пациенты получили возможность напрямую обращаться к «виртуальному доктору». Эта сфера пока никак не регламентирована. Ученые пытаются найти оптимальные варианты сочетания ИИ с опытом и знаниями специалистов.»В более отдаленной перспективе я могу представить себе некую технологию, при которой клиницисты присматривают за ИИ, как лечащие врачи — за своими стажерами, — пишет доктор медицинских наук, профессор Калифорнийского университета в Сан-Франциско Тева Брендер. — Мы должны четко осознавать риски, присущие любому новому направлению, тем более с экзистенциальными последствиями. Я с осторожным оптимизмом смотрю в будущее, когда ИИ позволит нам встать из-за компьютера и вернуться к тому, ради чего мы решили заняться медициной».Цифровая эмпатияСреди медиков распространено мнение, что конкуренция с ИИ им не страшна, поскольку машинный разум способен лишь механически интерпретировать данные и не в состоянии заменить пациенту общение с врачом. Американские исследователи под руководством доктора Джона Айерса из Калифорнийского университета в Сан-Диего проверили профессионализм рекомендаций, генерируемых чат-ботом ChatGPT, а заодно оценили их «человечность».В качестве исходных данных взяли 195 случайно выбранных вопросов пользователей онлайн-сообщества Ask a Doctor (r/AskDocs). Это сабреддит с аудиторией около 452 тысяч человек, где доктора проводят консультации.Ответы ChatGPT на те же вопросы без указания источника вместе с рекомендациями реальных врачей представили на суд экспертов-медиков. В 79 процентах случаев специалисты отдали предпочтение вариантам ИИ.»Там более детализированная и точная информация», — отметила одна из участниц эксперимента, практикующая медсестра из Сан-Диего Джессика Келли.Рекомендации чат-бота были и более чуткими: эмпатия в 9,8 раза выше, чем у врачей. Это объясняется заранее запрограммированными лингвистическими приемами.
«Эмпатия — сложный эмоциональный и когнитивный процесс, — говорит доктор философии Эдивирира Десаприя, сотрудник медицинского факультета Университета Британской Колумбии в Канаде. — Это подразумевает активное слушание, искреннюю заботу, способность понимать тревоги пациентов, реагировать на них».Профессор искусственного интеллекта в Университете Бата Нелло Кристианини в обсуждении статьи приводит такой пример: «Мой отец был врачом, и порой ему звонили посреди ночи. Утром я спрашивал, что случилось. Он отвечал, что люди боятся смерти и иногда им нужно просто услышать доктора. Не уверен, что чат-бот сможет или должен когда-либо взять на себя эту важную функцию».Интеллектуальный помощникСгенерированные ИИ сообщения воспринимались как более информативные и чуткие прежде всего благодаря развернутости и подчеркнутому уважению к пациенту.»Длинные ответы более популярны, это сказывается на рейтинге», — уточняет Десаприя.Ученые считают, что использование ChatGPT в качестве помощника оправданно в клинических условиях. При дистанционном консультировании ИИ можно доверить шаблоны ответов, которые затем отредактируют специалисты. Это ускорит процесс, облегчит работу врачей и улучшит результаты лечения.Такую систему уже внедряют в Медицинской школе Калифорнийского университета в Сан-Диего. Суперкомпьютерная инфраструктура Microsoft Azure позволяет врачам применять ChatGPT для создания черновика ответа при общении с пациентами.Еще одно направление — электронные медицинские карты. Генеративный искусственный интеллект OpenAI GPT-4 предназначен для обработки и фиксации бесед врачей с больными.Предвзятость и выдумывание «фактов»Базой данных для Chat GPT обычно служат открытые источники в интернете. Но индивидуальные особенности пациента известны только лечащему врачу. В Медицинской школе Стэнфордского университета сопоставили инструкции по послеоперационному лечению от Chat GPT с теми, что дали специалисты при выписке из больницы.Советы чат-бота оказались хуже: по понятности — на десять процентов, по эффективности — почти на 20.Тем не менее у чат-ботов есть свои плюсы. Генеративный ИИ незаменим, когда нет возможности обратиться в клинику. Он учитывает последнюю научную информацию, а ответы адаптирует к разным уровням грамотности. Кроме того, обладает способностью к самообучению.Из минусов — явление, которое назвали «предвзятостью автоматизации». Речь идет о склонности людей, в том числе специалистов, излишне доверять выводам ИИ при принятии решений.Профессор автоматизированного мышления Университета Лидса Энтони Кон считает, что врач должен сохранять бдительность и всегда проверять рекомендации чат-бота.»Большие языковые модели, такие как ChatGPT, нередко выдумывают «факты». Опасно полагаться только на искусственный интеллект, — предостерегает он. — С чат-ботом нужна осторожность. Это лишь вспомогательный инструмент медицинского работника».Недавно ученые из Германии и Нидерландов оценили корректность диагностики рака молочной железы, проведенной врачами-рентгенологами с помощью автоматизированной программы чтения маммограмм. При заключении об отсутствии опухоли, выданном ИИ, выявляемость рака опытными врачами снизилась с 82 до 45 процентов, а стажерами — с 80 до 20.Вывод: искусственный интеллект может существенно повысить качество медицинской помощи, но его надо умело применять и контролировать, а диагнозы и рекомендации по лечению тщательно проверять.