ChatGPT и здравоохранение: может ли чат-бот с искусственным интеллектом изменить качество обслуживания пациентов?
ChatGPT, чат-бот с искусственным интеллектом, выпущенный OpenAI в декабре 2022 года, известен своей способностью отвечать на вопросы и предоставлять подробную информацию за считанные секунды — и все это в понятной форме в режиме разговора.
По мере роста популярности ChatGPT появляется практически во всех отраслях, включая образование, недвижимость, создание контента и даже здравоохранение.
Хотя чат-бот потенциально может изменить или улучшить некоторые аспекты обслуживания пациентов, эксперты предупреждают, что у него есть ограничения и риски.
Говорят, что искусственный интеллект никогда не должен использоваться в качестве замены медицинской помощи.
ПЛАТФОРМА ЗДРАВООХРАНЕНИЯ С ИСКУССТВЕННЫМ ИНТЕЛЛЕКТОМ С ВЫСОКОЙ ТОЧНОСТЬЮ ПРЕДСКАЗЫВАЕТ ДИАБЕТ, НО "НЕ ЗАМЕНИТ УХОД За ПАЦИЕНТАМИ"
Поиск медицинской информации в Интернете не является чем—то новым - люди годами гуглили свои симптомы.
Но с ChatGPT люди могут задавать вопросы, связанные со здоровьем, и участвовать в том, что похоже на интерактивную "беседу" с, казалось бы, всезнающим источником медицинской информации.
"ChatGPT намного мощнее Google и, безусловно, дает более убедительные результаты, независимо от того, верны [эти результаты] или нет", - сказал в интервью Fox News Digital доктор Джастин Норден, эксперт по цифровому здравоохранению и ИИ, который является адъюнкт-профессором Стэнфордского университета в Калифорнии.

С помощью поисковых систем в Интернете пациенты получают некоторую информацию и ссылки, но затем сами решают, куда нажать и что прочитать. С помощью ChatGPT ответы им даются явно и напрямую, объяснил он.
Одно большое предостережение заключается в том, что источником данных ChatGPT является Интернет, а в Сети, как известно большинству людей, много дезинформации. Вот почему ответы чат-бота, как бы убедительно они ни звучали, всегда должны проверяться врачом.
Кроме того, согласно нескольким источникам, ChatGPT "обучен" работе с данными только до сентября 2021 года. Хотя со временем он может расширять свои знания, у него есть ограничения в плане предоставления более свежей информации.
Доктор Дэниел Хашаби, профессор компьютерных наук в университете Джона Хопкинса в Балтиморе, штат Мэриленд, и эксперт по системам обработки естественного языка, обеспокоен тем, что по мере того, как люди все больше привыкают полагаться на разговорных чат-ботов, они будут сталкиваться с растущим количеством неточной информации.
"Существует множество доказательств того, что эти модели увековечивают ложную информацию, которую они видели во время обучения, независимо от того, откуда она поступает", - сказал он в интервью Fox News Digital, имея в виду "обучение" чат-ботов.
Искусственный ИНТЕЛЛЕКТ И ЗДОРОВЬЕ СЕРДЦА: МАШИНЫ ЛУЧШЕ СПРАВЛЯЮТСЯ С ЧТЕНИЕМ УЛЬТРАЗВУКОВЫХ ДАННЫХ, ЧЕМ СОНОГРАФЫ, ГОВОРИТСЯ В ИССЛЕДОВАНИИ
"Я думаю, что это вызывает большую озабоченность в сфере общественного здравоохранения, поскольку люди принимают жизненно важные решения о таких вещах, как лекарства и хирургические процедуры, на основе этой обратной связи", - добавил Хашаби.
"Я думаю, это может создать коллективную опасность для нашего общества".
Это может ‘снять" некоторое "доклиническое бремя’
Пациенты потенциально могли бы использовать системы на основе ChatGPT для таких действий, как запись на прием к поставщикам медицинских услуг и пополнение рецептов, устраняя необходимость совершать телефонные звонки и выдерживать длительное ожидание.
"Я думаю, что такого рода административные задачи хорошо подходят для этих инструментов, чтобы помочь снять часть неклинической нагрузки с системы здравоохранения", - сказал Норден.
Чтобы включить эти типы возможностей, поставщику услуг пришлось бы интегрировать ChatGPT в свои существующие системы.
Хашаби считает, что эти виды использования могут быть полезными, если они будут реализованы правильным образом, но он предупреждает, что это может вызвать разочарование у пациентов, если чат-бот не будет работать должным образом.
"Если пациент спрашивает о чем-то, а чат-бот не видит этого состояния или определенного способа его формулировки, он может развалиться, и это не является хорошим обслуживанием клиентов", - сказал он.
"Следует очень тщательно внедрять эти системы, чтобы убедиться в их надежности".
"Это может развалиться, и это не очень хорошее обслуживание клиентов".
Хашаби также считает, что должен быть запасной механизм, чтобы, если чат-бот понимает, что он вот-вот выйдет из строя, он немедленно переключался на человека вместо того, чтобы продолжать отвечать.
"Эти чат-боты склонны к "галлюцинациям" — когда они чего-то не знают, они продолжают что-то выдумывать", - предупредил он.
Он может делиться информацией об использовании лекарств
Хотя ChatGPT заявляет, что у него нет возможности выписывать рецепты или предлагать пациентам медицинское лечение, он предоставляет обширную информацию о лекарствах.
Пациенты могут использовать чат-бота, например, чтобы узнать о предполагаемом применении лекарств, побочных эффектах, взаимодействии лекарств и правильном хранении.
На вопрос, следует ли пациенту принимать определенное лекарство, чат-бот ответил, что он не имеет права давать медицинские рекомендации.
Вместо этого в нем говорилось, что люди должны обращаться к лицензированному поставщику медицинских услуг.
В нем могут содержаться подробности о психических расстройствах
Эксперты согласны с тем, что ChatGPT не следует рассматривать как замену терапевту. Это модель искусственного интеллекта, поэтому ей не хватает сочувствия и нюансов, которые мог бы обеспечить врач-человек.
Однако, учитывая текущую нехватку психиатрических работников и иногда длительное время ожидания приема, у людей может возникнуть соблазн использовать искусственный интеллект в качестве средства временной поддержки.
МОДЕЛЬ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА СИБИЛ МОЖЕТ ПРЕДСКАЗЫВАТЬ РИСК РАЗВИТИЯ РАКА ЛЕГКИХ У ПАЦИЕНТОВ, ГОВОРИТСЯ В ИССЛЕДОВАНИИ
"В условиях нехватки поставщиков услуг в условиях кризиса психического здоровья, особенно среди молодежи, существует невероятная потребность", - сказал Норден из Стэнфордского университета. "Но, с другой стороны, эти инструменты не протестированы и не доказаны".
Он добавил: "Мы не знаем точно, как они будут взаимодействовать, и мы уже начали видеть некоторые случаи, когда люди взаимодействовали с этими чат-ботами в течение длительных периодов времени и получали странные результаты, которые мы не можем объяснить".
Когда его спросили, может ли он оказывать поддержку в области психического здоровья, ChatGPT предоставил оговорку о том, что он не может заменить роль лицензированного специалиста в области психического здоровья.
Однако в нем говорилось, что он может предоставлять информацию о состояниях психического здоровья, стратегиях преодоления, методах самообслуживания и ресурсах для профессиональной помощи.
OpenAI ‘запрещает’ использование ChatGPT для медицинских рекомендаций
OpenAI, компания, создавшая ChatGPT, предупреждает в своих правилах использования, что чат-бот с искусственным интеллектом не следует использовать для медицинского обучения.
В частности, политика компании гласит, что ChatGPT не следует использовать для "сообщения кому-либо о том, что у него есть или нет определенного состояния здоровья, или предоставления инструкций о том, как вылечить это состояние здоровья".
Ожидается, что роль ChatGPT в здравоохранении будет продолжать развиваться.
В нем также говорилось, что модели OpenAI "не настроены для предоставления медицинской информации. Вы никогда не должны использовать наши модели для предоставления услуг диагностики или лечения серьезных заболеваний ".
Кроме того, в нем говорилось, что "платформы OpenAI не следует использовать для сортировки или решения опасных для жизни проблем, требующих немедленного внимания".