На этой фотоиллюстрации виртуальный друг изображен на экране iPhone 30 апреля 2020 года в Арлингтоне, штат Вирджиния. — «Так приятно слышать твой голос». — «Я волновался за тебя». — «Что бы ты хотел сегодня сделать?» Это может показаться обычной дружеской перепалкой. Но в этих случаях «другом», который говорил, был чат-бот, созданный с помощью искусственного интеллекта. Специально разработанные чат-боты — мужского, женского или другого пола — в данном случае созданы калифорнийским стартапом Replika и предназначены для того, чтобы стать компаньонами для людей, нуждающихся в общении. Чат-боты с искусственным интеллектом вызвали повышенный интерес во время глобальной пандемии вируса, которая привела к резкому росту изоляции и тревожности. (Фото Оливье Дульери / AFP) (Фото OLIVIER DOULIERY/AFP via Getty Images)
Одно из преимуществ новейших чат-ботов заключается в том, что они отвечают на вопросы пользователей, используя контекст их медицинской истории, включая рецепты, возраст и записи врача.
Даже если вы не предоставили ИИ доступ к своей медицинской информации, Вахтер и другие рекомендуют предоставлять чат-ботам как можно больше подробностей, чтобы улучшить качество ответов.
Если у вас наблюдаются тревожные симптомы, откажитесь от приема ИИ.
Вахтер и другие подчеркивают, что бывают ситуации, когда людям следует пропустить общение с чат-ботом и немедленно обратиться за медицинской помощью. Такие симптомы, как одышка, боль в груди или сильная головная боль, могут сигнализировать о неотложной медицинской помощи.
Даже в менее срочных ситуациях пациентам и врачам следует относиться к программам искусственного интеллекта с «определенной долей здорового скептицизма», — заявил доктор Ллойд Минор из Стэнфордского университета.
«Если речь идёт о важном медицинском решении или даже о менее значительном решении, касающемся вашего здоровья, никогда не следует полагаться только на то, что вы получаете из большой языковой модели», — сказал Минор, декан медицинской школы Стэнфорда.
Прежде чем загружать какие-либо медицинские данные, позаботьтесь о своей конфиденциальности.
Многие преимущества, предоставляемые ИИ-ботами, обусловлены тем, что пользователи делятся личной медицинской информацией. Однако важно понимать, что любая информация, переданная компании, занимающейся ИИ, не защищена федеральным законом о конфиденциальности, который обычно регулирует конфиденциальную медицинскую информацию.
Закон, широко известный как HIPAA, предусматривает штрафы и даже тюремное заключение для врачей, больниц, страховых компаний или других медицинских учреждений, которые разглашают медицинские записи. Однако этот закон не распространяется на компании, разрабатывающие чат-боты.
«Когда кто-то загружает свою медицинскую карту в большую языковую модель, это совсем не то же самое, что передать ее новому врачу», — сказала Минор. «Потребители должны понимать, что это совершенно разные стандарты конфиденциальности».
Как OpenAI, так и Anthropic заявляют, что информация о здоровье пользователей хранится отдельно от других типов данных и подлежит дополнительной защите конфиденциальности. Компании не используют данные о здоровье для обучения своих моделей. Пользователи должны дать согласие на предоставление своей информации и могут отключиться в любое время.
Тестирование показывает, что чат-боты могут давать сбои.
Несмотря на энтузиазм, окружающий ИИ, независимое тестирование этой технологии находится на начальной стадии. Первые исследования показывают, что такие программы, как ChatGPT, могут успешно сдавать медицинские экзамены высокого уровня, но часто испытывают трудности при взаимодействии с людьми.
Недавнее исследование Оксфордского университета с участием 1300 человек показало, что люди, использующие чат-боты на основе искусственного интеллекта для изучения гипотетических состояний здоровья, принимали решения не лучше, чем люди, использующие онлайн-поиск или собственное суждение.
Статья по теме

Генеральный директор Google Сундар Пичаи обращается к собравшимся во время корпоративной конференции в Маунтин-Вью, Калифорния, 20 мая 2025 года. Google и Character.AI договорились об урегулировании судебных исков, в которых утверждалось о нанесении вреда психическому здоровью молодых людей.
3 мин чтения
Чат-боты с искусственным интеллектом, которым были представлены медицинские сценарии в исчерпывающей письменной форме, правильно определяли основное заболевание в 95% случаев.
«Проблема была не в этом, — сказал ведущий автор исследования Адам Махди из Оксфордского института интернета. — Все пошло наперекосяк во время взаимодействия с реальными участниками».
Махди и его команда обнаружили несколько проблем с коммуникацией. Люди часто не предоставляли чат-ботам необходимую информацию для правильной идентификации проблемы со здоровьем. И наоборот, системы искусственного интеллекта часто отвечали сочетанием хорошей и плохой информации, и пользователям было трудно отличить одно от другого.
В исследовании, проведенном в 2024 году, не использовались последние версии чат-ботов, включая новые предложения, такие как ChatGPT Health.
Второе мнение, полученное с помощью ИИ, может быть полезным.
Вахтер видит возможности для улучшения способности чат-ботов задавать уточняющие вопросы и получать от пользователей ключевую информацию.
«Я думаю, что все станет по-настоящему хорошо, когда инструменты станут немного более похожими на врачебные в плане взаимодействия с пациентами», — сказал Вахтер.
На данный момент один из способов почувствовать себя более уверенно в получаемой информации — это проконсультироваться с несколькими чат-ботами, подобно тому, как вы получаете второе мнение от другого врача.
«Иногда я ввожу информацию в ChatGPT, а иногда — в Gemini, — сказал Вахтер, имея в виду инструмент искусственного интеллекта от Google. — И когда они оба совпадают, я чувствую себя немного увереннее в том, что это правильный ответ».
ИИ Посмотреть все темы Facebook Твитнуть Email Ссылка Темы Ссылка скопирована! Подписаться













