Компания OpenAI представила публике языковую модель пятого поколения GPT-5, выделив ее особый потенциал для преобразования медицинской отрасли. По заявлению генерального директора Сэма Альтмана, новейшая версия искусственного интеллекта способна оказывать поддержку пользователям в вопросах здоровья, демонстрируя уровень принятия решений, сопоставимый с квалифицированным специалистом. Фактически, модель позиционируется как “эксперт с научной степенью”.

OpenAI утверждает, что GPT-5 стала самой надежной медицинской моделью в ее портфолио. Это подтверждается результатами независимой оценки на платформе HealthBench, разработанной при участии 250 практикующих врачей. Тестирование включало анализ 5000 диалогов, симулирующих консультации пациентов с цифровыми ассистентами. Модель продемонстрировала превосходство над предшествующими версиями по ключевым параметрам точности и качества предоставляемой информации.
Государственный сектор
И модельный ряд
Параллельно анонсировано внедрение GPT-5 в работу ряда федеральных служб Соединенных Штатов, что подчеркивает доверие к технологии на высоком уровне. Для обеспечения гибкости развертывания OpenAI предлагает три варианта модели: флагманский GPT-5, а также более компактные версии GPT-5 mini и GPT-5 nano, адаптированные под различные вычислительные ресурсы и задачи. В компании прогнозируют экспансию модели в новые, пока неочевидные сценарии применения в ближайшие месяцы.
Растущий энтузиазм по поводу ИИ в медицине сопровождается усилением внимания к вопросам безопасности и надежности. Ошибки искусственного интеллекта в интерпретации данных или генерации рекомендаций потенциально способны привести к серьезным последствиям для здоровья пациентов. Этот факт подчеркивает критическую необходимость постоянного и строгого экспертного контроля над применением подобных моделей в реальной клинической практике.
Контекст текущих возможностей и ограничений медицинских ИИ-моделей проясняет масштабное исследование, опубликованное в марте 2024 года группой ученых из Австрии и Германии. Работа посвящена анализу применения ChatGPT (включая версию GPT-4) в медицинских науках. Исследователи провели ресерч научных публикаций, вышедших после появления этой большой языковой модели (LLM). Основные области тестирования, по их данным, сфокусированы на медицинском образовании, консультативной поддержке, научных исследованиях и отдельных этапах клинической работы: диагностике, поддержке принятия врачебных решений и автоматизации документооборота.
Глубокий анализ возможностей
И рисков chatgpt-4
В части медицинских консультаций исследователи отметили относительно высокую точность ChatGPT в онкологической тематике. Они предположили, что это может быть следствием включения в обучающие данные авторитетных публичных источников. Однако эффективность модели в других медицинских специализациях требует дальнейшей, более детальной оценки. Общий вывод ученых категоричен: текущие версии ChatGPT не соответствуют высоким стандартам, предъявляемым к клиническим инструментам. Для реального внедрения необходимы специализированные доработки и внедрение стандартизированных методов оценки качества работы ИИ.
Авторы исследования указали на фундаментальную проблему: существующие методики оценки чрезмерно зависят от субъективных мнений экспертов. Им не хватает объективности и масштабируемости. В качестве перспективного направления они видят разработку автоматизированных количественных метрик для оценки релевантности, точности и полноты ответов ИИ. Создание специализированных, узкопрофильных версий ChatGPT для конкретных медицинских дисциплин, прошедших валидацию по таким строгим количественным критериям, рассматривается как возможный путь к их практическому внедрению в медицине.
Восприятие и доверие
Взгляд общества и специалистов
Опросы общественного мнения в США и России выявляют схожие тенденции: интерес к возможностям ИИ в медицине сочетается с выраженной настороженностью и неоднородным уровнем доверия.
- Данные США (Центр общественной политики Анненберга): 63% американцев выражают готовность полагаться на ответы, сгенерированные ИИ, при поиске общей медицинской информации. При этом 79% респондентов регулярно используют интернет для поиска сведений о здоровье.
- Данные России (MAR CONSULT): Российские пользователи проявляют интерес к новым технологиям, однако отдают явное предпочтение очному взаимодействию с врачом. Уровень недоверия к ИИ остается высоким: 46% опрошенных не доверяют машинным алгоритмам в принципе.
ИИ в медицинском образовании
Опыт и опасения будущих врачей
Активное проникновение ChatGPT в образовательные процессы не обошло стороной и медицинские вузы. Специалисты Сычуаньского университета (Китай) провели одно из первых масштабных исследований восприятия этой технологии студентами-медиками. В опросе приняли участие 1133 будущих врача из различных образовательных учреждений провинции Сычуань.
Результаты показали, что 62,9% респондентов уже использовали ChatGPT в учебных целях. Наиболее частые сценарии применения: поиск медицинской информации (84,4%) и выполнение академических заданий по профильным дисциплинам (60,4%). Однако исследование выявило и значительные опасения:
- 76,9% студентов обеспокоены риском распространения ИИ-ботами недостоверных или неточных медицинских сведений.
- 65,4% выразили тревогу относительно возможностей нечестного заимствования контента (плагиата) при использовании ИИ для выполнения работ.
Несмотря на эти опасения, более 60% участников опроса заявили о готовности применять ChatGPT для решения учебных задач в рамках клинической подготовки и в целом позитивно оценили его потенциал для улучшения медицинского образования.
Запуск GPT-5 знаменует новый этап в эволюции больших языковых моделей, предлагая беспрецедентные возможности для анализа данных, поддержки принятия решений и оптимизации процессов в медицине, фармацевтике и смежных отраслях. Однако путь к широкой клинической интеграции ИИ сопряжен с преодолением значительных вызовов. Исследования, подобные работе австро-германской группы и опросы общественного мнения, четко обозначают барьеры: ограниченная надежность моделей в сложных клинических сценариях, риски “галлюцинаций”, проблемы конфиденциальности данных, отсутствие стандартизированных методов оценки и объективных метрик, а также сохраняющийся скепсис как со стороны пациентов, так и части профессионального сообщества.
Дальнейшее развитие будет определяться совместными усилиями разработчиков ИИ, медицинских учреждений, регуляторных органов, страховых компаний и законодателей. Успех интеграции в практическое здравоохранение будет зависеть от способности отрасли найти баланс между инновационным потенциалом технологии и безусловным обеспечением безопасности пациентов, качества помощи и защиты конфиденциальности. Только ответственный и хорошо регулируемый подход позволит реализовать трансформационный потенциал искусственного интеллекта в медицине.