Ком­па­ния OpenAI пред­ста­ви­ла пуб­ли­ке язы­ко­вую модель пято­го поко­ле­ния GPT-5, выде­лив ее осо­бый потен­ци­ал для пре­об­ра­зо­ва­ния меди­цин­ской отрас­ли. По заяв­ле­нию гене­раль­но­го дирек­то­ра Сэма Альт­ма­на, новей­шая вер­сия искус­ствен­но­го интел­лек­та спо­соб­на ока­зы­вать под­держ­ку поль­зо­ва­те­лям в вопро­сах здо­ро­вья, демон­стри­руя уро­вень при­ня­тия реше­ний, сопо­ста­ви­мый с ква­ли­фи­ци­ро­ван­ным спе­ци­а­ли­стом. Фак­ти­че­ски, модель пози­ци­о­ни­ру­ет­ся как “экс­перт с науч­ной степенью”.

OpenAI утвер­жда­ет, что GPT-5 ста­ла самой надеж­ной меди­цин­ской моде­лью в ее порт­фо­лио. Это под­твер­жда­ет­ся резуль­та­та­ми неза­ви­си­мой оцен­ки на плат­фор­ме HealthBench, раз­ра­бо­тан­ной при уча­стии 250 прак­ти­ку­ю­щих вра­чей. Тести­ро­ва­ние вклю­ча­ло ана­лиз 5000 диа­ло­гов, симу­ли­ру­ю­щих кон­суль­та­ции паци­ен­тов с циф­ро­вы­ми асси­стен­та­ми. Модель про­де­мон­стри­ро­ва­ла пре­вос­ход­ство над пред­ше­ству­ю­щи­ми вер­си­я­ми по клю­че­вым пара­мет­рам точ­но­сти и каче­ства предо­став­ля­е­мой информации.

Государственный сектор

И модель­ный ряд

Парал­лель­но анон­си­ро­ва­но внед­ре­ние GPT-5 в рабо­ту ряда феде­раль­ных служб Соеди­нен­ных Шта­тов, что под­чер­ки­ва­ет дове­рие к тех­но­ло­гии на высо­ком уровне. Для обес­пе­че­ния гиб­ко­сти раз­вер­ты­ва­ния OpenAI пред­ла­га­ет три вари­ан­та моде­ли: флаг­ман­ский GPT-5, а так­же более ком­пакт­ные вер­сии GPT-5 mini и GPT-5 nano, адап­ти­ро­ван­ные под раз­лич­ные вычис­ли­тель­ные ресур­сы и зада­чи. В ком­па­нии про­гно­зи­ру­ют экс­пан­сию моде­ли в новые, пока неоче­вид­ные сце­на­рии при­ме­не­ния в бли­жай­шие месяцы.

Рас­ту­щий энту­зи­азм по пово­ду ИИ в меди­цине сопро­вож­да­ет­ся уси­ле­ни­ем вни­ма­ния к вопро­сам без­опас­но­сти и надеж­но­сти. Ошиб­ки искус­ствен­но­го интел­лек­та в интер­пре­та­ции дан­ных или гене­ра­ции реко­мен­да­ций потен­ци­аль­но спо­соб­ны при­ве­сти к серьез­ным послед­стви­ям для здо­ро­вья паци­ен­тов. Этот факт под­чер­ки­ва­ет кри­ти­че­скую необ­хо­ди­мость посто­ян­но­го и стро­го­го экс­перт­но­го кон­тро­ля над при­ме­не­ни­ем подоб­ных моде­лей в реаль­ной кли­ни­че­ской практике.

Кон­текст теку­щих воз­мож­но­стей и огра­ни­че­ний меди­цин­ских ИИ-моде­лей про­яс­ня­ет мас­штаб­ное иссле­до­ва­ние, опуб­ли­ко­ван­ное в мар­те 2024 года груп­пой уче­ных из Австрии и Гер­ма­нии. Рабо­та посвя­ще­на ана­ли­зу при­ме­не­ния ChatGPT (вклю­чая вер­сию GPT-4) в меди­цин­ских нау­ках. Иссле­до­ва­те­ли про­ве­ли ресерч науч­ных пуб­ли­ка­ций, вышед­ших после появ­ле­ния этой боль­шой язы­ко­вой моде­ли (LLM). Основ­ные обла­сти тести­ро­ва­ния, по их дан­ным, сфо­ку­си­ро­ва­ны на меди­цин­ском обра­зо­ва­нии, кон­суль­та­тив­ной под­держ­ке, науч­ных иссле­до­ва­ни­ях и отдель­ных эта­пах кли­ни­че­ской рабо­ты: диа­гно­сти­ке, под­держ­ке при­ня­тия вра­чеб­ных реше­ний и авто­ма­ти­за­ции документооборота.

Глубокий анализ возможностей 

И рис­ков chatgpt-4

В части меди­цин­ских кон­суль­та­ций иссле­до­ва­те­ли отме­ти­ли отно­си­тель­но высо­кую точ­ность ChatGPT в онко­ло­ги­че­ской тема­ти­ке. Они пред­по­ло­жи­ли, что это может быть след­стви­ем вклю­че­ния в обу­ча­ю­щие дан­ные авто­ри­тет­ных пуб­лич­ных источ­ни­ков. Одна­ко эффек­тив­ность моде­ли в дру­гих меди­цин­ских спе­ци­а­ли­за­ци­ях тре­бу­ет даль­ней­шей, более деталь­ной оцен­ки. Общий вывод уче­ных кате­го­ри­чен: теку­щие вер­сии ChatGPT не соот­вет­ству­ют высо­ким стан­дар­там, предъ­яв­ля­е­мым к кли­ни­че­ским инстру­мен­там. Для реаль­но­го внед­ре­ния необ­хо­ди­мы спе­ци­а­ли­зи­ро­ван­ные дора­бот­ки и внед­ре­ние стан­дар­ти­зи­ро­ван­ных мето­дов оцен­ки каче­ства рабо­ты ИИ.

Авто­ры иссле­до­ва­ния ука­за­ли на фун­да­мен­таль­ную про­бле­му: суще­ству­ю­щие мето­ди­ки оцен­ки чрез­мер­но зави­сят от субъ­ек­тив­ных мне­ний экс­пер­тов. Им не хва­та­ет объ­ек­тив­но­сти и мас­шта­би­ру­е­мо­сти. В каче­стве пер­спек­тив­но­го направ­ле­ния они видят раз­ра­бот­ку авто­ма­ти­зи­ро­ван­ных коли­че­ствен­ных мет­рик для оцен­ки реле­вант­но­сти, точ­но­сти и пол­но­ты отве­тов ИИ. Созда­ние спе­ци­а­ли­зи­ро­ван­ных, узко­про­филь­ных вер­сий ChatGPT для кон­крет­ных меди­цин­ских дис­ци­плин, про­шед­ших вали­да­цию по таким стро­гим коли­че­ствен­ным кри­те­ри­ям, рас­смат­ри­ва­ет­ся как воз­мож­ный путь к их прак­ти­че­ско­му внед­ре­нию в медицине.

Восприятие и доверие

Взгляд обще­ства и специалистов

Опро­сы обще­ствен­но­го мне­ния в США и Рос­сии выяв­ля­ют схо­жие тен­ден­ции: инте­рес к воз­мож­но­стям ИИ в меди­цине соче­та­ет­ся с выра­жен­ной насто­ро­жен­но­стью и неод­но­род­ным уров­нем доверия.

  • Дан­ные США (Центр обще­ствен­ной поли­ти­ки Аннен­бер­га): 63% аме­ри­кан­цев выра­жа­ют готов­ность пола­гать­ся на отве­ты, сге­не­ри­ро­ван­ные ИИ, при поис­ке общей меди­цин­ской инфор­ма­ции. При этом 79% респон­ден­тов регу­ляр­но исполь­зу­ют интер­нет для поис­ка све­де­ний о здоровье.
  • Дан­ные Рос­сии (MAR CONSULT): Рос­сий­ские поль­зо­ва­те­ли про­яв­ля­ют инте­рес к новым тех­но­ло­ги­ям, одна­ко отда­ют явное пред­по­чте­ние очно­му вза­и­мо­дей­ствию с вра­чом. Уро­вень недо­ве­рия к ИИ оста­ет­ся высо­ким: 46% опро­шен­ных не дове­ря­ют машин­ным алго­рит­мам в принципе.

ИИ в медицинском образовании

Опыт и опа­се­ния буду­щих врачей

Актив­ное про­ник­но­ве­ние ChatGPT в обра­зо­ва­тель­ные про­цес­сы не обо­шло сто­ро­ной и меди­цин­ские вузы. Спе­ци­а­ли­сты Сычу­ань­ско­го уни­вер­си­те­та (Китай) про­ве­ли одно из пер­вых мас­штаб­ных иссле­до­ва­ний вос­при­я­тия этой тех­но­ло­гии сту­ден­та­ми-меди­ка­ми. В опро­се при­ня­ли уча­стие 1133 буду­щих вра­ча из раз­лич­ных обра­зо­ва­тель­ных учре­жде­ний про­вин­ции Сычуань.

Резуль­та­ты пока­за­ли, что 62,9% респон­ден­тов уже исполь­зо­ва­ли ChatGPT в учеб­ных целях. Наи­бо­лее частые сце­на­рии при­ме­не­ния: поиск меди­цин­ской инфор­ма­ции (84,4%) и выпол­не­ние ака­де­ми­че­ских зада­ний по про­филь­ным дис­ци­пли­нам (60,4%). Одна­ко иссле­до­ва­ние выяви­ло и зна­чи­тель­ные опасения:

  • 76,9% сту­ден­тов обес­по­ко­е­ны риском рас­про­стра­не­ния ИИ-бота­ми недо­сто­вер­ных или неточ­ных меди­цин­ских сведений.
  • 65,4% выра­зи­ли тре­во­гу отно­си­тель­но воз­мож­но­стей нечест­но­го заим­ство­ва­ния кон­тен­та (пла­ги­а­та) при исполь­зо­ва­нии ИИ для выпол­не­ния работ.

Несмот­ря на эти опа­се­ния, более 60% участ­ни­ков опро­са заяви­ли о готов­но­сти при­ме­нять ChatGPT для реше­ния учеб­ных задач в рам­ках кли­ни­че­ской под­го­тов­ки и в целом пози­тив­но оце­ни­ли его потен­ци­ал для улуч­ше­ния меди­цин­ско­го образования.

Запуск GPT-5 зна­ме­ну­ет новый этап в эво­лю­ции боль­ших язы­ко­вых моде­лей, пред­ла­гая бес­пре­це­дент­ные воз­мож­но­сти для ана­ли­за дан­ных, под­держ­ки при­ня­тия реше­ний и опти­ми­за­ции про­цес­сов в меди­цине, фар­ма­цев­ти­ке и смеж­ных отрас­лях. Одна­ко путь к широ­кой кли­ни­че­ской инте­гра­ции ИИ сопря­жен с пре­одо­ле­ни­ем зна­чи­тель­ных вызо­вов. Иссле­до­ва­ния, подоб­ные рабо­те авст­ро-гер­ман­ской груп­пы и опро­сы обще­ствен­но­го мне­ния, чет­ко обо­зна­ча­ют барье­ры: огра­ни­чен­ная надеж­ность моде­лей в слож­ных кли­ни­че­ских сце­на­ри­ях, рис­ки “гал­лю­ци­на­ций”, про­бле­мы кон­фи­ден­ци­аль­но­сти дан­ных, отсут­ствие стан­дар­ти­зи­ро­ван­ных мето­дов оцен­ки и объ­ек­тив­ных мет­рик, а так­же сохра­ня­ю­щий­ся скеп­сис как со сто­ро­ны паци­ен­тов, так и части про­фес­си­о­наль­но­го сообщества.

Даль­ней­шее раз­ви­тие будет опре­де­лять­ся сов­мест­ны­ми уси­ли­я­ми раз­ра­бот­чи­ков ИИ, меди­цин­ских учре­жде­ний, регу­ля­тор­ных орга­нов, стра­хо­вых ком­па­ний и зако­но­да­те­лей. Успех инте­гра­ции в прак­ти­че­ское здра­во­охра­не­ние будет зави­сеть от спо­соб­но­сти отрас­ли най­ти баланс меж­ду инно­ва­ци­он­ным потен­ци­а­лом тех­но­ло­гии и без­услов­ным обес­пе­че­ни­ем без­опас­но­сти паци­ен­тов, каче­ства помо­щи и защи­ты кон­фи­ден­ци­аль­но­сти. Толь­ко ответ­ствен­ный и хоро­шо регу­ли­ру­е­мый под­ход поз­во­лит реа­ли­зо­вать транс­фор­ма­ци­он­ный потен­ци­ал искус­ствен­но­го интел­лек­та в медицине.

Похожие посты