Внед­ре­ние искус­ствен­но­го интел­лек­та в меди­ци­ну пере­хо­дит из обла­сти тео­ре­ти­че­ских иссле­до­ва­ний в прак­ти­че­скую плос­кость, ока­зы­вая вли­я­ние на все аспек­ты систе­мы здра­во­охра­не­ния — от диа­гно­сти­ки до вза­и­мо­дей­ствия с паци­ен­та­ми. Одним из наи­бо­лее зна­чи­мых эффек­тов ста­но­вит­ся изме­не­ние ком­му­ни­ка­ции меж­ду паци­ен­том и систе­мой здра­во­охра­не­ния. Соглас­но отче­ту бри­тан­ской ком­па­нии Aide Health «Укреп­ле­ние дове­рия паци­ен­тов к ИИ», паци­ен­ты демон­стри­ру­ют боль­шую готов­ность рас­кры­вать кон­фи­ден­ци­аль­ную меди­цин­скую инфор­ма­цию систе­мам искус­ствен­но­го интел­лек­та по срав­не­нию с обще­ни­ем с врачами.

Иссле­до­ва­ние, про­ве­ден­ное Инсти­ту­том кре­а­тив­ных тех­но­ло­гий Уни­вер­си­те­та Южной Кали­фор­нии, предо­став­ля­ет убе­ди­тель­ные дока­за­тель­ства. Сре­ди 239 участ­ни­ков экс­пе­ри­мен­та 26% доб­ро­воль­но сооб­щи­ли систе­ме искус­ствен­но­го интел­лек­та о том, что само­сто­я­тель­но пре­кра­ти­ли исполь­зо­ва­ние про­фи­лак­ти­че­ских инга­ля­то­ров после улуч­ше­ния само­чув­ствия. Как отме­ча­ют авто­ры иссле­до­ва­ния, подоб­ная инфор­ма­ция ред­ко рас­кры­ва­ет­ся на очных кон­суль­та­ци­ях с меди­цин­ски­ми спе­ци­а­ли­ста­ми. Пси­хо­ло­ги­че­ский меха­низм это­го явле­ния свя­зан со сни­же­ни­ем стра­ха само­рас­кры­тия при вза­и­мо­дей­ствии с ИИ — паци­ен­ты менее склон­ны скры­вать или иска­жать инфор­ма­цию, что­бы пред­стать в более выгод­ном свете.

Даль­ней­ший ана­лиз пока­зы­ва­ет, что око­ло 70% паци­ен­тов при­зна­ют­ся в ута­и­ва­нии важ­ной меди­цин­ской инфор­ма­ции при обще­нии с вра­ча­ми. Основ­ные при­чи­ны тако­го пове­де­ния вклю­ча­ют несо­гла­сие с кли­ни­че­ски­ми реко­мен­да­ци­я­ми (46%), нали­чие нелов­ких симп­то­мов или моде­лей пове­де­ния (31%), а так­же непо­ни­ма­ние инструк­ций по лече­нию (24%). Страх осуж­де­ния оста­ет­ся клю­че­вым барье­ром для постро­е­ния откры­тых отно­ше­ний меж­ду паци­ен­том и врачом.

Новый уровень доверия к ИИ

Подход адаптивной нейтральности

Тех­но­ло­гия постро­е­ния доверия

Для мак­си­маль­но­го исполь­зо­ва­ния потен­ци­а­ла ИИ в кли­ни­че­ской ком­му­ни­ка­ции в отче­те Aide Health пред­ло­жен под­ход «адап­тив­ной ней­траль­но­сти». Дан­ная мето­до­ло­гия пред­по­ла­га­ет, что искус­ствен­ный интел­лект дол­жен демон­стри­ро­вать ней­траль­ную пози­цию на эта­пе сбо­ра инфор­ма­ции, что спо­соб­ству­ет боль­шей откры­то­сти паци­ен­та, и про­яв­лять эле­мен­ты эмпа­тии при обсуж­де­нии диа­гно­за и при­ня­тии реше­ний о лече­нии, что укреп­ля­ет дове­рие к систе­ме. Такой под­ход име­ет осо­бую цен­ность в кон­тек­сте про­бле­мы диа­гно­сти­че­ских оши­бок. Непол­ная инфор­ма­ция о паци­ен­те зако­но­мер­но при­во­дит к оши­боч­ной диа­гно­сти­ке, неадек­ват­ным пла­нам лече­ния и после­ду­ю­щим осложнениям.

Развитие искусственного интеллекта 

В рос­сий­ской систе­ме здравоохранения

В Рос­сии фор­ми­ру­ет­ся нор­ма­тив­ная база для при­ме­не­ния тех­но­ло­гий искус­ствен­но­го интел­лек­та в меди­цине. По дан­ным Мин­здра­ва, на сего­дняш­ний день Рос­здрав­над­зор заре­ги­стри­ро­вал 49 меди­цин­ских изде­лий с эле­мен­та­ми искус­ствен­но­го интел­лек­та. Эти реше­ния внед­ре­ны в 85 субъ­ек­тах Рос­сий­ской Феде­ра­ции для ана­ли­за меди­цин­ских изоб­ра­же­ний и в 58 реги­о­нах — для ана­ли­за дан­ных меди­цин­ской доку­мен­та­ции. Спектр при­ме­не­ния тех­но­ло­гий искус­ствен­но­го интел­лек­та в меди­цине про­дол­жа­ет рас­ши­рять­ся, охва­ты­вая все боль­ше кли­ни­че­ских и адми­ни­стра­тив­ных задач.

Этические аспекты

И регу­ли­ро­ва­ние при­ме­не­ния ИИ

Рас­ши­ре­ние при­ме­не­ния тех­но­ло­гий искус­ствен­но­го интел­лек­та в меди­цине сопро­вож­да­ет­ся раз­ви­ти­ем нор­ма­тив­ной базы и эти­че­ских стан­дар­тов. При оцен­ке меди­цин­ских изде­лий с эле­мен­та­ми искус­ствен­но­го интел­лек­та учи­ты­ва­ет­ся слу­чай­ность выбо­ров и вари­а­тив­ность пром­тов. Наи­бо­лее эффек­тив­ным пред­став­ля­ет­ся риск-ори­ен­ти­ро­ван­ное регу­ли­ро­ва­ние, кото­рое поз­во­ля­ет оце­ни­вать тех­но­ло­гии не толь­ко по резуль­та­ту, но и по сте­пе­ни потен­ци­аль­ной опас­но­сти при их при­ме­не­нии. Несмот­ря на зна­чи­тель­ный про­гресс в раз­ви­тии тех­но­ло­гий искус­ствен­но­го интел­лек­та, их внед­ре­ние в кли­ни­че­скую прак­ти­ку стал­ки­ва­ет­ся с рядом вызо­вов. Алго­рит­ми­че­ские сме­ще­ния пред­став­ля­ют осо­бую опас­ность. Если систе­ма обу­че­на на недо­ста­точ­но репре­зен­та­тив­ных дан­ных, она может демон­стри­ро­вать пред­взя­тость к опре­де­лен­ным груп­пам пациентов.

Объ­еди­няя воз­мож­но­сти искус­ствен­но­го интел­лек­та с кли­ни­че­ским опы­том вра­чей, мож­но создать прин­ци­пи­аль­но новую пара­диг­му ока­за­ния меди­цин­ской помо­щи, в рам­ках кото­рой ува­жа­ют­ся тра­ди­ции про­шло­го, рас­ши­ря­ют­ся воз­мож­но­сти насто­я­ще­го и выстра­и­ва­ет­ся более здо­ро­вое и рав­но­прав­ное буду­щее для всех.

Похожие посты