В Рос­сии актив­но обсуж­да­ют зако­но­про­ект “О регу­ли­ро­ва­нии систем искус­ствен­но­го интел­лек­та”. Этот про­ект направ­лен на созда­ние чёт­ких пра­во­вых рамок для кон­тро­ля над тех­но­ло­ги­я­ми искус­ствен­но­го интел­лек­та.

Основные положения проекта закона

Доку­мент содер­жит ряд важ­ных поло­же­ний. Преж­де все­го, пред­ла­га­ет­ся опре­де­лить клю­че­вые поня­тия, каса­ю­щи­е­ся ИИ, а так­же раз­ра­бо­тать систе­му клас­си­фи­ка­ции систем искус­ствен­но­го интел­лек­та по уров­ню потен­ци­аль­ных рис­ков. Такая мера долж­на обес­пе­чить про­зрач­ность усло­вий раз­ра­бот­ки и инте­гра­ции реше­ний на осно­ве ИИ в раз­лич­ные сфе­ры эко­но­ми­ки и обще­ствен­ной жиз­ни.

Одно из глав­ных ново­вве­де­ний — обя­за­тель­ная мар­ки­ров­ка всех ИИ-систем, содер­жа­щая ука­за­ние уров­ня рис­ка. Если систе­ма при­зна­ёт­ся име­ю­щей недо­пу­сти­мый риск, её исполь­зо­ва­ние на тер­ри­то­рии РФ будет запре­ще­но. Для систем с повы­шен­ным риском, осо­бен­но при­ме­ня­е­мых в здра­во­охра­не­нии, потре­бу­ет­ся обя­за­тель­ное про­хож­де­ние госу­дар­ствен­ной реги­стра­ции и сер­ти­фи­ка­ции.

Ответственность разработчиков

Про­ект преду­смат­ри­ва­ет ответ­ствен­ность раз­ра­бот­чи­ков за ущерб, нане­сён­ный жиз­ни, здо­ро­вью или иму­ще­ству людей вслед­ствие рабо­ты ИИ-систем.

Вме­сте с тем раз­ра­бот­чи­ки осво­бож­да­ют­ся от ответ­ствен­но­сти, если они при­ня­ли все разум­ные меры предо­сто­рож­но­сти либо повре­жде­ние было вызва­но нару­ше­ни­ем пра­вил поль­зо­ва­ния самим поль­зо­ва­те­лем. Эти нор­мы ока­жут вли­я­ние на под­ход ком­па­ний к созда­нию и рас­про­стра­не­нию реше­ний на осно­ве искус­ствен­но­го интел­лек­та, посколь­ку биз­не­су при­дёт­ся уде­лить повы­шен­ное вни­ма­ние вопро­сам обес­пе­че­ния без­опас­но­сти и соот­вет­ствия уста­нов­лен­ным тре­бо­ва­ни­ям.

Искусственный интеллект под контролем

Созда­ние ясных стан­дар­тов и тре­бо­ва­ний к рабо­те ИИ повы­сит дове­рие сре­ди потре­би­те­лей. Тем не менее ком­па­ни­ям пред­сто­ит столк­нуть­ся с допол­ни­тель­ны­ми рас­хо­да­ми на сер­ти­фи­ка­цию и выпол­не­ние новых нор­ма­тив­ных обя­за­тельств.

Андрей Свин­цов, заме­сти­тель гла­вы коми­те­та Госу­дар­ствен­ной думы по инфор­ма­ци­он­ной поли­ти­ке, под­черк­нул, что уже в бли­жай­шее вре­мя пла­ни­ру­ет­ся под­го­то­вить целый ряд точеч­ных ини­ци­а­тив, регу­ли­ру­ю­щих кон­крет­ные аспек­ты рын­ка ИИ. Этот зако­но­про­ект ста­нет лишь одним из эле­мен­тов мас­штаб­ной про­грам­мы регу­ли­ро­ва­ния искус­ствен­но­го интел­лек­та в стране. Как уточ­нил Андрей Свин­цов, до кон­ца теку­ще­го года не сто­ит ждать при­ня­тия одно­го ком­плекс­но­го доку­мен­та, охва­ты­ва­ю­ще­го весь спектр вопро­сов, свя­зан­ных с дея­тель­но­стью в сфе­ре ИИ. Ско­рее все­го, сна­ча­ла появят­ся локаль­ные акты, кото­рые впо­след­ствии объ­еди­нят в еди­ный закон.

Похожие посты