Строка навигации
ИНТЕРВЬЮ | Российский эксперт группы ООН по ИИ: регулирование не должно сдерживать инновации

В интервью Евгении Клещевой из Службы новостей ООН юрист и эксперт по регулированию подчеркнул, что участие в этом органе открывает возможность для более широкого и сбалансированного обсуждения будущего ИИ.
«Это очень важный шаг на пути создания безопасного ИИ, который будет благом для всех. Это важно делать именно на международном уровне», – отметил Незнамов.
Генеральная Ассамблея ООН утвердила состав Независимой международной научной группы по искусственному интеллекту на трехлетний срок. Незнамов был включен в числе 40 специалистов в области машинного обучения, кибербезопасности, здравоохранения, прав человека, детского развития, управления данными и других смежных дисциплин. Все члены группы работают в личном качестве, независимо от каких-либо государственных органов, частных компаний или организаций.
Основная задача группы – обобщение и анализ существующих исследований, касающихся возможностей и рисков, связанных с искусственным интеллектом. Функционирование новой структуры тесно связано с другим профильным механизмом системы ООН – Глобальным диалогом по управлению ИИ.
Законы уже есть
В интервью Службе новостей ООН Незнамов отметил, что значительная часть рисков сегодня переоценивается, в том числе из-за игнорирования уже существующих правовых механизмов. Так, многие ИИ-продукты автоматически подпадают под действующее отраслевое законодательство.
«Мы недооцениваем силу уже устоявшихся норм. Как правило, я замечал, что в четырех из пяти случаев вопросы внедрения продуктов ИИ всегда практически без проблем покрываются уже существующими правилами и нормами, – пояснил Незнамов. – Я действительно считаю, что очень многие риски, связанные с искусственным интеллектом, переоценены, потому что они рассматриваются как будто бы в безвоздушном пространстве, как будто бы нет законодательства стран мира».
Я действительно считаю, что очень многие риски, связанные с искусственным интеллектом, переоценены, потому что они рассматриваются как будто бы в безвоздушном пространстве
В то же время он признал, что в отдельных случаях требуется адаптация законодательства. Например, в правилах дорожного движения на сегодня не предусмотрено отсутствие за рулем водителя, поэтому появление беспилотных автомобилей требует их обновления.
Недооцененные угрозы
Среди недооцененных рисков эксперт выделил потенциальные угрозы, связанные с развитием общего искусственного интеллекта (AGI).
«Когда я начал заниматься искусственным интеллектом, разговор об опасностях выхода AGI из-под контроля лежал практически всегда в плоскости фантастики», – отметил Незнамов. Как юрист, он должен был просчитывать все возможные сценарии, однако многие собеседники не воспринимали такие риски серьезно и не были готовы их обсуждать. Сейчас же развитие общего ИИ является одной их главных тем дискуссий как экспертов, так и широкой общественности. При этом, по словам специалиста, «возможно, мы до сих пор не оцениваем эти риски достаточно серьезно».
Общие правила
Еще одним вызовом Незнамов назвал отсутствие единого глобального подхода к регулированию ИИ, напомнив, что даже в отношении интернета человечество так и не выработало универсальных правил. При этом необходимо более активное участие в международных дискуссиях стран Глобального Юга. Позиции развивающихся стран, по мнению российского эксперта, зачастую остаются недостаточно представленными. Важно поддерживать плюрализм мнений, в том числе голоса из всех регионов мира и на разных языках.
Незнамов подчеркнул, что задача группы ООН, в которой представлены специалисты множества дисциплин из различных стран мира, не заключается в немедленной разработке глобальных норм. Итогом работы могут стать как рекомендация по международному регулированию, так и вывод о его ненужности.
«Может быть, наоборот, окажется, что национальное законодательство уже отлично справляется», – отметил он.
Регулирование без торможения инноваций
Одним из ключевых вызовов является поиск баланса между контролем и развитием. Ситуацию осложняет скорость, с которой меняется искусственный интеллект.
«Пока ты напишешь закон, пока его примешь, пока он вступит в силу, технология может радикально измениться», – сказал Незнамов.
По словам эксперта, и чрезмерное регулирование, и полное отсутствие правил могут одинаково негативно сказаться на развитии ИИ.
Пока ты напишешь закон, пока его примешь, пока он вступит в силу, технология может радикально измениться...
В числе эффективных инструментов он назвал экспериментальные правовые режимы («цифровые песочницы»), которые позволяют быстро апробировать регулирование в обход существующих законов. Второй пример, который, по словам юриста, успешно работает в России, это «контролируемое саморегулирование».
«Например, есть Российский национальный кодекс этики ИИ. У него больше тысячи подписантов. Фактически любой, кто разрабатывает ИИ или его внедряет, подписал этот кодекс, который задал некие этические рамки того, как должна развиваться сфера при отсутствии жестких законов, – объяснил Незнамов. – Государство тоже подписало этот кодекс. В рамках документа есть некий диалог. Если мы поймем, что какая-то проблема из этики слишком жесткая, что она создает проблемы в обществе или что разработчики подписались, но не выполняют обязательства, тогда государство примет закон».
Эксперт отметил консенсус государства и разработчиков в России по поводу этических норм: частный сектор готов добровольно принимать на себя определенные ограничения.
Человекоцентричный подход
Ключевым принципом в работе Незнамова является человекоцентричность. По его словам, в общественном дискурсе часто звучит идея о замене человека технологиями.
«Это очень плохой разговор, потому что ИИ нужен для того, чтобы сделать жизнь человека лучше. Человекоцентричность подразумевает, что в центре любого разговора про ИИ всегда стоит человек», – отметил он.
Человекоцентричность подразумевает, что в центре любого разговора про ИИ всегда стоит человек
В рамках своей работы в Центре Сбербанка Незнамов и его команда оценивают влияние технологий на жизнь людей, стремясь минимизировать негативные последствия и усиливать позитивные. В деятельность группы ООН специалист по регулированию привносит междисциплинарный подход, объединяющий науку, практику и общественный взгляд, а также «осторожный технооптимизм».
«Очень важно, чтобы искусственный интеллект обязательно развивался – пускай безопасно, пускай будут рамки, но мы обязаны сделать все, чтобы технологии раскрыли свой потенциал для блага людей», – заявил он.
Первый доклад группы экспертов ожидается к июльской встрече Глобального диалога по управлению ИИ.