Строка навигации
Главный правозащитник ООН: ИИ должен развиваться на принципах инклюзивности и подотчетности

Фолькер Тюрк: Искусственный интеллект – это технологический инструмент, и он должен развиваться на основе оценки рисков. Необходимо, чтобы существовали правила, в рамках которых ИИ разрабатывается, проектируется и применяется, и именно на этом этапе следует делать упор на права человека.
Служба новостей ООН: Какие Вы видите самые серьезные риски для прав человека в условиях стремительного распространения ИИ?
Фолькер Тюрк: Существует огромная проблема неравенства. Именно поэтому я рад, что этот саммит проходит в Индии. Очень важно, чтобы такие инструменты использовались и создавались повсюду.
Есть также проблема предвзятости и дискриминации. Если данные собираются только в одной части мира или если ИИ разрабатывают исключительно мужчины, то в систему неизбежно закладывается бессознательная предвзятость. Мы считаем критически важным учет интересов уязвимых групп и меньшинств, потому что их часто исключают из процессов разработки ИИ. Речь идет об активном участии и о видении лучшего мира. Права человека дают такое видение.
Служба новостей ООН: Генеративный ИИ развивается быстрее, чем регулирование. Какие защитные меры правительства и компании должны внедрять в срочном порядке?
Фолькер Тюрк: Возьмем, к примеру, фармацевтическую отрасль: тестирование [новых препаратов] обычно длится очень долго, потому что необходимо убедиться, что все риски, связанные с новым продуктом, выявлены до его выхода на рынок.
Когда речь идет об инструментах ИИ, мы должны требовать, чтобы компании проводили оценку воздействия на права человека на этапах разработки, внедрения и продвижения продукта.
Когда речь идет об инструментах ИИ, мы должны требовать, чтобы компании проводили оценку воздействия на права человека на этапах разработки, внедрения и продвижения продукта.
Мы видим, что бюджеты некоторых компаний превышают бюджеты небольших государств. Если вы контролируете технологию не только в своей стране, но и по всему миру, вы обладаете властью. Эту власть можно использовать во благо – например, для улучшения здравоохранения, образования и устойчивого развития. Но ее можно использовать и во зло – для создания автономного летального оружия, распространения дезинформации, ненависти и агрессивной мизогинии.
Служба новостей ООН: Какие механизмы управления ИИ необходимы, чтобы предотвратить усиление предвзятости и неравенства?
Фолькер Тюрк: Мне довелось говорить с людьми, которые создают системы искусственного интеллекта. Меня поражает, что они часто имеют очень поверхностное представление о фундаментальных принципах, когда приступают к разработке. Это напоминает монстра Франкенштейна: вы создаете нечто, что с самого начала не контролируете. В итоге джин вырывается из бутылки.
Мне довелось говорить с людьми, которые создают системы искусственного интеллекта. Меня поражает, что они часто имеют очень поверхностное представление о фундаментальных принципах, когда приступают к разработке.
Если не учитывать риски и потенциальные угрозы, можно нанести огромный вред. Мы видели это в Мьянме, где в социальных сетях распространялась ненависть в отношении [представителей народности] рохинджа.
Крайне важно учитывать интересы всех групп общества, особенно женщин и молодежи, и помнить, что наше сознание развивается по-разному. Мы не хотим создавать зависимости, которые отравляют разум и душу. Нужно также понимать, насколько разрушительной может быть дезинформация: она разъедает социальную ткань, создает раскол и поляризацию, когда каждый начинает жить в своем собственном пузыре.
Мы также наблюдаем много мизогинии. Многие женщины‑политики говорят мне, что подумывают уйти из политики из-за того, с чем они сталкиваются в соцсетях.
Служба новостей ООН: Как, по Вашему мнению, будет выглядеть ответственное использование ИИ через пять лет?
Фолькер Тюрк: Я надеюсь, что мы придем к инклюзивной разработке искусственного интеллекта, где власть больше не будет сосредоточена в руках нескольких компаний в Северной Америке, а развитие ИИ будет учитывать богатство и разнообразие всех сообществ.
Я также надеюсь на инклюзивный и содержательный подход, который поможет нам решать многочисленные проблемы современного мира. Климатический кризис, доступ к здравоохранению, образование для всех – ИИ может стать потрясающим инструментом для достижения этих целей. Но если мы не предложим видение лучшего будущего, мир может стать еще более поляризованными, и войны могут окончательно выйти из-под контроля человека. И это чрезвычайно опасно.