联合国人权高专:人工智能必须以包容性、问责制和全球标准为基础

蒂尔克在新德里举行的人工智能影响力峰会上向《联合国新闻》表示,这些技术必须在人权框架下进行治理,以确保透明度、问责制和包容性。
为清晰和简洁起见,本次采访内容已做编辑。
蒂尔克:人工智能是一种技术工具,其开发必须以风险评估为基础。技术工具被用来行使权力——既可用于行善,也可能用于作恶。因此,我们必须确保它们的开发、设计和应用有一个明确的框架,这正是人权的意义所在。
联合国新闻:在当今人工智能快速扩张的背景下,您认为其带来的最大人权风险是什么?
蒂尔克:一个巨大的问题是不平等,正因如此,我非常高兴这次人工智能峰会能在印度举行。确保这些工具在世界各地都能被开发和使用,这一点至关重要。
其次,是偏见与歧视的问题。如果数据只从世界某一地区收集,如果只有男性参与人工智能的开发,那么不知不觉中偏见就会被嵌入系统。我们认为,必须关注弱势群体和少数群体,因为他们常常被排除在人工智能的发展之外。关键在于实现有意义的参与,并勾勒出一个更美好世界的愿景。而人权,正提供了这一愿景。
联合国新闻:生成式人工智能的发展速度已超越监管步伐。各国政府和企业必须紧急设立哪些防护措施?
蒂尔克:以制药行业为例:药品上市前需要经过长期测试,以确保任何潜在风险在上市前得到充分识别。同样,对于人工智能工具,我们必须要求企业在设计、推广和销售过程中进行人权影响评估。
我们注意到,长期以来,某些企业的预算甚至超过了一些较小国家的经济体量。如果你能不仅在所在国、而且在全球范围内控制技术,你就在行使权力。你可以将这种权力用于善途——希望在健康、教育和可持续发展等领域有所作为——但你也可能将其用于恶途,例如开发自动化致命武器,或传播虚假信息、仇恨言论和暴力厌女情绪。
联合国新闻:需要建立何种人工智能治理体系或规则,来防止人工智能系统加剧偏见和不平等?
蒂尔克:我曾有机会与人工智能产品的开发者和设计者交流。令我惊讶的是,他们在进入开发阶段时,往往对基本原则的了解非常肤浅。
这让我想起弗兰肯斯坦的怪物:你创造了一个最终无法控制的东西,就像把魔鬼从瓶子里放了出来。
如果不对危险和风险保持警惕,就可能引发巨大灾难。我们在缅甸就看到了这样的例子——社交媒体平台上充斥着针对罗兴亚人的仇恨言论。
因此,引入社会各阶层,特别是妇女和年轻人的视角至关重要,同时也要考虑到我们大脑发育方式的多样性。
我们不希望制造出毒害我们思想和灵魂的成瘾物。同时,我们必须认识到,虚假信息不仅会破坏社会结构,还会制造分裂和对立的社会,让每个人都生活在自己的信息茧房之中。
我们还看到大量厌女情绪的存在。许多女性政治家告诉我,由于在社交媒体上的遭遇,她们正在考虑退出政坛。
联合国新闻:五年后,您认为负责任的人工智能将呈现怎样的面貌?
蒂尔克:我希望看到的是人工智能的包容性发展——权力不再集中在北美少数几家公司手中,人工智能的发展能够立足于每个社会丰富多彩的多样性之上。
我希望看到一种包容的、有意义的、参与式的发展模式,能够帮助我们解决当今世界的诸多问题和挑战。应对气候危机、普及医疗保健、实现全民教育——人工智能可以成为帮助我们实现这些目标的强大工具。
反之,如果我们不能提出一个更美好世界的愿景,我们可能会走向更加两极分化的未来,甚至出现不再受人类控制的战争。那将是非常危险的。