儿基会:深度伪造性虐待即虐待

深度伪造——即利用人工智能生成或操纵、旨在制造逼真效果的图像、视频或音频——正被越来越多地用于制作涉及儿童的性化内容,其中包括通过“脱衣”技术,使用人工智能工具剥离或篡改照片中的衣物,以生成伪造的裸体或性化图像。
新证据证实了这一迅速增长的威胁的规模:联合国儿童基金会、国际终止童妓组织及国际刑警组织一项覆盖11个国家的研究显示,至少有120万名儿童透露,过去一年中他们的图像曾被篡改为色情深度伪造品。在一些国家,这相当于每25名儿童中就有1名受到影响——等同于一个普通班级中就有一名儿童。
儿童自身也深切意识到了这一风险。在一些研究覆盖的国家中,高达三分之二的儿童表示他们担心人工智能可能被用来制造虚假的色情图像或视频。各国儿童的担忧程度差异很大,这突显了迫切需要加强认识、预防和保护措施。
危害深远
儿基会指出,人们必须明确这一点:使用人工智能工具生成或篡改的儿童性化图像,属于儿童性虐待材料。深度伪造性质的虐待就是虐待,其所造成的伤害绝非虚假。
当一个儿童的图像或身份被利用时,这名儿童就直接成为了受害者。即使没有可识别的受害者,人工智能生成的儿童性虐待材料也会使对儿童的性剥削常态化,助长对这类有害内容的需求,并对执法部门识别和保护需要帮助的儿童带来重大挑战。
儿基会高度赞赏那些正在实施安全设计方法并建立有力防护措施以防止其系统被滥用的人工智能开发者的努力。
然而,当前的情况依然良莠不齐,太多人工智能模型的开发未能纳入充分的安全保障措施。当生成式人工智能工具直接嵌入社交媒体平台,且被篡改的图像得以迅速传播时,相关风险将进一步加剧。
应对行动:定罪、技术防范、阻止传播
联合国儿童基金会紧急呼吁采取以下行动,以应对这一日益严重的威胁:
• 各国政府应扩大儿童性虐待材料的定义范围,将人工智能生成的内容纳入其中,并对其制作、获取、持有和传播行为予以刑事定罪。
• 人工智能开发者需采用安全设计方法并建立强有力的防护措施,防止人工智能模型被滥用。
• 数字企业应阻止人工智能生成的儿童性虐待材料传播——而非仅在侵害发生后予以删除;同时需加强内容审核机制,投资开发检测技术,确保此类材料能被立即清除——而非在受害者或其代表举报数日后才采取行动。
儿基会表示,深度伪造性虐待造成的伤害真实而紧迫。儿童等不及法律缓慢跟进。