高艳东:用法律法规引导AI技术向善发展 每日视讯

环球时报   2023-05-26 06:54:52


(资料图片仅供参考)

随着人工智能的发展,深度伪造技术也日益成熟,尤其是利用深度学习技术,将个人声音、身体动作、面部表情等制作成虚假内容,如AI换脸、语音模拟、体态生成等。随着机器学习能力的提升,深度伪造出来的内容越来越逼真,很多时候可以达到以假乱真的效果。例如,在包头市公安局5月8日发布的一起使用AI技术进行电信诈骗的案件中,罪犯使用AI换脸技术冒充好友行骗,骗取被害人转账430万元。在人工智能时代,如何防范深度伪造等人工智能技术的风险,亟需法律法规作出更加明确的回应。

防范人工智能技术被恶意使用,引导数字技术向善,是依法治国的题中之义。

第一,应当警惕深度伪造等技术引发的新风险。新技术的诞生总会伴随着新的风险,这是技术发展史的必然规律。汽车引发交通事故,互联网带来网络犯罪,人工智能引发智能犯罪。在美国,生成式AI引发学术欺诈等问题。可以想见,未来会有更多人工智能技术被用于犯罪。“包头AI诈骗案”只是一种人工智能技术在犯罪领域中的使用,而且已经出现“AI 换脸”的黑灰产业链,即在网络平台上提供视频定制换脸服务等。对人工智能技术可能带来的风险漏洞,法律法规需要及时跟进予以完善。

第二,应当为人工智能技术的应用设置底线。面对人工智能技术引发的风险,各国都在采取措施积极应对。拜登政府已经开始研究是否需要对人工智能工具实行检查。我国也在积极立法防范人工智能风险,4月11日,国家互联网信息办公室发布《生成式人工智能服务管理办法(征求意见稿)》,该意见稿聚焦生成式人工智能,在算法设计、训练数据选择、模型生成和优化、提供服务、生成内容、个人信息和隐私保护方面均作出限制。

法律法规应当把人工智能的风险降到可接受的程度。人工智能生成物的最主要问题是以假乱真,进而产生虚假信息或被用于诈骗。对此,可以采用“内外双标识”的方法防止人工智能生成物的误导。在用户可见层面,发布者对采用深度伪造技术的视频、语音等,应采用和广告一样的提示,设置醒目的“人工智能生成物”标识,这可以有效防止公众产生错误认识。在机器可见层面,应对人工智能生成物设置“数字水印”,即将肉眼无法识别的数字化标识信息嵌入人工智能生成的图像、音视频和视频中。无论是他人复制、再次加工还是人工智能再次读取,软件都可以将其识别为人工智能生成物,从而防止虚假生成内容干扰其他人工智能产品的深度学习并导致以讹传讹。

第三,不能夸大人工智能技术的风险程度。从人类历史发展角度看,新技术总体上是让社会变得更加安全而非更危险了。枪支的危险性远高于木棍,但工业时代的谋杀率却远远低于石器时代。美国学者斯蒂芬·平克在其著作《人性中的善良天使——暴力为什么会减少》中,介绍了人类是怎么一步步从丛林法则的群落演变成安全有序的社会。即使在战祸最深重的年代,现代西方国家的死亡率也还不到非国家形态社会平均死亡率的1/4。从大历史角度,人类发展的历程虽然有着阴魂不散的恐怖主义,但人类社会仍然是一个越来越安全的社会。技术总有风险,但先进技术让人类更加文明。

一方面,对人工智能技术应当进行包容审慎监管。防范技术风险的目的是为了更好地发展技术,切不可一味追求零风险而牺牲发展效率。互联网、大数据和人工智能等数字技术本身是中性的,数字技术既可以提高社会发展效率,也可以成为传播色情、实施电信诈骗的工具。我们不能因噎废食,法律法规否定的是恶意使用技术的行为,而不是技术本身。法律法规从不禁止新技术,更不能跑在产业发展之前预设屏障。在产业发展初期,切不可实行敏感主义立法。

另一方面,即使是风险性的技术也具有相对中立性。好人可以用枪支除暴安良,坏人也可以用枪支杀人越货。英国当年的《红旗法案》,为了防止汽车的肇事风险,规定在汽车通行时应当有人摇着红旗警示路人。其结果是,最先发明蒸汽机的英国,把汽车大国的地位拱手让给了德国和美国。数字技术亦然,法律法规在防范因技术引发的重大风险的同时,亦应坚定地鼓励技术创新,不能因为可能的风险而止步不前。

总之,人工智能的运用的确会带来新风险,但不能将“人的作恶”简单理解为“技术之恶”。法律法规应当在做好底线监管之时,推动人工智能技术成为利国利民的向善之器。(作者是浙江大学检察基础理论研究中心研究员)

最新资讯