(相关资料图)
去年开始,chatGPT、midjourney等多个热门AI生成应用的推出,把“生成式人工智能(以下简称‘AIGC’)”这个词语推到大众面前,引发了巨大关注,与此同时,一系列AIGC引发的数据、隐私等安全纷争也浮出水面。“全球文化具有多样性与创新活力,但是,加强对深层次人工智能发展的法治引领,已成为人类的共识。”今天举行的2023世界人工智能大会法治论坛上,学界和业界专家对生成式人工智能(AIGC)的数字治理开展了探讨并呼吁:有效治理亟须更多的全球共识,但在建立健全法规体制、完善治理机制、强化底线思维的同时,也不能“因噎废食”,只有给技术发展留足“创新空间”,才能更促进“科技向善”。
“自身缺陷”容易导致侵权
“未来,AIGC作为新一轮科技革命和产业变革的核心力量之一,拥有亿万级别的庞大数据,在人工智能领域具有更加出色的生存能力,也有其惊人的应用价值,但这背后,机遇和风险并存。最大的风险就是因其可能生成虚假信息等,从而引发侵权问题。当AIGC难辨真伪,让虚假信息通过短视频、图片等形式被生产出来并大面积传播,不仅会给单个的受害者造成重大损害,甚至会引发社会的不稳定。”中国人民大学一级教授、博士生导师王利明说,不同于一般的侵权,AIGC造成的侵权不具有直接的公开性,无论是侵权对象还是侵权主体很特殊,尤其是后者常具有复杂性和多元性,它可能是服务提供者收集接入了“有问题”信息,可能是用户在交流过程中通过恶意提问使它生成虚假信息,也可能是AIGC本身的“固有缺陷”,让服务提供者和用户共同造成了侵权。
“AIGC的数字治理,需要法律作出必要的应对。这种应对,要针对侵权多样性的特点,区分不同的场景,来明确不同的主体责任。AIGC有‘固有缺陷’,受限于现有技术能力,它虽然在力图模仿人类的推演能力,但事实上还不能完全做到,并因此产生了一些错误‘意向’。这样的侵权,是难以避免和防范的。”因此,在王利明看来,预防风险的同时要兼顾鼓励创新,而不是一味地强化制裁。“一方面,从民法层面,要注重规制,另一方面,也要给技术创新留下必要的空间,这两者都很重要。”
条件成熟时有必要特别立法
2020年,深圳市腾讯计算机有限公司诉上海盈讯科技有限公司侵害著作权及不正当竞争纠纷案;2023年,美国加州3名艺术家起诉人工智能生成工具作品抄袭;2023年,短视频博主起诉AI换脸小程序侵权……这几年围绕AIGC的侵权案件层出不穷。“加强对AIGC的法治引领,已成为人类的共识。”上海市法学会会长崔亚东认为,有效的数字治理,一方面,科技创新伦理先行,要坚持以人为本科技向善,健全完善伦理道德,另一方面,法律法规是治理数字赤字的主要手段,也是保障AIGC健康有序发展的主要手段,加强数字治理需要全球共治,建立国际数字治理框架标准规范。
目前,世界各国已陆续出台有关这方面的规定和规范,比如,2023年5月,联合国发布了全球数字契约;2023年5月欧盟提出了数据法治法案,尽管它还没有通过,但引起了广泛注意;2023年4月,中国国家网信办发布了生成式人工智能管理办法征求意见稿等。王利明认为,生成式人工智能目前所造成的侵权,还没有完全超出《民法典》和《个人信息保护法》的相关规定,现行法律规则仍然可以作为处理和解决纠纷的依据,但是,“在未来条件成熟时,有必要通过特别立法进行有效应对,从而更好地预防生成式人工智能带来的各种侵权风险,有效保障民事组织的合法权益,促进人工智能产业的发展”。
国内外科技企业也正担起企业社会责任。蚂蚁集团副总裁、首席合规官李臣在他的报告中提到,面对AIGC带来的新风险和问题,企业要采取合规应对,建立全生命周期的管理监测机制。“在算法研发、风险评估、应用上线,用户使用内容发布以及应急处置等不同的阶段,从网络数据安全、算法技术安全、内容安全、用户管理落实平台责任等不同的角度去设置不同的管理措施,以降低合规风险。”
新民晚报记者 马丹