怎样能让四类主体形成全链条的共同治理和问责?
刘晓春:如果去看数字人侵权的情况,通常会找最后那个传播端,到底谁是把这个上传的,并且在平台上传播的。但是我们也发现,如果你只找那个传播端,不去找前面服务的提供者或者生成端,甚至再往前,整个技术比如基础模型的提供者,如果不去找他们,是治标不治本,可能你把这个内容掐掉了,其他内容又源源不断产生出来。我们现在这个征求意见稿实际上是把生成数字人服务的提供者和使用者,就是使用这个服务去生成数字人这两者的责任压的最实,他们要承担所有一系列带来的法律责任。同时,对于传播平台是从传播端要求他们采取相应的措施,源头上也要求技术支持者按照跟服务提供者的约定履行他们的义务。在这个意义上,整个链条上的主体都被纳入进来,同时都要针对相应的侵权以及其他的法律责任去承担他们相应的义务。
如果要细化,哪些方面可以有进一步延展的空间?
刘晓春:我觉得一个是范围,我们叫数字人,到底什么是数字人?比如里面提到了这个数字人可能能跟人互动,这个数字人可能有自己的想法,体现出他的想法和行为。到底具备哪些才是数字人,哪些不是?边界不是那么清楚,能不能给它进一步类型化,比如说虚拟主播怎么办?数字分身怎么办?
还有涉及它的责任分配,刚才说了全链条都有责任,但是真要出了侵权的情况,到底维权的时候我们找谁是最直接的?谁的责任是最重的?这个如果能够区别一下,包括谁应该做到什么,这些具体的义务能够更具体一点,大家去维权的时候,就更清楚了。
最后,也是涉及认定标准的问题。虽然我们说侵犯了肖像权,用了别人的声音,盗了别人的脸,会承担责任,但是的确有可能会出现不是一模一样,只有60%、70%相似,那么这个时候,认定标准如果能够更加清晰一点,是很值得期待的。
传播平台对于AI技术的侵权现象是否有提前判断或阻断?
刘晓春:平台的确在传播上非常重要,我们叫它“守门人”,如果平台不对它进行传播的话,那些损害都是可控的。在这个意义上,我们也意识到,现在各种使用数字人也好,或者短剧也好,这种对于肖像、声音的使用跟以前的使用可能有了很大的区别。直接来说,平台要从简单比对转向动态审核,因为视频是动态的,一帧帧里面可能只有几帧会涉及侵害。平台需要开发这样的技术模型,适应技术的新变化。另外,我们也建议平台开发新的比对数据库,比如声音可能没有这个比对库,特别是对于已经出现侵权的,比如说一些名人,出现了侵权的高发情况,要事先建立一个比对库,对于上传的素材进行一些审核和对照。另一方面,我们也会承认,如果你要对所有的普通人都建一个在线的数据库,可能还是比较困难的,因为也不知道谁的会被侵权。这个时候,平台要去建立一个比较便捷的维权通道,及时地、高速地对于相应的侵害的投诉进行反馈。