如何平衡创新和保护公众权益之间的关系
未来,从监管的角度来看,怎么来鼓励创新和保护公众的权益,在风险防控和促进发展之间去做好平衡?
刘晓春:首先,这个案例给出的底线,或者说基础的规则还是蛮好的,我们并不要求产业界给到一个百分之百没有“幻觉”的交付标准。产业是可以在这个基础之上更好地放开手脚发展。
另一方面,比如这个案例提到的是一个并不存在高风险的场景,也就是说,用户用完可能有一些不准确的信息,但是有办法通过其他的验证手段去避免。所以在这种情况之下,不属于高风险,也不属于严格的产品责任。实际上,在法律或者监管的过程当中,可能有一些场景,比如说像关系到人民生命健康的,或者关系到财产安全的,像医疗健康、金融投资,包括法律领域,其实希望人工智能能够给出更加准确的、容错率更低的回答。
在这些应用过程当中,法律实际上可以去区别基础模型和模型应用两个场景。基础模型,比如案子当中涉及的,可以更快地往前去跑一跑,不用承担那么重的责任。但是如果有应用方把人工智能的工具,比如应用到比较严格、高风险场景的时候,这个时候可能需要法律能够去给它更清晰的标准,比如说特定行业的技术标准,来预防高风险的,或者说给人民群众造成更大意义上的损失。
从法律角度 如何提前化解AI“幻觉”风险
像AI“幻觉”会是AI技术在狂飙突进当中的一个阶段性的产物,还是说会始终伴随AI技术的发展,是一个无法去改变和完全消除的技术缺陷?未来假如是第二种情况的话,那从法律的角度上,怎么样更好地去界定这个权责,能够提前去化解风险?
刘晓春:在技术的原理上看,如果技术基础的模型没有产生本质性变化的话,AI“幻觉”有可能会伴随着人工智能产业一直发展。也不是说不能完全消除,只是说如果要降低“幻觉”,也是要付出相应的成本。可能整个产业需要在某些领域投入更多的成本,去限制或者降低AI“幻觉”。
在法律上其实很重要的是识别出一些随着产业的发展,能看到的一些跟老百姓的生命安全、财产安全等根本利益相关的领域,识别出这些高风险的领域。然后针对高风险,要求产业去投入更多的资本,针对性地去降低“幻觉”。同时包括产业也需要去进行一些提示,特别在一些比较敏感的,比如大家进行情感陪伴,或者把自己很多基础的信赖放在AI上,这个时候是需要建立更清楚的责任的边界,使得产业能够去更好地降低“幻觉”带来的损害。