净网—2025丨网警提醒:别把AI用错了地方!
杭州网  发布时间:2025-10-29 17:24   

风险隐患

通过类似案件看,一些AI谣言的背后已形成分工明确的灰色产业链。其具备“低成本量产”的特性,有资料显示通过AI单日最高可生成4000至7000篇虚假文章,成本仅为传统造谣的1%。AI谣言带来的风险隐患确实值得高度警惕,其风险隐患主要体现在:

一是与传统谣言相比,AI谣言因其技术特性,危害性呈指数级放大:

二是具有高仿真与强迷惑性,生成的文字、图片、音视频内容逼真,普通网民难以分辨。

三是进化与迭代能力强,AI谣言甚至能针对辟谣信息快速生成新版本进行反驳或迭代,形成“打地鼠”式的动态对抗,让治理防不胜防。

如何预防

作为信息接收者,可以通过以下方式识别潜在的AI谣言:

查源头:警惕那些没有明确作者、来源模糊或伪装成“网友投稿”“内部消息”的内容。可靠的信息通常有正规的新闻机构或官方信源背书。

看细节:对于图片和视频,仔细观察是否存在AI生成的典型痕迹,例如人物手指数量异常、光影效果不自然、视频口型与声音不同步或背景模糊扭曲等。

验逻辑:判断内容是否存在明显的事实错误或逻辑矛盾,比如时间线错乱(用未来的数据描述过去的事件)或地理信息错误。

用工具:善用权威辟谣平台进行查证,同时可以关注公安部网安局发布的相关警示信息。

(原标题:净网—2025丨网警提醒:别把AI用错了地方!)
来源:公安部网安局  作者:  编辑:管鹏伟
返回
杭州网·杭州新闻门户网站