当网络谣言遇上AI,新型乱象怎么治?
“0成本、高收益”
AI软件生成内容示意
图源:央视新闻
通过提供关键词AI软件便会自动在网络上抓取相关信息生成几百到上千字的文本配上貌似和事件具有相关性的虚假图片从而形成一段看起来信息量很大实际上子虚乌有的内容 或许你会问这样做的收益有多高能让不法分子“趋之若鹜”? 我们来算一笔账一家MCN机构在短时间内生成了大量文章最高峰一天能生成4000至7000篇最高的一条收入700元初步估算每天的收入在1万元以上而成本就是敲击键盘、批量产出几近于0 速度快、产量高且“图文并茂”“视频生动”蛊惑力极强、辨别难度陡增总的来说就是“开局一张图,剩下全靠编”
AI=“潘多拉魔盒”?
“作为AI你怎么看待AI技术被用于生产谣言?”在不同AI大模型的界面输入框输入上述这个问题
“AI们”的回答“各有千秋”
从左到右依次为ChatGPT、通义千问、
Gemini、星火大模型回答截图
Copilot回答
图源:Copilot对话截图
信誓旦旦保证版:
“作为AI,我会严格遵守
相关法律法规和道德准则
确保提供的信息真实可靠
为维护网络空间的清朗作出贡献”
……
文心一言回答
图源:文心一言对话截图
摆正立场谴责版:“作为AI,我强烈反对AI技术被用于生产谣言”……
在各自的“看法”之外“AI们”也对AI生产谣言的后果以及解决措施进行了简单分析
智能化、速成式一键生成、坐收流量可以说在AI助力下那些深谙炒作的不法分子已然打开了谣言传播的“潘多拉魔盒”一个人就是一支谣言队伍
在具有“奇点时刻”意味的当下一切信息都可能变得亦真亦假陷入“罗生门”式的迷局人类也确实需要充分思考到底应该如何面对AI面对难以回避的AI新世纪
“魔高一尺,道高一丈”
图源:网络
面对这些风险
各国已纷纷展开行动
2023年1月
中国正式实施的
《互联网信息服务深度合成管理规定》
明确要求深度合成服务提供者
在提供智能对话、智能写作等
模拟自然人进行文本生成等
深度合成服务时
可能导致公众混淆或者误认的
应当在生成或者编辑信息内容的
合理位置、区域进行显著标识
向公众提示深度合成情况
同年8月施行的
《生成式人工智能服务管理暂行办法》
也规定提供者应当按照上述规定
对图片、视频等生成内容进行标识
并指出提供者应当依法承担
网络信息内容生产者责任
履行网络信息安全义务
一句话
AI生成内容要显著标识
提供者、平台、用户都要负责任
缺一不可
同样去年4月11日
美国商务部下属机构
国家电信和信息管理局(NTIA)
也发布《人工智能问责政策》
(RFC)征求意见稿
就人工智能审计、安全风险评估、
认证等内容征求意见
其中
对于社交媒体、生成式人工智能模型
以及搜索引擎等服务
审计和评估内容还可能涵盖
错误信息、虚假信息、
深度造假、隐私侵犯和其他相关现象
欧盟日前正式推出全球首部
《人工智能法案》
要求生成式人工智能企业
在人工智能生成内容上增加标记
与训练内容提供者分享利润
严格限制算法被运用于
非法领域和传播谣言
图源:新华社
北京嘉潍律师事务所律师赵占领则表示减少AI谣言的产生需要多方主体的协同参与
公众作为信息主体也要多留个心眼理性看待AI技术的发展既要看到AI带来的便利和机遇也要关注可能的问题和挑战避免盲目跟风传播谣言落入信息陷阱之中
点击文末“阅读原文”
进入世界互联网大会官网
✦
相关阅读
✦
撰文:雷渺鑫、马境远 编辑:李飞 排版:雷渺鑫、李汶键 统筹:李政葳
参考|央视新闻、新华社、法治网、法治周末、中国普法、澎湃新闻、长安观察
扫描二维码
关注我们
戳我~ 一键进入官网