查看原文
其他

用合成照片募捐,滥用AI只会伤害慈善行业 | 新京报快评

马尔文 新京报评论 2024-05-02

在AI等尚存争议的新技术面前,慈善或许应该跟进得更慢一些。
▲引发关注的AI合成图片及相关捐赠页面。图/网络平台截图
文 | 马尔文

人工智能(AI)应用再引争议。


据媒体报道,成都某慈善组织在其网络众筹募捐的页面中,使用了AI技术合成的照片,经民政部门调查核实后,随后进行了整改。


在接受媒体采访时,该慈善组织解释称,使用合成照片是为了保护受捐者隐私。但从媒体报道的诸多细节看,这一解释很难让人信服。


值得注意的是,在该募捐项目使用合成照片的场景中,合成照片与描述性文字形成了匹配对应关系。例如,一张媒体披露的截图显示,合成照片的下方有明确的详细描述文字,如“80多岁的周奶奶照顾瘫痪伴侣”等。


在合成照片没有明确标记的情况下,这种图片文字对应的呈现方式,极容易给读者制造误解。因此,这并非简单的不当使用合成照片的问题,而是存在利用合成照片对募捐者进行误导的嫌疑。


实际上,如果只是为了保护隐私,通过对真实照片进行一些技术处理也完全可以实现,而不必通过合成一个虚假人物特写的方式来进行。


因此,强烈的误导性暗示加上难以自圆其说的解释,使得公众很难不对该项募捐的真实性产生更深的怀疑。


从动机上看,提高传播效果是很多慈善募捐活动的重要元素。在慈善公益历史上,诸多成功的慈善案例也都依赖于大众传播。


例如,我国公益史上经典的“大眼睛女孩”案例,在成功打动公众的同时,也成功引发了社会对于女童助学问题的关注。


借助多种传播技术来提高慈善募捐活动的知名度,一直是很多慈善公益组织的核心运行目标。


如果对比其他公益组织、众筹平台的类似募捐项目,AI通过对经典特写照片的模仿训练生成的照片,质量明显要胜过普通人自行提供的照片。


低廉的生产成本,加上较高的图像质量,二者结合带来的传播效果提升,或许正是让该慈善组织不惜铤而走险,违背慈善真实性来使用合成照片的主要原因。


当前,通过AI对内容生产的效率与质量进行规模化提升,已经成为了很多有传播需求的个人、企业与组织广泛考虑采用的一种应用方案。


但比起商业海报、内容视频等正常应用,慈善公益应用AI作为传播效果提升工具,仍然需要极其慎重,甚至在没有形成明确规范和社会共识的当前情况下,应主动拒绝使用这一技术。


这是因为,真实性是公益慈善行业的生命线。一旦公益慈善的真实性存在任何瑕疵,不仅会引发公众质疑,还会对慈善行业乃至社会的整体公信力产生反噬作用。


慈善依托于公众互助的爱心,而公众爱心需要建立在真实基础上,其对真实性的要求,远高于普通行业。


而AI技术与虚假信息之间的关系与界限,在社会层面仍然没有得到妥善解决。因此,公众对于合成照片等新技术生成的内容始终存有较高顾虑。


换句话说,当人们看到AI生产的文章、照片、视频,都会本能地产生不真实、甚至是“被骗”的感觉。在此情况下,应用AI技术来提升慈善行业的效率,无疑是适得其反。


因此,在尚存争议的新技术面前,慈善或许应该跟进得更慢一些。在社会尚未对AI内容进行明确划分与规定之前,最好不要使用AI来生产相关素材。


如果必须使用,也应当做到全部公开透明,避免公众对AI技术本身的担忧,变成了对慈善行业的质疑,进而伤及社会公共利益。


撰稿 / 马尔文(媒体人)

编辑 / 何睿

校对 / 李立军


推荐阅读:

34岁的他,何以成为法国最年轻总理 | 京酿馆

“最恨踢假球”的李铁,何以活成了自己厌恶的人 | 新京报快评

外卖“明厨亮灶”别转眼成“黑灯瞎火”  | 新京报快评

让中西部地区涌现更多“长江学者” | 新京报快评

躲过6次整治6次巡查,长沙自建房事故教训何其沉重 | 新京报快评


点击下方公号名片,阅读更多精彩观点

继续滑动看下一个
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存