查看原文
其他

智媒时代智能信息推荐算法的缺陷及正向重构

潘红霞 未来传播期刊 2023-03-26



·智能传播·



摘要:智媒时代智能信息推荐算法虽然极大提升了信息传播的覆盖面和到达率,但仍存在对其缺乏全面客观的认知,无法识别人类情感变化和需求,伦理法律层面空白等诸多缺陷,出现受众易陷入“信息茧房”掉入“过滤器泡泡”陷阱,对受众信息需求存在偏见,对受众信息隐私构成风险,公共性价值缺失等伦理失范现象和问题。智能信息推荐算法正向重构应遵循不伤害原则、以人为本原则、安全可靠原则、公平公正原则、知情同意原则、互惠互利原则、公共社会性原则,从树立科学、辩证的信息伦理观,加强伦理法律建设和监管,促进算法技术优化,算法推荐与人工编辑相结合,提高受众媒介素养等方面入手。

关键词:智媒时代;算法技术;正向重构

作者简介:潘红霞,女,副教授,硕士。(浙江传媒学院桐乡校区,浙江杭州,310018)


随着人工智能的兴起,“头雁”效应越来越凸显,传统意义上的媒体也正大步迈进智媒时代。智媒时代媒体平台成为人们获取信息的重要渠道,基于人工智能的算法技术作为其中的主要运行机制,进行着信息的聚合和传播。智能信息推荐算法给人们带来便利快捷的同时,也带来了很多问题和烦恼。比如你刚上网搜索一个商品,你的本意只是想了解一下该商品,并没有想立即购买,但算法认为你需要,就自动给你推荐该类商品的各种信息,并连续给你推荐,让人们不厌其烦。进入智媒时代,人工智能算法技术、大数据不断得到应用和提高,虽然大大提升了信息传播的覆盖面和到达率,受众对信息的喜好和需求也相应得到加强,但其发展过程中还是存在一定的缺陷,需要进行正向重构。


一、智能信息推荐算法发展现状及存在的缺陷

人工智能AI概念是在1956年的达特茅斯会议上首次提出的。人工智能的发展可谓历经千山万水,近年来随着算法技术快速发展以及大数据的广泛应用,迎来新一轮质的飞跃,令全世界瞩目。时至今日,作为一门新兴的快速发展学科,人工智能风生水起,逐步成为经济发展的强劲引擎。应该说我们迎来了最好的时代,但也考验和挑战人类应对人工智能的开发和治理能力,一系列问题和冲突值得我们关注和研究。

(一)智能信息推荐算法研究溯源及发展现状

2018年10月31日,中共中央政治局就人工智能发展现状和趋势开展集体学习时,习近平总书记指出人工智能发展过程中的伦理问题。他强调,要确保人工智能安全、可靠、可控。要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。2019年1月25日,习近平总书记在中共中央政治局就全媒体时代和媒体融合发展举行集体学习时,再次强调要全面提升技术治网能力和水平,规范数据资源利用,防范大数据等新技术带来的风险。党的十九大报告明确提出,要加快建设数字中国、网络强国和智慧社会的建设。人工智能俨然成为当下社会经济发展新的亮点和增长点。伴随人工智能与媒体的深入融合、算法技术的广泛运用推广,很多学者对智能算法技术带来的伦理困境、原因、风险以及技术使用本身特性展开多方位的有针对性的研究。张洪忠、石韦颖、韩晓乔(2018)认为人工智能改变了传播渠道的内涵,智能算法推荐模式改变了传统的传播模式同时也提出需要规制的问题。阮立、朱利安·华勒斯、沈国芳(2018)提出算法可能会创建自己的“过滤器泡泡”。仇筠茜、陈昌凤(2018)提出增进算法透明度方式有三种:I-T-O的逐步拆解、逆向工程学、可理解的透明度。赵双阁、岳梦怡(2018)认为对算法推荐的过度依赖会带来媒介伦理新的风险。蔡梦虹(2019)对人与技术的关系、媒介伦理建构等问题提出从人性层面、技术层面,以及法制层面来解决。姜野(2020)提出有必要以算法技术的迭代更新为背景,将算法的法律规制作为主要研究对象,突出当前算法呈现出的有限自主性特征,建构符合我国算法应用现状的法律规制体系。原有的这些研究很好地为智能信息推荐算法正向重构提供了基础,对以此引发的困境和解决之道带来启发。

大数据、云计算、人工智能的高速发展,已经对传统媒体的发展造成变革性的巨大影响。[1]人工智能已经与媒体深度融合,人类进入到万物皆媒、人机共生的智媒时代,从发展的历程来看,大致可以分为三个层级,第一层级是拥有开放和共享优势的互联网成为快速传播信息的载体和工具;第二层级是媒体利用互联网,增强与受众的互动交流,满足受众的个性化的信息需求和喜好;第三层级是媒体充分运用人工智能、大数据、云计算等新技术,算法技术成为新的亮点。

人工智能算法技术对信息进行自动化处理并做出相应决策。随着该项技术的日益成熟以及在媒体平台的广泛应用,它的核心就在于把合适的信息推荐给合适的人,媒体平台充当它的流量分发器。算法技术发展至今大致可以分为三大类:一是基于“受众画像”的算法推荐,也就是按内容进行推荐,这一阶段是根据受众的信息浏览历史记录,概况出受众的喜好和兴趣,也就是受众画像,再利用算法技术计算每个信息与受众画像的相似度,将相似度最高的信息推荐给受众;二是定位与受众具有相似兴趣和喜好的群体和圈子,然后给这个受众推荐这些群体和圈子喜好和偏爱的信息,这是基于协同过滤的算法推荐;三是基于热门的算法推荐,即设置一个时间窗口,统计在过去一段时期信息的点击评论量、浏览量、转发量,把关注高的热点信息推荐给受众。此外,采用加权、并串联等混合的方式融合以上算法技术向受众推荐信息。智能信息推荐算法正在悄然改变我们的生活,它不仅仅为人们的决策和行动提供信息和建议,在很多情况下还在人类的授权下代替人们进行决策和行动。相比原先的人工派发,智能信息推荐算法优势更为突出,但随着算法技术的广泛使用,越来越凸显出很多缺陷和伦理法律空白的地方。正如有学者所言,“大数据技术在彰显一种道德意义时,也面临各种伦理问题。要使大数据的文明指引保持在良性循环的正面效应上,我们就要认真对待大数据技术带来的伦理挑战”。[2]

因此,我们必须立足时代和社会的重大发展路径和轨迹,全面理性客观地对智能信息推荐算法进行价值审视,精准把握它的特性,深刻思考可能会引起和导致的困境和后果,提出合理又具有前瞻性、系统性的操作原则,以期构建更加公正公平、更具有人性化、具有公共价值性的新秩序。

(二)智能信息推荐算法存在的缺陷

1.算法技术认知层面的缺陷

智能信息推荐算法是在大数据技术的支持之下对数据、信息进行一系列的聚合、分析、预测、推荐以及传播,而正是这种对于技术的盲目崇拜和过度信任,使得受众容易被信息所奴役、控制,以致过分依赖于技术,缺乏全面客观的认知,逐渐丧失了对技术的漏洞以及技术可能会带来的不良后果的判断,进而会出现信息的异化和技术的异化。目前,对于算法技术还存在认知层面的盲区,如把“流量”作为受众认可此信息重要的关键指标,也把“流量”作为算法技术推荐信息的重要参数,这样做可能会导致其推荐的信息内容过度低俗和娱乐化。算法技术作为人工智能的应用,是一种前景非常广阔、同时又深刻改变世界的颠覆性技术,同时,它也是一种不够成熟完善,带有发展性、革命性的技术。算法技术会不会对未来人类社会秩序造成影响?算法技术有没有不可控的风险?算法技术是造福人类还是祸害人类?这些认知层面的缺陷都需要进行深入研究和跟进。

2.算法技术情感识别的缺陷

在人工智能算法技术蓬勃发展的过程中,算法技术也被称为网络神经,它可以到达各个层面的受众群体和个体,能到达每一个网络神经末梢,但算法技术缺少对人类情感层面的关注和回应的问题也随之凸显。算法技术展现出强大的数据处理能力,但同时无法识别人类的细微情感变化,人工智能算法技术本身是无法自主做出意思表示的,它没有情感和表达能力也无法识别和判断人类的情感变化。比如我们在最开始说的算法技术推荐商品给人们带来的烦恼。人们越来越依赖人工智能应用,受众隐私、情感需求能否得到客观公正公平有效对待和处理,需要在算法技术发展过程中加以攻关和克服。

3.算法技术的伦理法律缺陷

智能信息推荐算法有关伦理法律的问题也是我国人工智能发展过程中讨论的热点和焦点。由于算法技术既有本身商业机密所代表的不透明性,又因技术的专业性导致具有黑箱特质。正是由于具有不透明的黑箱特质,使得算法技术的权利和义务很难界定。目前对于算法技术伦理法律的约束仍属于后果型,重视算法技术带来的后果而忽略对其过程的约束,还停留在事后审查处置阶段,一般都是等到发现问题后再采取措施,比如说限流、删帖、下架等。另外,算法技术具有复杂性,受众很难了解算法技术背后推荐信息的依据和规则,因此对算法技术带来的数据滥用、歧视、侵犯隐私、侵犯知识产权等伦理和法律问题就很难解决。现阶段对于算法技术的法律法规还不健全,如算法技术应用所带来的各类数据的保护问题。数据属于新型的财产权,数据的归属和使用,数据的安全尤其涉及到国家安全的数据如何进行保护等问题还存在一定的缺陷,需要伦理法律层面及时做出界定。再有如媒体平台责任规定不够明晰等问题都急需加以完善。


二、智能信息推荐算法伦理失范

智能信息推荐算法这一模式被越来越多的媒体平台所运用,这一技术能从海量的信息海洋中挑选出符合受众的兴趣喜好图谱进行推荐,有着它不可比拟的技术优势,但现实使用过程中也存在很多伦理失范的地方。

(一)对受众信息需求存在偏见

施拉姆在《传播学概论》中列出一条公式来解释个人如何选择信息传播路径:可能的报酬/费力的程度=选择的或然率。按照这个公式,“可能的报酬”最大化、“费力的程度”最小化,“选择的或然率”最大化是最理想的传播路径。进入智媒时代,智能信息算法推荐让这种传播路径实现最优化。根据受众的日常浏览习惯、社交朋友圈等大数据,对受众进行智能信息推荐服务,虽然加速了信息到达率和覆盖面,能够让受众在最短的时间、花费最少的金钱和最小的精力就能获得这些信息,但也很容易出现把受众偶然随意性的行为认为是必然性的行为,这样就有可能造成对受众真正的信息需求进行错误的分类和推荐,在一定程度上反而限制了受众的选择权,形成对受众歧视、偏见性的推荐。算法技术总是会或多或少地受到个人或集体偏见的影响。程序开发人员在设计算法时,或多或少会受到个人主观偏好的影响;受众在使用媒体平台过程中也会根据自己的需求搜索设置算法应用参数。因此,算法技术在一定程度上存在设计者和受众的价值偏好。

(二)易使受众深陷“信息茧房”

智能信息推荐算法大多是在基于其对受众画像、受众行为的描绘基础上进行的。受众也往往会访问与自己的意见、想法、需求相接近的媒体平台。美国学者凯斯·桑斯坦在《信息乌托邦》中关于对“个人日报”的论述中提出“信息茧房”,他认为生活在“信息茧房”中的人们逐渐形成“回音室效应”,将自己圈定在固定的圈子里面、只根据个人兴趣爱好进行个性化阅读,从而导致其阅读面、知识面十分狭窄,限制其个人综合全面发展。[3]反观智能信息推荐算法,也是无形中给受众画了一个信息圈,试图创建一个我们每个人独特的全局信息——“过滤器泡泡”,这从根本上改变了信息传播的方式,一定程度上阻碍了人与人之间的交流。算法在为人们提供精准化、个性化的推荐服务的同时,由于局限的内容、同质化的信息,也使受众容易陷入“信息茧房”的境地,最终掉入“过滤器泡泡”的陷阱。

(三)对受众信息隐私构成风险

当下,受众对隐私安全越来越关注。信息隐私主要指个人信息的收集、存储和传播,包括社交信息隐私、医疗信息隐私和工作信息隐私等等。应该说算法技术越智能越先进,它就越需要获取、存储更多的个人数据信息。可以说,海量信息数据是算法技术发展必不可少的基础,这势必会涉及到个人隐私保护这一重要伦理问题。而当下媒体平台大多出于商业利益的驱使,获取更多的受众信息,是很多媒体平台追求的目标。加之我国对个人隐私保护方面的法律法规还不够完善,一定程度上还留有漏洞,以致受众隐私和风险难以避免。如未经受众的同意和允许,平台自行采集个人浏览和使用信息数据,并在平台之间自行进行信息交换和流转。受众的隐私悄无声息地游走在汹涌的数据泄露与买卖之中,彷佛置身于隐私“裸奔”的尴尬境地,2018年,涉及泄露一亿多名用户个人信息的Facebook隐私门事件震惊世界,引爆了广大网民对个人隐私安全隐患的担忧。另外,对数据失信、失真以及污染的治理和防范,也是智能信息推荐算法在信息保护隐私面临的伦理难题和挑战。

(四)公共性价值缺失

媒体平台更多关注的是流量而非内容本身,注重商业现实利益而非社会价值层面。媒体平台的价值指标主要以流量、信息的到达率、受众停留时间、转发评论量、活跃度等为主,在智能信息推荐算法越来越精准的当下,社会主流价值正慢慢被消解,公共性价值一定程度上存在缺失,个人的社会化发展也受到一定阻碍。正如有学者所说:“由于受到少数大公司、广告商和亿万富翁的主宰,媒介系统以唯利是图为目的在疯狂地运转,它偏离了公共机构或公共责任这个方向。”[4]受众之间的数字鸿沟也越来越显现,体现在受众对社会信息资源占有、使用、收益、分配过程中的地位、权利和机会存在明显差距;全球各国或各地区贫富之间、男女之间、受教育与未受教育的人群之间,在信息接收、信息应用等方面存在不平等和不公平。伴随算法技术的发展,信息生产端“把关人”的缺失以及算法技术推荐信息过程中监管缺位,更容易导致伦理失范问题。媒体平台和算法技术还是应承担起社会性价值的功能,有责任让受众实现信息共享,有责任让受众了解事物的全貌,有责任引导受众向舆论文明健康方向发展。


三、智能信息推荐算法正向重构

我们看到智能信息推荐算法带来的翻天覆地的变化和便利,同时也应更加清晰理性地认识到这一技术的发展带来的伦理失范问题,从原则准则层面、解决举措和路径层面进行正向重构。

(一)智能信息推荐算法需遵循的伦理原则

我们需要对智能信息推荐算法应用后果进行全方位的伦理反思,来应对人工智能信息技术的迅猛发展所带来的伦理挑战,有责任将智能信息推荐算法引入健康发展的轨道。伦理原则主要依靠人们已经形成的习惯、信念、文化的沉淀,来调整受众和社会以及受众相互间的关系,从而起到约束和调节的作用。应对智能信息推荐算法深入发展导致的伦理风险应当遵循以下伦理原则:

1.不伤害原则。不伤害原则简单地说就是不要伤害。这个不伤害他人的禁令有时也称为伦理底线。即使是不同的国家、民族所选择的不同的伦理原则,首要的就是不伤害原则。无论动机和目的如何,如果行为的结果有害,那就意味着失范和不合理,不伤害原则应该成为判别的基本依据。智能信息推荐算法在媒体平台的应用有没有对受众、对社会造成伤害,是判定它是否造成伦理失范的首要依据。

2.以人为本原则。以人为本的原则即坚持科技的发展为人类造福的伦理准则。人工智能本质还是由人类的思维和创新来主导和推动的,终极还是要为人类服务的。强化智能信息推荐算法促进人类自由全面发展、造福人类是人工智能技术存在的意义,从而产生积极的社会效应。以人为本原则还意味着人类拥有自主性,不隶属于人工智能,也不受其胁迫。在人机交互过程中,人类拥有独立的自主性和能动性。

3.安全可靠原则。安全、可靠、可控是智能信息推荐算法的伦理要求,要确保国家、社会和受众的安全,以及与此相关的政治、文化、经济等各方面的安全稳定。如果智能信息推荐算法可能会带来安全稳定的问题,那么无论它具有多大的工具性价值,都应果断停止使用。

4.公平公正原则。智能信息推荐算法在开发、使用与监管过程中都需遵循公平公正原则。开发设计者和受众需要确保享有不遭受偏见、侮辱和歧视的权利,公平公正地享有人工智能算法技术带来的便利和益处。公平公正原则还意味着算法技术必须提供有效的防范措施和救济举措,以防范数据歧视、意外伤害或者“黑箱”操作,最终造福人类。

5.知情同意原则。“同意”是受众做出意见一致的意思表示。因此前提是受众知情,然后还需同意。受众了解准确信息并了解可能会带来的后果。当下媒体平台为了获得更多的流量,对受众主体的信息进行采集和推荐,就要遵循知情同意原则。比如个人隐私保护,采集的信息在没有得到受众知情同意之前,不能擅自使用。

6.互惠互利原则。每一名受众既是媒体信息的传播者和使用者,同时也是媒体信息的提供者和生产者,受众享有智媒时代的一切权利的同时,也应承担相应的责任义务。两者间的关系是双向的,是相互交织的,权利和义务呈现出对等性。互惠互利原则集中体现了权利和义务的统一。

7.公共社会性原则。媒体平台和受众应当遵守其所在社会的公共秩序和规定,不违背当下社会的公序良俗,不违反国家的公共秩序和公共价值。随着媒体平台发展日新月异,有些行为表面上看似符合无害原则,也得到受众的许可,没有对受众的利益产生直接或者间接的伤害,甚至有可能为行为的双方带来一定的利益,但在该行为与社会公序良俗相违背时就需要用公共社会性原则加以调整和规范。

(二)智能信息推荐算法正向重构路径

1.培育科学的智能信息推荐算法的认知。智能信息推荐算法在发展过程中的风险防范需要人类对此有科学的认识和意识,以正确的认知指导相应的行为,所以认知观念和意识是先行者。人工智能算法技术无论表现得如何“像人似的”,终归是人类创造的产物,是人类在认识世界、改造世界过程中开发的人类智力和能力的延伸。无论算法技术发展到何种境地,产生什么样的影响,都不是技术自身的力量,而取决于人类的主观能动性,取决于人类如何使用技术。因此,对于智能信息推荐算法,我们需要科学、辩证地认知,形成正确的信息伦理观,积极主动防控人工智能算法技术带来的伦理风险,最大限度地造福人类。

2.加强制度伦理法律监管。斯皮内洛在《铁笼,还是乌托邦》一书中讲到:“至关重要的是在网络空间中传承卓越的人类的善和道德价值,它们是实现人类繁荣的基础。网络空间的终极管理者是道德价值而不是工程师的代码。”[5]因此,政府应该加强网络传播信息的实时监测和监管,要切实承担起信息监管的职责和使命,强化对信息的监管与伦理失范的整治,明确智能信息推荐算法应用的范围及标准。媒体平台也不能以流量论英雄,不能把单纯流量指标作为平台运营的价值追求,应在行为上保持高度自觉,不断增强责任意识,以实现智能信息推荐算法的正面导向价值。国家应加快制定信息传播、信息安全和信息产权等方面的法律法规,对信息的存管、采集、交易、传播、开放和再次利用等相关权利和义务作出明确规定。

3.建立智能信息推荐算法价值观。德国社会学家马克斯·韦伯将社会行动的合理性分为工具理性和价值理性,工具理性的核心是强调效用性和功利性,只考虑成本最小而收益最大,不在乎社会在道德、情感或者文化方面的普遍价值期待。而价值理性的核心是关注行动本身所代表的价值,追求的是更加合理而有意义的实践路径。随着5G的应用,智能信息推荐算法是大势所趋,智媒和人工智能的联合给受众带来更为丰富的媒体信息应用场景。当工具理性凌驾于价值理性之上时,建立智能信息推荐算法价值观显得尤为必要。如何实现智能信息与受众信息需求完美匹配,是算法技术层面需攻克的难关。如何进一步优化,紧密联系受众,贴近实际、贴近生活,及时为受众提供准确、客观、真实、有价值的信息,让受众在接收信息时有更好的体验,形成更具有公共社会性、人文关怀的算法技术,把社会的需求、价值、选择、判断和个人的需求、价值、选择、判断有机结合,做到个体性和公共性的统一,让受众有机会获得更多的既符合自身需求同时又体现社会主流价值的信息是当下价值理性回归的诉求。

4.算法推荐与人工编辑相结合。在算法推荐下,受众缺乏主动的调整和选择权,即使对智能推荐的信息不满意也缺乏必要的反馈沟通机制,以至于积累到一定程度对智媒平台产生反感直至弃用。因此,算法技术需进一步优化,避免造成同质化信息推荐,防止受众进入茧房状态。算法技术不能忽视受众作为人的复杂性,应从“人的传播”角度进行优化设计,综合考虑人的行为、情感等要素。此时就需要扮演人工编辑来进行适时的调整和干预,从而降低流量对算法推荐的影响,加强对符合社会性价值信息的推荐力度。目前,大多数媒体平台运用“机器”审核,对一些虚假信息、敏感信息、标题党进行拦截,但还是会有漏网之鱼。智媒平台在内容信息核实上要下真功夫,加大事先核查的力度,算法推荐与人工编辑相结合是当前形势下的有效方法。如国内算法资讯公司今日头条也大幅增加了人工审核编辑人员,加强对不良信息和虚假内容的拦截和处理。算法推荐和人工编辑相配合,可以强化人的主体性、能动性,更好地进行智能信息推荐。

5.进一步提高受众媒介素养。媒介素养是指人们面对各种媒介信息时的选择、理解、评估、质疑、创造、制作、思辨反应以及判断能力,意味着受众应学会理性客观地辨别信息的真假,要以批判性思辨性思维面对海量信息,在海量信息中坚持伦理操守,不盲目接受,做信息的主人,坚守伦理底线,拥有独立的人格。对媒体平台信息呈现出的泥沙俱下、真假并存难辨的现象,对各类非法、暴力、虚假、垃圾、庸俗信息,受众应认识到危害性,提高对这些负面信息的辨识力、判断力和免疫力。受众应主动将媒介素养视为一种能力,积极通过各个途径不断学习和提高。

总之,在人工智能、大数据广泛应用的时代,应对和解决智能信息推荐算法发展过程中的缺陷以及伦理失范和风险问题,应当进一步规范健全信息伦理法律制度,确立公共的价值准则和底线,提升受众的认知水平和媒介素养。



请上下滑动查看参考文献全文



参考文献:

[1]胡慧敏.智媒时代算法推送新闻对媒介伦理的冲击[J].东南传播,2019(7).

[2]岳瑨.大数据技术的道德意义与伦理挑战[J].马克思主义与现实,2016(5).

[3][美]凯斯·桑斯坦.信息乌托邦:众人如何生产知识[M].毕竞悦译.北京:法律出版社,2008:8.

[4][美]罗伯特·W·麦克切斯尼.富媒体穷民主:不确定时代的传播政治[M].谢岳译.北京:新华出版社,2004:173.

[5][美]理查德·斯皮内洛.铁笼,还是乌托邦[M].李伦译.北京:北京大学出版社,2007:44.

 



基金项目:本文系2018年教育部人文社会科学研究专项任务项目(高校思想政治工作)“青年学生网络道德失范行为的现状分析及纠偏路径研究”(18JDSZ1009)的研究成果。



[责任编辑:华晓红]





RCCSE中国核心学术期刊

全国百强社科学报

全国地方高校名刊

万方数据库收录期刊

中国期刊全文数据库收录期刊


未来传播 传播未来

投稿渠道:http://zjcmxyxb.paperopen.com



点击“阅读原文”可下载查看


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存