生成式人工智能传播中的偏向与规制——以ChatGPT为例 | 数字社会
导 读
ChatGPT是基于大型语言模型预训练的新型生成式人工智能。在肯定它的诞生必将进一步提升社会生产力的同时,也要预见到其在传播中的偏向问题。必须正视算法中的偏见,认识到其在应用过程中可能发生的偏向,把它们作为人工智能规制系统中的一个重要组成部分来解决。可以通过一定的规则进行规制和补偿,促进生成式人工智能产业的健康发展,使技术真正平等惠及人类。
生成式人工智能传播中的偏向与规制
——以ChatGPT为例
作者:周茂君 郭 斌
摘 要
ChatGPT的诞生标志着人类信息传播技术出现了重大突破。它凭借预训练和大模型获得了强大的“泛化能力”,可以基于上下文内容推断出最合适的答案。然而,作为基于概率推断的生成式人工智能,ChatGPT也存在着一定的缺陷。从内部推断逻辑来看,基于人类文本知识进行预训练的模型,会复刻人类社会的偏见与缺陷,在传播过程中会进一步强化偏向,忽视边缘群体。受制于外部环境的介入,ChatGPT也会受到资本力量和政治立场的影响。对于生成式人工智能的发展,要从训练数据和模型设计阶段防止偏向的发生,同时也要发挥行业力量、制度优势和用户技术素养,共同引导其健康发展。
关键词 :ChatGPT 人工智能 传播偏向 规制
ChatGPT和“文心一言”等人工智能大模型的发布,把人们的目光重新聚集在人工智能这一领域,引发了前所未有的热议。它们作为最前沿的大型语言模型(LLM),代表了人工智能在自然语言处理(NLP)上的重大突破。二者作为大语言模型,都能够以开放的方式理解和生成连贯文本内容,这就构成了与人类对话的基础。自然语言是人类互相交流所使用的语言。语言的普遍性使每个人都能使用自然语言输入计算机指令,并获得自然语言输出。相比其他的人工智能技术,ChatGPT使人们的感知更加具体,而且热度更高,甚至被认为是迈向强人工智能的重要一步[1]。尽管ChatGPT和“文心一言”作为大语言模型在技术上的突破是革命性的,但二者作为预训练模型的产物,在无监督的预训练阶段,语言模型不可避免会从大型、庞杂的语料库中学习到错误的和带有偏见的内容。这些漏洞如果不加修正地应用,必定会在生成信息的过程中出现不同程度的歧视或错误[2]。而信息作为一种观念性的存在,一旦通过不同平台、渠道或应用等进入大众传播领域,就会产生正当性问题[3]。针对GPT-3的研究发现,它生成的故事表现出了许多已知的性别刻板印象[4]。因此,随着人工智能不断发展和普及,我们不得不关注作为未来主流技术的人工智能在应用过程中容易发生的问题。
加利福尼亚大学伯克利分校计算机科学教授斯图尔特·罗素(Stuart Russell)从四个方面定义了人工智能:(1)以人的方式行事,(2)以人的方式思考,(3)理性思考,(4)理性行事[5]。当被问及以ChatGPT为代表的大规模预训练语言模型(LLM)是否从本质上将人工智能提升到一个更高的水平时,Russell坦言没有人知道这一答案,因为没人知道ChatGPT究竟知道了什么,以及它在什么意义上理解了答案?[6]
ChatGPT之所以能够如此精准地回答人们的提问,不是因为它会思考,能够理解我们所讲的内容,也不是因为它拥有了和人类一样的认知能力和思想过程,而是随着可用数据量的积累、算力的增强和算法的改进,ChatGPT可以通过概率统计精准地预测我们想要的内容,它通过大量自然语言数据训练,对人类的语言内容、形式、结构进行拆解分析,从而在一定程度上作出上下文预测,但是,其本身并没有实现对语义的理解[7]。ChatGPT是基于大型语言模型预训练的新型生成式人工智能[8],其强大的能力主要得益于具备强大自主学习能力的大语言模型[9]。预训练模型(Pre-Trained Models,简称PTMs)是ChatGPT习得知识的重要基础。这样的组合使得ChatGPT拥有了强大的“泛化能力”,让它可以在一定程度上实现不同场景下内容的变换和迁移。
预训练的思想正是来源于迁移学习(Transfer Learning)[10]。根据心理学家Judd提出的迁移的泛化理论,“迁移”是经验泛化的结果,是从特殊到一般的过程。具体来说,一个人如果具备概括自己经验的能力,就有可能实现从一种情况到另一种情况的迁移[11]。在这一点上,人类是尤为擅长的。人们可以依靠以前学习的知识来解决新问题,可以通过极少量的样本认识一个新物体。同样,在人工智能的应用过程中,经常会遇到目标任务和训练时使用的数据集不同的情况,但是处理这些任务所需的知识是一致的[12]。通过“预训练+微调”技术,可以大大提高大模型的开发效率。以自然语言处理为例,预训练在自然语言处理领域的显著优势,是训练数据可以从任何未标记的文本语料库中导出,即在预训练过程中存在无限量的训练数据。不仅在文本处理领域,在图像领域或其他跨领域的应用中,预训练模型也具有独特的优势[13]。例如图像分类、对象检测和图形分类,预训练模型在学习特征方面都表现出了巨大的潜力。
尽管人工智能可以在自然语言处理、图像处理、棋类运动等许多领域实现重要突破,但是需要明确,现阶段的人工智能还没有掌握真正的思考能力。无论计算机可以实现多么复杂的运算,如果缺乏真正的理解,就无法把所学知识从一个方面无缝衔接地应用到其他方面,从而解决更为一般性的问题[14]。诚然,不断扩大模型规模可以使人工智能看起来更为智能,投喂更多的知识可以使人工智能的回答更为可靠,但是这都无法跨越“人性的鸿沟”[15]。
虽然人工智能现阶段还无法具备真正的思考能力,但是大模型的应用和超级数据集的投喂,可以预见未来会创造出更多具有超强“泛化能力”的人工智能,同时也会出现越来越多的“黑箱”。它们会在特定领域成为推动生产力发展的工具,但是,因为其内部机制的不透明性,也会衍生出各种问题,甚至造成信任危机。没有真正理解现实世界的人工智能,仅靠深度学习对人类世界表征的预测,始终受可解释性和信任问题的困扰。所以,随着人工智能技术的不断普及,有关人工智能伦理的问题变得比以往任何时候都更加紧迫。
先天缺陷与外部环境:生成式人工智能造成传播偏向
从其内部推断逻辑来看,ChatGPT作为生成式人工智能仍是对人类思想的映射,这种自动化的内容生产在缺乏纠正的情况下,会导致内容传播的不断偏向;作为人工智能技术,ChatGPT也难免会受到资本和政治等外部环境的影响,如果没有适当规制,会造成损害用户利益或加剧社会风险等一系列问题。
(一)内在偏向:概率推断的先天缺陷
ChatGPT通过计算每个单词在给定上下文中出现的概率,来选择最合适的单词,这使其能够完美再现人类社会中的偏见与缺陷。ChatGPT的概率推断是人类思想的映射。但是,这种纯粹基于概率的推断存在先天缺陷,缺乏反思的能力,对待边缘群体不友好,甚至在传播过程中会加剧社会不公平。
1.ChatGPT能够从大量的投喂数据中捕获人类偏好
ChatGPT利用计算的普遍性和概率推断能够从大量的投喂数据中捕获人类偏好,从而实现对人类语言的深度模拟。然而,这一技术虽然取得了惊人的进步,却破坏了技术中立性的假设,曾被认为纯粹和中立的数学计算将“为人类社会带来前所未有的公平”的梦想被打碎。技术作为人类设计创造的产物,必然会内嵌一定的价值于其中,就像数字世界的权力集中于欧美国家,那么数字技术的标准、法规和产品等难免带有西方的文化偏见[16]。清华大学新闻与传播学院陈昌凤教授也提到:向数据学习的AIGC是人类社会的镜鉴,智能生成的内容中存在的问题也是对人类自身缺陷的反省[17]。对于像ChatGPT等新兴的人工智能产品把人类本身的偏见在算法中具象化,我们并不意外。需要注意的是,人工智能作为一种未来社会的基础设置,究竟会在哪些方面产生偏见?
如上所述,利用深度学习框架开发的ChatGPT其本质仍是一个黑箱,虽然它可以精准地做出预测,但是很难以人类可以理解的方式解释它是如何做出该预测的。同时,作为大语言模型,ChatGPT通过对过去的文本序列结构分析,从而获得泛化的能力。它不可避免地会延续刻板印象和社会偏见,这在大语言模型的伦理问题研究中已经被证实[18]。ChatGPT的主观设计就是以模仿人类行为为目标,对话模型很容易隐含地编码了人类对话中的潜在偏见[19]。因为人本身有形成偏见的倾向,偏见是我们对经验世界的过度简化。在这里,我们可以把偏见简单理解为对属于某个群体的人的厌恶或敌对态度,仅仅因为他属于那个群体,因此被认为具有该群体所具有的令人反感的品质[20]。这里的偏见包含了两个基本要素:参考毫无根据的判断和感情基调。因为这种偏见是内涵于我们的内心的,当ChatGPT通过分析人类编写书籍、文章、代码和互联网内容时,当我们对ChatGPT进行提示和奖惩时,都可能把自身的偏见嵌入模型之中。
在人类社会中存在的基于性别、宗教、性取向、能力和年龄等敏感特征的刻板印象,很可能具象化在算法之中,使其在黑箱的掩盖之下做出不公平的判断。即使算法本身是无偏向的,但是数据本身是带有偏见的,那么,从中推导出的规律存在偏差应该也在预料之中,因为偏见本身也是一种规律的总结。这些社会偏见被整合进计算机算法之中,就造成了算法偏差。比如,对女性的歧视会导致招聘广告更多向男性用户投放[21]。
2.ChatGPT的生成自动化存在强化偏见的可能
数量庞杂的大数据集,我们很难手动过滤,这些数据集中可能本身就包含潜在的偏见[22]或者是微妙的议程设置活动[23]。那么,经过这些数据集训练而成的人工智能在全球范围内应用时,是否存在加剧不公平或歧视的可能?当更多的决策通过算法自动化或辅助决策进行时,是否会违反公平原则,甚至是产生更多的歧视性结果。另外,因为决策过程的不透明,又会产生程序是否公平的怀疑。如果说分配公平是对人工智能决策结果的衡量,那么程序公平就是对人工智能内部过程是否公平的判断。
作为生成式人工智能的ChatGPT,在“泛化迁移”的过程中是具有排他性的。它在应用过程中可能会强化多数观点,并进一步边缘化少数观点,从而导致语言的同质化,规范的统一化,偏见的强化。前文已经解释了ChatGPT是一个“概率性语言模型”[24]。基于概率预测的自然语言模型,通过对训练数据集中大量重复的文本进行拆分、重组,从中找出回答的规律,进而预测出想要的答案。这很容易陷入一个误区,那就是把高频出现的答案等同于事实,默认普遍持有的观点即为正确答案。虽然ChatGPT是一个大语言模型,但是并不能保证多样性,作为其训练数据来源的互联网是中青年用户的聚集地,那么老年群体就会不断地被边缘化。
在一个公平的社会制度中,个人在追求工作和其他社会地位方面的成功前景,应该取决于他们的天生能力和培养这些能力的意愿,而不是他们的社会阶层或背景[25]。当越来越多的决策被托管于机器学习等人工智能技术,数字歧视问题正在变得更加严重。随着ChatGPT等生成式人工智能的应用,它们可能会导致排挤少数观点,导致边缘化人群在社会中的劣势地位进一步显著。因为ChatGPT作为复杂的人工智能技术,运维成本高,使用门槛高,自然就过滤了一部分边缘群体,它更主要的是作为核心群体的辅助工具而存在。通过其拥有的反馈循环功能,核心群体在使用过程中不断输出自身的观点与社会规范,以训练ChatGPT等人工智能模型。ChatGPT作为大语言模型本身也存在“价值锁定(value-lock)”的风险[26]。它在特定时间接受的数据训练不仅有可能排除某些群体,而且还可能会固化形成“价值观”,且这种“价值观”没有能力随着社会的发展而更新。由此一来,也会助长偏见,加剧对社会边缘群体的驯化。
(二)外在偏向:外部环境的重要影响
以ChatGPT为代表的生成式人工智能技术的突破,具有重要的商业价值和政治意义。因此,ChatGPT在应用过程中也会受到资本和政治力量的影响。
1.资本力量的介入
在信息时代到来之前,信息一直是人类社会的稀缺资源。但是,数字技术的普及,让信息变得丰富起来,注意力反而变成了稀缺资源。注意力的稀缺要求我们必须设置一定的过滤方式以剔除无用的噪声,使我们得以专注于想听到的声音。从门户网站到搜索引擎再到个性化推荐,随着信息内容的指数级增长,信息内容的过滤形式也在不断进化。
随着信息过滤形式的不断发展,也带来了广告行业的巨大变革。实时竞价把“可见性”变成了互联网平台变现的重要方式,注意力经济的到来,让无数商家和用户盲目崇拜流量,因为没有流量,就无法被“看见”。各种数字产品和服务在这种环境中不懈地竞争,“标题党”(Clickbait)为吸引和利用我们的注意力更是手段尽出,心理决策过程的研究更是成为近二十年来心理学者、营销学者、广告学者努力探索的重要方向。ChatGPT的出现,必然会促成这一方向的更大突破。因为ChatGPT采用自然语言交流,与其交互的人类因为其类人化的特征和看似“无所不知”的能力,很容易对其产生不恰当的信任和期待,甚至是依赖。有研究证明,当用户觉得聊天机器人有用时,更容易放下戒备之心。换言之,当ChatGPT能给人们带来更多的价值时,人们也乐意付出更多的个人信息,同时也会对ChatGPT更加依赖。
相比于现在基于内容匹配对应用户的分发机制,ChatGPT等大语言模型技术完全有能力大规模生成更个性化和更具吸引力的营销文案。为迎合用户心理生产更具吸引力、更具说服力的内容本身没有问题,运用得当还会有利于社会的发展。但是,更大的利益往往需要用户更为持久的注意力作为置换,拥有更多个人信息、更强大预测能力的人工智能,生成更为个性化的内容和服务,自然可以吸引用户不断地刷新、点击和滑动。
ChatGPT加持广告行业,不难想象会成为互联网广告产业的又一个重要增长点。ChatGPT作为智能聊天机器人,是人类向通用人工智能迈出的巨大一步,其在社会传播中扮演的角色越来越重要。可以预见,当其被封装为产品,大规模进入商业市场之后,极可能成为人类重要的辅助决策工具。当ChatGPT成为重要的用户终端后,“可见性”理所当然就被其所控制,受到资本影响,ChatGPT也很难客观判断,并给出相对公正的建议,甚至于有可能沦为“广告机器人”“种草机器人”。
2.政治力量的控制
人工智能技术的开发和应用还会受到政治立场的影响,因为政治立场会影响算法的目标、数据集的选择、训练过程的设计等方面。政治立场的介入可能会导致算法的结果偏向某一方向,对社会产生不利影响。美国国家情报委员会发布的《全球趋势2040:竞争更加激烈的世界》中明确提到,技术将是各个国家在未来获得优势的关键途径,尤其提到与中国的技术主导权之争,在未来将会更加激烈[27]。
首先,以ChatGPT为例,作为一款大语言模型,它的话语框架的形成依赖于其训练数据材料,不同的训练材料所得的框架应该存在语言偏差。使用不同的语言向ChatGPT提问,如当分别使用日语、俄语和英语询问日俄争议岛屿“国后岛”(Kunashir Island)究竟属于哪个国家时,其回答是不同的。当用日语询问时,得到的回答是国后岛属于日本;用俄语询问时,得到的答案是国后岛属于俄罗斯;只有当用英语询问时,ChatGPT才答出该岛的争议问题尚未解决[28]。不同的语言提问得到不同的答案,可能是因为不同语言的训练数据集有不同话语框架,政治立场也会影响训练数据集的选择。人工智能算法都需要大量的数据进行训练和学习,数据集的选择可能会受到政治立场的影响。
其次,政治立场还会影响算法训练过程的设计。ChatGPT虽然向强人工智能迈出了一大步,但其本质仍未逃脱对人类社会规律的概率推断和经验总结。所以,算法作为现实社会的简化,其本身的价值并非中立,它内嵌于复杂的社会机制之中,受多种力量的影响[29]。在人工智能的应用中,出于国家安全等角度,政治力量可能会要求它达到某些特定的目标,进行某些特殊任务,又或者限制进行某些计算等。那么,这些目标都会被写入算法的设计之中,都会直接决定算法的训练设计。
最后,政治力量也会极大地影响人工智能的应用。随着以ChatGPT为代表的聊天机器人技术的成熟,社交机器人将会以更加拟人化的身份混迹于社交平台之中,其所占比重也必定会进一步提升。ChatGPT的信息合成能力极大降低了虚假信息生产的成本,所以它具备迅速扰乱网络环境的能力。它凭借预设的话语框架、强大的自然语言生成能力和丰富的知识储备,很容易成为西方国家在文化渗透和舆论场上的“利器”。未来的人工智能时代,互联网一定会成为国与国之间的重要“战场”,人工智能技术作为未来世界的基础技术之一,必然会对未来的经济、军事和社会稳定产生重要影响。
三
内部纠偏与外部引导:生成式人工智能的规制
“科林格里奇困境”告诉我们对于技术的思考和实施控制要谨慎。“恐慌”源于未知,面对生成式人工智能这一重大技术突破带来的惊喜与恐慌,我们必须理性面对,正视它给媒介传播带来的偏向问题。
(一)内部纠偏
生成式人工智能在传播中的偏向问题是大模型内部的缺陷,所以解决这一问题要从内容生产的源头出发。这就需要对训练数据的严格把关筛选,对模型整体评估审核,对可能发生的偏向进行纠正和补偿。
1.训练数据纠偏
训练数据集的选择是大模型训练的基础,需要确保数据集的质量和多样性不存在偏见或不平衡的情况。首先,在数据集的选择时,要确保来源的多样性,从不同渠道收集训练数据,如公共数据集、社交媒体、互联网论坛、专业数据库等。其次,要保证样本种类的多样性,使其尽可能充分地代表真实世界的多样性。最后,还要保证数据的平衡性,这种平衡性对于确保人工智能不会偏向于某些方面或带有某些偏见具有重要作用。完成数据集的选择之后,还要对数据的质量进行检查,对数据进行清洗,以删除或修改数据集中存在的偏见或不平衡的数据,如删除种族歧视或性别歧视的言论。
2.模型自身纠偏
除了尽可能保证训练数据集的质量和多样性之外,对模型自身的评估和纠偏是建构生成式人工智能规制的关键,需要确保模型不会生产有问题的内容或者被心怀不轨的人利用。因此,当生成式人工智能模型被训练出来后,要首先使用无偏的评估指标对模型进行整体检测、评估。评估指标应该充分考虑生成内容的多样性、质量以及对应用户等因素,而不是仅仅关注生成的内容是否符合某个特定的标准。只有准确地发现其生成内容的问题,才能更有针对性地做出处理和修正。可以借鉴现有互联网信息管理的相关要求,设置过滤器或者编辑生成的内容,从而减少错误内容的出现。同时,我们还可以引入人工审核和修正作为辅助监督。对内容生产的过程进行再审核,将可以更为全面有效地发现和纠正模型的内容生产。人类监督者对人工智能生成的内容进行修改的过程,也是人类对人工智能不断校准的过程,这一过程可以有效提高生成式人工智能的质量。
(二)外部引导
既然技术的发展难以摆脱外部环境的影响,那么必然要营造健康的外部环境,促使生成式人工智能良性发展。统一的技术规范可以保证技术的高效、透明、可靠。政府领导下的协同治理可以保障技术的安全和用户的利益。用户的素养提升可以在更大范围内对技术进行良性监督。
1.发挥行业力量,建立统一的技术规范
我国需要建立统一的技术标准,通过制定统一的人工智能技术标准,促进技术的发展和应用,避免各个厂商和组织之间的技术壁垒,降低技术开发和应用成本。具备迁移学习能力的生成式人工智能,是可以相互操作和相互学习的,建立统一的技术规范,可以使不同的模型之间兼容性更强,从而增强人工智能协作的稳定性和可靠性。更为重要的是,人工智能技术的应用必然涉及社会利益,制定统一的标准规范,将有利于算法在一定程度上公开透明,可以有效保证数据隐私和安全,避免技术的滥用,提高社会信任度。这种规范的制定需要政府、研究机构、各行业代表共同参与其中,使算法的制定与使用更加科学和专业。此外,还要定期对人工智能的模型进行评测,以保证其准确性和可靠性,并公开评测的过程和结果,以便公众可以进行监督。
2.发挥制度优势,实现人工智能的协同治理
在网络治理的实践中,多元主体参与的协同治理模式得到广泛的认同[30]。同时,也要认识到美国提出的“自由、开放的多利益相关者治理模式”,不过是其希望凭借技术资源优势,占据全球互联网优势地位的策略而已[31]。要真正实现人工智能的多元共治,需要有清晰的治理目标,更需要多主体能通力协作,形成合力。我们的治理目标清晰明确,必须始终坚持“以人民为中心,维护人民根本利益,增进民生福祉,不断实现发展为了人民、发展依靠人民、发展成果由人民共享,让现代化建设成果更多更公平惠及全体人民”[32]。
在治理的过程中,政府的统一指导可以高效调动各方主体,有力克服多主体协调中的阻力。对于人工智能技术发展的监管,需要联合政府、企业、研究机构和民间组织多方力量,形成多元化的监督机制。多元主体在相互博弈的过程中,如果缺乏权威力量在其中沟通协调,就难以遏制各个主体争取自身利益最大化的冲动,从而大大降低监管的效率。而我国各级政府职能部门作为超然的行政主体,可以有效制衡各方力量,实现人工智能的善治。
3.发展用户能力,提高用户的技术素养
生成式人工智能能够自主生成内容,但它也有可能产生不准确、不道德甚至错误的内容,如果互联网用户没有足够的人工智能素养,就很难辨别这些内容的真实性和合法性,容易受到误导和误解。提高用户的技术素养,一方面可以提升用户对人工智能,尤其是生成式人工智能的认知和理解程度,有助于用户更好地使用该技术;在使用的过程中,也可以更好地评估其优势和不足。另一方面,生成式人工智能还处于初级阶段,还需要大量用户的测试与反馈帮助其不断进化,所以,提升用户的技术素养,还可以使用户更好地参与到人工智能的开发,为技术的进步作出更多贡献。
对于普通用户技术素养的提升,可以针对不同需求进行培训,主要是基本知识、安全意识与伦理道德的培训。通过互联网或线下讲座等形式,向广大群众普及人工智能的基本原理、应用领域、发展趋势、风险挑战等方面的知识,提高民众的人工智能素养。通过普及人工智能的使用风险,避免用户偏听偏信人工智能,从而造成不必要的损失。让用户了解人工智能的伦理道德问题,提升用户对人工智能生成内容的道德敏感性,使其在使用过程中就承担对人工智能进行监督的责任,有效防止人工智能的传播偏向。
作为现阶段最先进的人工智能,ChatGPT等大模型可能在某种程度上获取了人类的智能,但是也无需过于神化这一数字技术的突破。我们在肯定它的诞生必将进一步提升社会生产力的同时,也要预见到生成式人工智能在传播中的偏向问题。我们必须正视算法中的偏见,认识到其在应用过程中可能发生的偏向,把它们作为人工智能规制系统中的一个重要组成部分来解决。人工智能的传播偏向或许难以从系统中完全消除,但可以通过一定的规则进行规制和补偿,从而促进生成式人工智能产业的健康发展,使技术真正能平等惠及人类。总之,解决生成式人工智能在媒介传播中的偏向问题,是一个复杂而长期的过程,需要政府、企业、科研机构和用户共同努力和参与。只有通过不断实践和探索,才能促进技术的可持续发展,实现人工智能技术与社会的和谐共存。
注释:
[1]喻国明,滕文强,郅慧.ChatGPT浪潮下媒介生态系统演化的再认知——基于自组织涌现范式的分析[J].新闻与写作,2023,466(04):5-14.
[2]Schuster T, Schuster R, Shah D J, et al. The limitations of stylometry for detecting machine-generated fake news[J]. Computational Linguistics, 2020, 46(02):4.
[3]顾理平.技术的工具性与人的成长性:智能技术进展中的伦理问题——以ChatGPT智能应用为例[J].传媒观察,2023(03):36-41.
[4]Lucy L, Bamman D. Gender and representation bias in GPT-3 generated stories[C]//Proceedings of the Third Workshop on Narrative Understanding. 2021:48-55.
[5]Russell S J. Artificial intelligence a modern approach[M]. Pearson Education, Inc., 2010.
[6]Stuart Russell专访:关于ChatGPT,更多数据不能带来真正的智能https://baijiahao.baidu.com/s?id=1758329667556431371&wfr=spider&for=pc.
[7]Floridi L. AI as Agency without Intelligence: On ChatGPT, large language models, and other generative models[J]. Philosophy & Technology, 2023,36(01):15.
[8]喻国明,苏健威.生成式人工智能浪潮下的传播革命与媒介生态——从ChatGPT到全面智能化时代的未来[J].新疆师范大学学报(哲学社会科学版),2023,44(05):81-90.
[9]朱光辉,王喜文.ChatGPT的运行模式、关键技术及未来图景[J].新疆师范大学学报(哲学社会科学版),2023,44(04):113-122.
[10]Zhuang F, Qi Z, Duan K, et al. A comprehensive survey on transfer learning[J]. Proceedings of the IEEE, 2020,109(01):43-76.
[11]Judd, C. H.The Relation of Special Training to General Intelligence. Educational Review[J].1908,36:28-42.
[12]Pan S J, Yang Q. A survey on transfer learning[J]. IEEE Transactions on knowledge and data engineering, 2010,22(10):1345-1359.
[13]Qiu X, Sun T, Xu Y, et al. Pre-trained models for natural language processing: A survey[J]. Science China Technological Sciences, 2020,63(10):1872-1897.
[14]Bishop J M. Artificial intelligence is stupid and causal reasoning will not fix it[J]. Frontiers in Psychology, 2021,11:2603.
[15]Thompson E. Mind in life: Biology, phenomenology, and the sciences of mind[M]. Harvard University Press, 2010.
[16]刘兴华.数字全球化时代的技术中立:幻象与现实[J].探索与争鸣,2022,398(12):34-44+210.
[17]陈昌凤,张梦.由数据决定?AIGC的价值观和伦理问题[J].新闻与写作,2023,466(04):15-23.
[18]Caliskan A, Bryson J J, Narayanan A. Semantics derived automatically from language corpora contain human-like biases[J]. Science, 2017,356(6334):183-186.
[19]Henderson P, Sinha K, Angelard-Gontier N, et al. Ethical challenges in data-driven dialogue systems[C]//Proceedings of the 2018 AAAI/ACM Conference on AI, Ethics, and Society. 2018: 123-129.
[20]Allport G W, The nature of prejudice[M]. Addison-Wesley Publishing,1954.
[21]Lambrecht A, Tucker C. Algorithmic bias? An empirical study of apparent gender-based discrimination in the display of STEM career ads[J]. Management science, 2019,65(7):2966-2981.
[22]Henry F, Tator C. Discourses of domination: Racial bias in the Canadian English-language press[M]. University of Toronto Press, 2002.
[23]Tsur O, Calacci D, Lazer D. A frame of mind: Using statistical models for detection of framing and agenda setting campaigns[C]//Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers). 2015:1629-1638.
[24]邓建国.概率与反馈:ChatGPT的智能原理与人机内容共创[J].南京社会科学,2023(03):86-94+142.
[25]Rawls J. Justice as fairness: A restatement[M]. Harvard University Press, 2001.
[26] Bender E M, Gebru T, McMillan-Major A, et al.On the dangers of stochastic parrots: Can language models be too big?[C]//Proceedings of the 2021 ACM conference on fairness, accountability, and transparency. 2021:610-623.
[27]美国国家情报委员会.Global Tends 2040:A More Contested World[R].2021:56.
[28]Zhuo T Y, Huang Y, Chen C, et al. Exploring AI ethics of ChatGPT: A diagnostic analysis[J]. arXiv preprint arXiv:2301.12867, 2023.
[29]贾开.算法可以中立吗?——“零工经济”的新可能[J].文化纵横,2021(04):117-124+159.
[30]漆亚林,王钰涵.社交机器人:数字用户的建构逻辑与智能陷阱的治理路向[J].新闻与传播研究,2022,29(09):59-71+127.
[31]杨森.中国电子治理效能何以释放——基于制度优势的分析[J].探索,2021(01):97-109.
[32]习近平.高举中国特色社会主义伟大旗帜 为全面建设社会主义现代化国家而团结奋斗:在中国共产党第二十次全国代表大会上的报告[M].北京:人民出版社,2022:27.
(▲向下滑动查看全部注释)
基金项目
国家社会科学基金项目“中国新媒体广告规制研究”(项目编号:17BXW094)。
作者简介
周茂君,武汉大学媒体发展研究中心研究员,武汉大学新闻与传播学院教授、博士生导师;
郭 斌,武汉大学新闻与传播学院博士研究生。
本文原载于《学习与实践》2024年第1期。
-end-
01 《学习与实践》2024年第1期目录及摘要02 中国式现代化的精神图景 | 马克思主义理论与实践(作者:寇东亮 覃泳钧)03 生成式人工智能的算法风险及治理基点 | 数字社会(作者:陈 兵 董思琰)04 行政包干制视角下第一书记的驻村帮扶:生成、特征及风险——基于苏北S市“挂包帮”行动的经验诠释 | 政治(作者:杜永康 张新文)05 公平竞争审查制度的实施保障机制 | 法律(作者:孙 晋 蔡倩梦)06 中国式城市现代化的测度评价、区域分异与推进方略——基于长江经济带与黄河流域的比较研究 | 经济(作者:师博 王铮)07 中华优秀传统文化的现代意义再生产——基于手工艺类非遗保护实践的考察 | 文化(作者:肖博文 孙秋云)
# 推荐栏目
(点击下方标题前往栏目阅读)
马克思主义理论与实践 |
数字社会 |
政治 |
经济 |
法律 |
公共管理 |
社会 |
文化 |
新闻与传播 |