哥大AI新闻业全景报告 | 深度直击最新进展/当前问题/破局之道
随着人工智能(AI)越来越多的应用,新闻业态也逐渐发生了变化。追溯到上世纪五十年代,“AI”便拥有多重意义,但人们普遍认为,AI的本质是一种可以执行需要人类智力的任务的计算机系统理论。但对于新闻行业来说,AI究竟意味着什么?当AI已经逐渐渗透到新闻链条的各个环节,记者编辑们需要经历怎样一场祛魅运动?技术人员在建构AI时又当知晓哪些新闻标准?
不久前,哥伦比亚大学的数字新闻中心和布朗媒体创新研究所召开了一次交流论坛,技术专家和新闻工作者于此共同探讨了有关“AI如何影响新闻编辑室,以及如何更好地适应新闻领域”的问题,比如——
记者如何利用人工智能来协助报道?
AI可以替代哪些新闻室角色?
AI在新闻业中尚未涉及的方面有哪些?
AI最终将成为每个新闻报道的一部分吗?
本期全媒派(quanmeipai)带来这次论坛的精华干货,以飨读者。
此报告中产生了七大结论——
AI工具可以帮助记者进行新型新闻报道的生产,而这在以往要么是资源上达不到,要么是在技术上无法企及。AI或许可以使新闻行业发生裂变,但这会提升新闻从业者的工作效率,而非取代人类工作。事实上,要想使AI得以恰到好处地被利用,最关键的是必须让人类劳动者处于工作链之中。
设计AI的技术工程师与使用AI的新闻从业者之间既存在知识上的鸿沟也有传播交流上的断层,而这些很可能会导致新闻业出现不合规的行为。
读者应当知晓AI被用于分析或报道新闻的一整套操作方法论。
AI和数据的交融为读者参与、变现、新闻推送定制化提供了新机会。
数据在道德范围内的使用和揭露(关于来自用户的信息是如何被收集、存储、使用、分析和分享)是新闻从业者必须面对的一个基础性问题。
在关于促进新闻工作者在处理数据工作的方面,AI被认为有较大发展前景,但是数据开放方面依然是一个需要面对的挑战。
人工智能是不可被预测的,我们没有信心去预测它最大的问题会突然出现在哪一环。对于从事技术开发的人员和新闻工作者双方来说,对AI持有警觉性是维持AI系统被控制的一个必要的条件。
接下来,文内将对上述结论进行详细探讨。
Discussion I: 新闻实验室里的AI
在我们试图将“计算”作为提升或延展新闻源选择的一种方式的同时,一个新的问题随之产生:我们该如何将这些AI工具应用至新闻编辑室中呢?AI可以对新闻编辑中的哪些环节带来好处呢?
每个新闻编辑室都有自己使用AI的独特方式,论坛与会者在论坛开始之时便被要求思考AI当前在他们所在新闻编辑室中所发挥的作用和其所带来的一系列问题。其中,NYT的交互新闻的编辑Chase Davis强调了AI技术和新闻融合的一种可持续发展的前景:帮助记者发现并报道那些之前无法“够得着”的新闻故事。
通过案例分析,AI在新闻编辑中的三个方面可以发挥较强作用:
1、“大海捞针”:很多案例显示,海量且复杂的数据信息经常会对人们的识别工作带来困扰,而AI可成为人们挖掘数据的突破性的工具。AI的此项优势非常适合应用于标准的新闻编辑流程中,因为即便AI发现了人眼无法察觉的信息,我们也可以通过调查技术手段对这些发现进行事实核查。
2、认清发展趋势:AI强大的计算能力有助于提供信息聚合体的描述,并可以对其以时间或地理为基准进行分类。同时,AI的计算能力也有助于快速识别异常数据。
3、检测AI应用/作为新闻报道主体的计算:由于算法是由人自己建立起来的,所以算法本身也存有人为偏倚,通过对它们进行检测,我们可以发觉从前未察觉到的偏倚。
我们已经注意到,有很多较前沿的新闻工作者正在着手创造一些分析方法,这些分析方法能够针对特有选题去培养计算资源。而与此同时,很多案例显示,我们已经发展出很多将新闻消息与技术相融合报道的新方式。
AI的“自治领域”:完全“自治”or 半“自治”?
AI在新闻编辑室的运用给记者能力带来了突破性的提升,记者甚至也可以充当业余数据科学家的角色了。具体来看,AI可以通过以下几种方式增强人类记者的技能——
帮助区分资料并对类别进行划分;
识别信息异常值;
帮助在海量信息中快速准确挖掘信息。
当然,让一个经验丰富且具备新闻判别能力的人类记者处于新闻工作流程中也是必要的,特别是在新闻编辑室与AI一同工作的日常工作讨论中。关于AI,有人认为存在一种“自治领域“,一种做法是“(由AI)完全自治”,在新闻生产工作环节中完全没有人类工作者的参与;而另一种做法就是AI作为人类记者的辅助性工具,在更有限的范围内进行工作。
尽管有很多语言组织良好的新闻报道是由AI依靠预测性数据模板创作而出的——例如体育简讯、企业财务简报、甚至是地震报道——但很少人认为新闻工作者会被AI算法给完全取代。AI可以帮助很多新闻从业者从大量无休止的重复性工作中解放出来,进而有更多精力投入到更多原创性报道中去。当然不可否认的是,人类新闻工作者需要对AI经手工作的流程和结果进行把控和确认。
较为出名的成功AI新闻案例包括:Los Angeles Times利用AI分类器去检测洛杉矶警察局对犯罪事件分类的准确性;The Atlanta Journal-Constitution关于医生性骚扰的调查; ProPublica则对机器如何成为种族主义者进行了说明 ;NYT利用AI对美选金融数据进行了审查,并利用面部识别技术探测出出席美国总统特朗普就职典礼的观众身份等。
由于这些突破性进展和AI自带的天然高效属性,新闻工作者应当在学习使用AI工具上多下些工夫。或许对于一个对AI具有热情的新闻工作者来说,从GitHub上攫取一些代码示例且将其应用到新闻报道中不是一件复杂的事情,但需要说明的是,除非这个新闻工作者对如何解读每项技术的使用禁令具有较强的理解能力,否则此行为很容易催生新闻业不法行为。
当然,有的时候记者会觉得标准的新闻操作方法对AI各项操作的审查是十分奏效的,但有的时候却并非如此。许多问题亟待思考:我们可能会错过什么样的新闻报道?AI工具又有什么样的盲区?这些盲区又会随着时间的推移使一个特定主题的报道产生怎样的偏倚?
为了避免上述问题,尽管在AI产业专家、记者、编辑之间依旧存在着沟通的障碍,但AI的使用者应多接触熟悉AI工具及其局限性的研究者们;虽然一直以某种方式长时间做事情的记者和编辑可能会抗拒学习新的工具或过程,但投入时间去学习新技能和使用AI工具、数据和算法的新规则亦是必须的。
数据使用:批判性+创新性
从社交媒体到政府数据——越来越多的可用数据催生了以前不可能产生出的报道,但同时这也带来了一些缺陷。新闻工作者必须注意评定这些新型数据资料可信度,尤其是那些有AI参与处理的数据。论坛上很多参与者强调要多对数据进行批判性思考,举个例子,经常将Twitter作为社交工具的新闻工作者在使用其社会行为、思想等方面进行分析的时候,一定要尤为慎重。尽管Twitter的开发者工具和数据较容易上手,但是新闻工作者不应当只对此平台持有注意力,因为Twitter在从事政治、媒体相关工作的人群和其他人群中的受欢迎程度并不对称。
与此同时,运用先前已经存在的公共数据变得更加容易。但有人指出,有时最好的新闻是依靠之前从未存在的数据铸就的,因而记者需要走出去并挖掘属于自己的数据。这里我们不禁产生又一个疑问:为了图个便捷,我们使用现成的数据生产新闻的频率有多高?
媒体的挑战:大型新闻编辑室 vs 小型新闻编辑室
新兴的AI工具的到来使得对编辑、记者的合理化运用工具进行培训的投入成为一种必要的事情。但此举可产生高昂的成本,更不用说还有AI工具本身的成本开销。或许对于像NYT这种大型新闻机构来说这些花费算不上什么问题,但对于拥有较少资源的小规模新闻编辑室来说这着实是个艰巨的挑战。
建构AI工具或是与他人合伙去使用AI工具是新闻编辑室决策者需要面对的一个问题。一些来自大型新闻机构的参与者表示即便是拥有复杂数据资料包和自定义算法的大型队伍去建立调查性分析也需要花费数月,因而并非所有新闻机构都可以自己创作出AI工具。
对于新闻机构来说,与学术机构和研究者建立合作伙伴关系是一种在新闻编辑室里利用AI的极佳方式。但新闻实验室和学术型实验室的文化是极为不同的。有的论坛参会者指出,大学的PR部门有时会在记者寻求学术合作伙伴时刻意制造障碍。很多在新闻伦理中被普遍接纳的常规行为却不能为学术研究者所理解,同样地对于新闻从业者来说,他们有时也并不能很好地理解同行评审研究中的伦理和规范。因而,新闻实验室需要在建构关系方面投入时间,也包括去了解此类合作关系将如何帮助双方达成目标、实现共赢。
Discussion II:技术
技术是如何同新闻传播相匹配的?正如在前文中所提到的那样,AI技术越来越多的被用于协助新闻报道、内容创作、新闻传播以及受众反馈等领域。 “自动化”已经成为很多新闻编辑室吸引客户关注的重要工具,也成为对抗大型平台的重要武器,这些大型平台包括Netflix,Facebook以及Amazon。
该部分内容包括三个主要议题:
AI技术对于新闻行业发展的作用以及技术与新闻报道两者之间的关系
40 38083 40 15289 0 0 3310 0 0:00:11 0:00:04 0:00:07 3310AI技术在新闻传播的具体案例中的应用
新闻数据发展的局限性和不足。如果技术失败了,人类又将何去何从呢?
新闻的自动化和个性化
AI可以让个性化定制新闻的潜力获得了大跨步的飞跃,例如,AI可能会给文章写作带来不同的主题。打个比方,我们可以通过AI为一个特定运动员打造的一个包含有强壮、胜利和英雄作用等元素的英雄主题。
同时,自动化可以在几分钟甚至是几秒钟的时间内迅速的分析和总结大量的数据信息,有效地降低了新闻编辑者们的工作负载量。最近发展的Wibbitz(被USA Today用以创作短视频的工具)、Mews Tracer(Reuters使用的算法预测工具)和BuzzBot(Buzzfeed收集新闻信息的软件)都在说明一个事实:无论是从工业化的角度(资源利用的最大化)还是从消费者的角度(获取及时的、见解深刻的文章),AI技术和新闻编辑工作室都可以实现双赢。
但是自动化何时能够走的更远呢?
我们对于自动化新闻写作观点的改变是基于我们让AI参与到哪一类新闻的写作中去。正如一位参会者说的那样:“如果人们听到的体育新闻是AI自动写作而成的话,我不认为人们会感到失望。但是如果人们听说AI写出来的是一篇投资分析的话,那将是完全不同的另一回事了。”
自动化也能够同时让文章也满足个性化定制的口味。个性化是要求作者和编辑们根据读者的兴趣和关注来定制新闻,从而增强读者的忠诚度。但是也有人指出,太多的个性化是危险的——
个性化定制的第一个阶段是推荐文章;长期的影响则是通过Filter Bubble(指网站通过用户的搜索习惯分析,过滤内容,根据用户的喜好来筛选内容)来实现的。下一个阶段是通过NLP(自然语言processing)来确切的定制内容,使之满足用户的个性化需求,这些需求包括文章的语气,政治立场以及其他方面。就这一点来说,新闻行业变得市场化了。因此,我们需要关注在大量的个性化交织错杂下的新闻事件本身。
通过对用户行为的监测,AI工具可以帮助新闻编辑室了解读者喜欢和不喜欢的内容,最终可以有助于为读者提供个性化服务,从而提升读者的参与度和ROI(利润率),而这也是媒体或平台的最终目标。
工具的应用还可能会改变最终所要实现的目标。例如,一个目标指向其实是广告的技术也可以被用于描述公共事业的概念。再例如,一些被用来合成媒体的AI技术,被政客用来为所欲为的伪造合成内容等,这完全毁掉了媒体所应代表的真实,并且也同新闻和法律的初衷大相径庭。
寻找个性化和公共服务之间的平衡,这是新闻行业发展到数字化阶段所面临的一个关键元素。在历史上,这也曾经引起了一场关于新闻作用的冲突:新闻到底应当是商业化的、利益驱使的行为,还是为公众和社会负责?不可否认的是,许多社交媒体平台已经表明个性化定制已经愈发成为其提升关注度的重要工具,例如,Netflix上60%的租赁信息推送都是根据用户过往的浏览行为产生的。再比如说,Amazon 的成功也一定程度上来源于它提供了数据导向的个性化定制服务。
同时,自动化技术的发展可能会给新闻行业带来几种不可预见的结果。例如,在自动生成散文或者自动形成Filter Bubble 的时候所产生一点细微的差别,就会带来不同的结果。同样的,有政治倾向的个性化新闻也是危险的,新闻行业有可能因为过多的个性化而变成逐利的市场行为或者宣传行为。
个性化还会带来一个问题就是公共新闻事件的存档问题。当我们每个人见到的都是同一个新闻的不同版本时,就没有一个权威的版本可以被用来引用和留存。网络上也可以随意的更改和转移内容,这将不能随时随地的存档。因此,没法保证你所见到的新闻就是其他人见到的新闻。
当然,自动化也可以给现有的新闻增加深度。一个典型的例子就是Stakeholder Tweetback, 这是Northwestern 大学ph.D学生Miriam Boon,Andrew Briggs和Will Hicks的一个研究项目,该研究将某一特定新闻报道所产生的零散Twitter上的推文挖掘出来,并将其补充到新闻报道旁边,方便读者了解其他公众对此事件的态度。
评论系统和受众参与
NYT最近的一项举措可以说标志着我们在自动化的进程上迈出了重要的一步,它与一家位于Alphabet的名为Jisaw的技术孵化公司签署了合作协议,开发一个帮助过滤评论的新型工具。当前,NYT有14个审阅者每天可以处理12000条评论。而此过滤工具的开发使用可以让该项工作变得更高效,进而使得报纸可以发表更多的评论——评论数字由现有文章的20%增长80%。此外,这一过滤工具也可验证出那些可能改变公民价值观的有害评论。
(配图非NYT工具,供参考)
实际上,评论过滤工具的最终目的是促使媒体与读者进行更深层次的互动。但其目前仍然存在一个主要的挑战:如何建立一个能够尊重各种不同观点的公共平台。当前的读者的评论意见依然是按照读者地理位置进行划分。NYT希望通过该工具的使用,不仅能够更快的审阅更多的评论,也能够利用设置好的模型来对相似的评论分组。
所有权vs开放式算法
“机器学习存在一个‘肮脏’的小秘密”,一位参会者这样说道,“最近的并不是最好的,但不是最好的;最常用的却不是最接近权威的。”尽管最先进的机器算法趋近于专利权,但那些公共可用的开放资源搜索引擎和分析工具却发展迅速,例如Apache Lucene和Elasticsearch。
挑战和局限
任何复杂系统都会发生错误,而对于AI来说,这些错误可能导致严重的后果。这表明让人参与并严格检查AI系统的重要性。机器永远是没有责任感的,所以外部审计作为重要的参与者必不可少——
“我认为采用外部审计是个好主意,因为外审并不需要熟知内部机制。作为一个工程师,我的工作是当发现故障时解决它。我需要通过外部检查来了解需要从内部做什么,从而使机器避免再次发生故障。我需要观察内部以及将内部和外部相联系的方法。我喜欢观点的差异,因为其本身就是一种方法,也是工程中的一种方法:可能我无法解决这个问题,但是可以装个传感器在上面。”
2016年,德国的基础研究机构(foundational research institute)发表了一篇关于AI故障保护以及对AI前景看好的报告,该研究机构主要任务是识别合作及高效策略从而降低无意识状态造成的损失。该报告指出,如果AI故障保护得以实施,当控制失效时,AI造成的损失比那些没有采用故障保护措施的要小。好消息是机器永远需要人类,任何人工智能背后都需要科学家的参与。因此,计算机将执行那些被人类教授的(或者说被设定的)内容是机器学习的终极故障保护。
对于数据新闻来说,数据清理也是一大限制。清理一个资料组通常需要几周甚至数月的时间,即便AI可以帮助做这件事,但是由于法律限制,新闻业更倾向于人工处理。
Discussion III: 算法和道德
透明性和可解释性
由于AI可以在新闻编辑部负责多种类的工作,因此在解释何时、以何种方式以及在何处使用它时尤其需要仔细,如果读者尚未了解AI在新闻报道中的应用方法,那么作为记者不能想当然地将其视为已经明晰。论坛的一次讨论中提及当使用聊天机器人与读者互动的例子:如果一篇报道是由AI主导的,那么机器人应当如何向观众披露?一个报道是否真由算法所编纂?读者对于该故事如何搭建需要有多大程度的理解,以及在创造这一故事过程中的都做出了哪些选择?如果AI参与了这一过程,那么谁最终将对事实和过错负责?你将如何解释因算法导致的错误其实是由人类的原因造成的?是应当追责于人类还是算法?
如同学术研究一样,读者有权了解AI工具具体是怎么进行分析、识别模式、汇报调查结果的。新闻编辑室给予读者的这些解释应当以一种简洁易懂的非技术语言进行表达,以便于使读者理解,因为曾有研究表示如果读者在文章结尾需要阅读冗长枯燥的文字,则读者通常会选择无视这样的内容。因此许多与会者呼吁,记者应当采用简洁的叙述性文字,而不是那些学术性术语,如“机器学习”“计算机视觉”等。
参会者着重强调透明性不应局限于数据分享,一些参会者表明AI“算法”也应当公开透明。由于算法通常是保密的而且没有任何简易的解释,因而记者需要在创建算法时尽力去解释这些选择并且强调那些可能导致这些选择做出的因素。一名参会者提出了一个解决这一问题的方法,即通过调整参数及观察调整带来的后果,从而给予读者影响算法的能力。
新闻工作是需要查证的,因此从业者有两个责任:一是以一种清晰易懂的方式向读者呈现信息;二是解释信息的可信性。那么关于使用AI工具是否应该有披露的标准?举例而言,在学术环境下,研究人员需要在文章中注明所使用的方法及遵循的协议。截至目前,就记者使用AI工具尚无关于披露的最佳实践——一些已经被与会者达成共识的内容尚需正式确认,无论是以附录还是以会议记录的形式。
透明性和可解释性存在区别。透明性要求提供所涉及的源数据,并且允许人们影响这些数据,而可解释性并不需要透明性。考虑到现在正在使用的工具,问题定义中的术语词汇都是量化的,计算系统中的问题定义涉及将世界(生活经验)翻译成计算机可处理的数据和编码。记者们应当努力建构内部专家团队,力求减少对行业专家的依赖。例如,如果我们试图预测谁会赢得选举,我们包括哪些变量?变量选择如何改变预测?问题陈述是很容易的,困难在于如何将其与某种定量进行联结。
总而言之,新闻编辑室需要让人们了解AI新闻诞生的经过。
模型或人工智能系统如何工作的可见性是一个长期存在的技术问题。模型代表首先产生数据的实际机制。这组建模者对自然与输入变量如何相关的结果感兴趣。例如,在制作一个预测选举产出的模型时,我们可能会看到不同的变量(过去的选举结果,当前的投票数,对可能的投票率的估计)以及预测如何使用它们来了解美国政治过程的基础。我们用模型讲一个关于世界的故事。
可解释性使得我们考虑不确定性的基本问题,如在数据方面(选举时投票的差异或者错误如何产生?)或者在模型方面(什么情况下模型导致成功或失败,我们应当如何解释这些情况)。读者永远希望获得比你能提供的更多的确定性,因此你将如何解释当中的差距?这发生在选举过程中,媒体预测结果时,你没发现任何误差,而且数据显示一位候选人将以两位数的优势领先。
有些时候,从算法如何被设计来理解算法的行为更加容易。训练机器学习程序来进行预测涉及训练数据。很少有算法能够做出完美的预测,它们的设计者必须在各种错误中进行权衡。有些时候算法的行为是被设计的,设计者选择假阳性优于伪阴性。有些时候错误是因为没有正确的数据或者某些重要的变量缺失。有些时候错误是结构性的。模型表现力不足难以适用于研究现象——即模型的匹配性。
我们研讨会上一个组曾讨论考虑过仅以算法输出的结果来判断算法是否成功。这种方法类似于人类社会,以结论评判过程。如果和黑匣子打交道,则尽力了解结论有何共同性,但是算法对结论负责。这也给我们提供了一个比较人类和计算机程序的方法,将人类模式开放至相似的问题上。
当我们开始严谨地思考新闻编辑室里的计算问题时,我们才能有效地从先行者处学到经验。
编辑们的决定和偏倚
算法在新闻发展中的作用与日俱增,一些代表编辑做决定的算法,应当用普通人可以理解的语言来书写。正如一个参会者指出的那样,我们需要这些新闻工作者们能够了解这些模型、能够了解这些数据的集合,因为对这些模型和数据的选择是要由编辑来做出的。以聊天机器人为例,他们虽然像人一样,但是如果不能理解内容的话是没有办法进行对话的,唯一可以让聊天机器人参与讨论的方法就是构建一个关于谈话内容的模型。
没有人能够回答当AI变为盛行资源的时候,该如何将编辑的价值同AI的管理流程相结合。但不能否认的是,很大一部分问题都来源于工程师在构建计算机代码时缺少对编辑价值的理解。正如一位参会者在展示技术工业时所说的那样:“当前大量的问题对于我们工程师来说看起来是无解的,因为我们不理解更深层次的编辑的价值,所以我们没办法将他们模型化。”这的确是一个有趣的问题,AI技术工程师不需要去思考他们所构建的系统如何体现编辑的价值,因此他们所建立的系统就不能很好的潜在的目标。
另外,为了使非偏倚的概念更加复杂化,我们通常假设数据可以被打磨直至中性状态,尽管一些研究表明这并非始终可行的。尽管现在有各种各样的机器学习,但是几乎所有现在被我们用到的机器学习工具都是“被监视下的学习”。人类自己是这些模型的建造者,从这个意义上讲我们建立了一个头脑的模型,然而,机器学习的算法不能够建立这一类型的模型,更进一步来讲,目标是有因果的。然而算法不能够从任何方式上重建出目的,只能够简单的建立联系。因此,时刻清晰的了解我们的模型和算法在做些什么、并且不要将他们人格化,这就显得尤其重要了。
有道德的使用数据
AI技术能够允许新闻工作者在有限的时间内处理大量的数据信息——这虽然是一个优势也很容易转变成劣势,比如,智能手机使得追踪变的很容易。因此,数据的使用带来了一系列敏感的道德性问题:透明度、情绪化、数据分享的规范和信任问题。
如何有道德的使用数据是每一个新闻工作者都需要面对的问题。各个公司采用相同的准则来处理大量的数据,也带来了同等的收益。另外,不少的媒体平台将数据提供给新闻工作者,“我们如何才能给这些公司施加压力,让他们在保护专利和隐私的同时又能够开放数据呢?比如Twitter。”论坛上有与会者提出问题,“因为,如果这些公司不喜欢我们做的事情,他们就会拒绝我们。”新闻发布者同新闻平台之间的关系是错综复杂的,尤其当这些新闻内容有很大的不确定性而平台又扮演内容发布守门员角色的时候。
算法的本质是扮演了一个黑匣子的角色,内容从一端输入,观点从另一端就会产出,而新闻工作者需要随时保持批判的态度,无论是将这些内容用于个人研究还是对外报道。
关于AI与新闻编辑室的几项建议
报告中也针对论坛中所探讨的问题提出了几点可操作性的建议——
1、对记者编辑进行培训是非常必要的。随着AI工具进入新闻编辑室,新闻工作者需要了解如何利用这些新资源去进行新闻报道,而这不仅是顺势潮流所为,也是为了追求更高的效率。
2、在新闻工作者和技术开发者中间推行合理化使用数据方法论是一件必要的事情。现有AI工具的出现和应用,例如聊天机器人和评论系统等,都应当被视作是一次重要的机会,让我们去思考如何将编辑价值和标准应用于新型编辑技术早期阶段。
3、高昂的定制性。AI价格对于一些小型团队来说是难以负担的,因而新闻编辑室可以考虑与学术机构建立合作关系。
4、关于对AI的偏见,需要有一股联合且持续不断的力量去与之对抗,新闻工作者们必须往新闻报道中秉承“透明性”,利用人们熟悉且非技术的术语去解释AI如何被用于新闻生产中。
除了以上讨论,该报告的首席作者Mark Hansen还指出,记者在了解流派新闻的新渠道和沟通方式之外,也必须准备考虑与报道实践相关的计算工具,其核心在于将计算机智能、机器学习、统计模型、数据库引擎引入到新闻报道、写作、出版的基本操作中,迫使我们进入到一个新视野中。这也就意味着,长久以来的“新闻的本质”已经采取了新的方式去观察世界,而新闻从业者也必须学会去质疑和批评。鉴于AI需基于大量数据源,因而新闻工作者尤为需要坚守在数据缺位等AI存有盲区的地方。