查看原文
其他

AI和传统Office 区别是什么?斯坦福公开课教你如何在工作中熟练运用AI,打造职场护城河

AI工作坊 AI深度研究员
2024-11-10

(关注公众号并设为🌟标,获取最新人工智能资讯和产品)

全文约14,000 字,阅读约需 30分钟

在过去二十年里,我们见证了各种技术在工作场所的广泛应用,从Office办公软件到ERP系统、CRM系统,再到像腾讯会议等等这样的远程协作平台。然而,近期兴起的人工智能技术,如ChatGPT和文心一言,似乎带来了一种全新的体验。那么,这些AI工具与我们之前接触过的技术相比,究竟有何独特之处?

在最近这场题为"AI在工作中的应用:你要具备哪些技能"的讲座中“,是由斯坦福大学管理科学教授Arvind Karunakaran主讲。他作为斯坦福工作、技术与组织中心的核心教员,以及以人为本人工智能研究所的成员。Arvind教授指出了生成式AI与传统技术工具的关键区别:预定义功能的缺失。传统的办公软件和企业系统通常带有一套明确的功能和特性,用户可以通过培训和指导来掌握这些工具的使用方法。然而,生成式AI却打破了这一模式。

以聊天机器人ChatGPT或者文心一言为例,除了基本的输入提示功能外,它几乎没有具体的预设功能。相反,其潜力和应用场景是在日常使用中被逐步发掘和定义的。这种开放性和灵活性使得生成式AI成为了一种独特的工具,其应用方式和范围远超传统软件,为工作场所带来了前所未有的可能性和挑战。



在本次网络公开课要点:

1. 技术与职场的独特性: 生成式AI与过去二十年中其他技术不同,它不依赖于预设功能,而是在使用中逐渐发现新的功能。因此,员工需要不断实验和适应这种技术,尤其是在工作中应用的场景下。

2. 技术应用与公司文化: 生成式AI的最大挑战之一是如何促进技能发展。由于生成式AI的功能不是固定的,组织需要鼓励员工通过实验和学习来发现其潜在用途。然而,员工可能会因技术威胁到他们的工作而不愿意进行实验。因此,企业需要创造一种安全的实验文化,使员工能够探索技术而不必担心犯错或丧失工作机会。

3. 案例分析: 法务行业中的生成式AI 演讲者分享了一个大型法务公司使用生成式AI的案例。公司决定采用分散的模式来实施AI技术,每个业务部门的经理都有权决定如何推广技术。结果显示,不同部门的员工对技术的使用和实验程度不同,尤其在技能发展和技术应用方面,差异显著。

4. 管理者的角色: 视频还强调了管理者在技能发展中的重要性。通过有效的激励措施和为员工提供实验时间,管理者可以促进技术的成功采纳。反之,缺乏支持的环境会导致员工对技术的不信任,并减少实验的意愿。

5. 结论与建议: 生成式AI的真正潜力在于推动技能发展,而不仅仅是提高生产力。因此,企业需要重新思考如何培养员工的技能,并在组织内部营造一种支持实验和知识共享的文化。

文稿整理

课程助理HEIDI: 今天我们公开课主题是“人工智能在工作中的应用:你要具备哪些技能”。

很高兴为大家介绍我们今天的主讲嘉宾,Arvind Karunakaran 教授。Arvind 是斯坦福大学管理科学与工程系的助理教授,他是斯坦福工作、技术与组织中心的核心教员,也是斯坦福技术创业计划的成员,并且是斯坦福大学以人为中心的人工智能研究所和数字经济实验室的教员。他的研究结合了组织理论和工作社会学,主要探讨技术变革背景下工作中的权威和责任问题。

此外,Arvind 还在斯坦福在线数字化转型项目中教授变革管理课程,内容涉及在分析与人工智能时代的再技能培训。Arvind,欢迎你,感谢你今天的到来。

教授ARVIND KARUNAKARAN: 谢谢你,Heidi。也感谢各位的参与。我非常期待今天的研讨会。正如 Heidi 提到的,我是 Arvind Karunakaran,目前在斯坦福大学任教。在加入斯坦福之前,我在麻省理工学院斯隆管理学院完成了博士学位。在此之前,我在科技行业工作了很多年,担任过多个不同的职务。总体来说,我的研究关注的是技术,尤其是新兴技术如人工智能,如何影响工作的结构,以及这对技能发展和更广泛的组织与战略有什么影响。

今天我们将讨论的主题正是这一领域,重点聚焦于人工智能,尤其是生成式人工智能(GenAI),它对技能的影响,以及作为个体和管理者,如何促进技能的发展。这是我们今天讨论的总体方向。

正如 Heidi 所提到的,如果大家有任何问题,请使用问答框提交,我们会在演讲结束后统一处理问题。当然,如果中途有问题,也可以随时提出。

1、AI技术和传统office办公区别

现在我们先进行一个热身活动,请大家通过问答框提交你们的回答。我的问题是,过去二十年中有很多类型的技术被引入工作场所,例如传统office软件、ERP 系统、CRM 系统等。我想问的是,大家认为生成式人工智能(如 ChatGPT 和 DALL-E 等平台)与之前接触过的其他技术相比,有什么独特之处吗?你们可以思考从 ERP、CRM 系统到像 Zoom 这样的远程工作平台,有什么特别的不同之处。请大家用 30 秒的时间思考一下,然后通过问答框提交你的回答。

对,生成式人工智能的独特性非常有趣。没错,它为我们提供了更快速的信息传递,具备多种用途和无限可能性。这是对的。也有关于依赖性的问题,对,这也是一个考虑的方面。它能够创造内容,而不仅仅是处理数据,这一点很重要。不过,我希望大家再思考一下,有没有什么是生成式人工智能独有的,是其他技术无法完全复制的,不仅仅是其能力,还可以从更深层次的角度思考。

垂直行业的具体应用案例,这很有见解。从我的角度来看,与过去二十年我们所见到的其他技术相比,生成式人工智能的独特性在于,过去的技术,比如远程工作工具 Zoom,或者企业资源规划(ERP)系统、CRM 系统等,这些技术都有一套预定义的功能和特性。你可以为员工和管理者提供培训,学习如何使用这些功能和特性。供应商可以提供视频,你可以观看并使用这些技术,了解它们的功能和特性。而生成式人工智能则不同,它没有一套预定义的功能,除了你可以输入提示以外,几乎没有具体的功能是预先设定的。相反,这些功能是在人们的日常工作中通过使用慢慢被发现的。

如果你想想你是如何使用 ChatGPT 或其他生成式人工智能技术的,它们并不会明确告诉你可以用来做哪些事情。


2、日常工作的AI使用

ARVIND KARUNAKARAN: 只有当你在日常工作中使用并进行使用时,才会发现它的优点和不足之处。在这个过程中,你会尝试将这项技术融入你的日常工作中。在我看来,这正是生成式人工智能(GenAI)与其他技术的一个独特之处。它没有预设的功能和特性,只有通过人们的使用和实验,才会慢慢发现这些功能。这通常是一个试错的过程。这带来了很多启示。今天我们讨论的主题是技能和技能发展,如果 GenAI 的价值只有在使用和测试中通过试错发现,那么这意味着人们必须在日常工作中不断进行使用。但是,作为一名员工,如果你看不到这种技术的价值,或认为它可能对你的工作或长期的专业知识构成威胁,你为什么要去试试呢?一些人提到了“幻觉”问题。因此,并不是所有人都会自愿在日常工作中使用和测试这些技术。此外,由于没有预设的功能和特性,作为管理者,你很难对员工进行系统的培训。你无法强制要求他们去使用。你可以为他们提供如何更好地使用提示的培训计划,或分享不同的提示策略。但除此之外,真正的发现还是要靠员工自己去摸索。这就是我们面临的一个问题。许多企业花费了大量资金购买各种 GenAI 技术的企业级许可证,例如 ChatGPT、DALL-E 等平台,但在使用方面却遇到了一些问题。人们要么不定期使用,要么即使在使用,也没有培养出一种测试和知识分享的文化。大家没有尝试去探索 GenAI 的各种可能性,这对未来会产生一些影响,接下来我会谈到这一点。

第二个重要的问题是,如何将 AI 融入到人们的日常工作中。这同样不是一个可以自上而下强制推进的过程,而是一个自下而上的过程,需要人们自己发现技术在他们工作中的作用。这也是我们今天要简要探讨的第二个问题,即对技能的影响。

最后,如果你是一名管理者,你可能会问,我们在这项技术上投入了这么多,回报率(ROI)是什么?这通常会引发关于如何衡量生产力的问题。我的观点是,我们其实是在衡量错误的东西,比如生产力的提高,而忽略了技能和技能发展的重要性。我们将在接下来的讨论中进一步探讨这个问题。

这是我们今天要考虑的第一个类别问题:如何推动 GenAI 的使用,尤其是如何促进一种使用文化,使人们真正学会使用技术并在此过程中发展新技能。这是今天的关键要点。

第二个要点是如何构建这些计划。如果你不仅仅是一名员工,而是负责管理一群人,你该如何组织这些计划?是创建一个卓越中心,还是采取去中心化的方式,或是集中管理并制定最佳实践?其实这并不显而易见,因为在每种选择中都存在不同的权衡。我们今天也会探讨这一点。

最后一个需要考虑的问题是技能发展和生产力之间的关系。这里有两个问题需要讨论:第一个是,许多员工个人正在使用 GenAI。无论你是设计师,还是使用程序员,大家都在使用这些技术。但问题是,他们很少有动力去报告他们的使用情况。你可能会变得更加高效,但并不需要向上级汇报你的效率提升。你可以做其他事情,接第二份工作,或者只是放松一下,看看 Netflix。这就引发了另一个问题:如何在组织层面捕捉个人生产力的提升?应该建立哪些激励机制和项目,鼓励人们分享他们的 GenAI 使用经验,以便组织内部形成积累的知识共享?

这是第一个问题,即从个人生产力向组织生产力的转移,如何管理这一过程。但更为重要的问题是,人们,尤其是管理者,往往会把生产力的提升与技能的提升混为一谈。仅仅因为你更快地完成了相同的任务,并不意味着你学到了新技能。事实上,你可能反而失去了技能,因为你过度依赖这项技术。

3、掌握AI技能

ARVIND KARUNAKARAN: 当你不再学习新技能时,你的技能会逐渐退化。从长远来看,个人可能会因此被淘汰。因此,我们今天也会讨论这个两难问题。如何帮助员工在完成更复杂任务的过程中提升技能,而不是仅仅更快地完成相同的任务。在这个过程中,你会更高效,而生产力的提升几乎是技能增长的副产品,而不是反过来。所以,这就是我们今天要讨论的内容。如何确保员工在这个过程中不仅仅是加快完成任务,而是能够学习新的技能,处理更复杂的工作。否则,随着时间的推移,他们反而会失去技能。我们将讨论如何避免这些陷阱。

我们今天的讨论将主要集中在技能和组织变革的角度。让我们开始吧。如果你对技能发展这个主题感兴趣,我推荐一本书,最近刚出版的《技能密码》(The Skill Code),作者是 Matt Beane。他深入讨论了生产力与技能之间的权衡,以及如何确保员工在工作的过程中学到新的技能。如果你对这个主题感兴趣,可以多了解一下。

我们今天讨论的技能发展角度是基于一个我们开发的简单框架,叫做“三视角框架”。顾名思义,“视角”是看待世界的方式。并不是说某个视角是正确的或更好的,只是看问题的不同方式。所以这三个视角分别是:第一个叫战略设计视角,第二个是权力与政治视角,第三个是文化视角。每个视角都有其基本假设和策略,并对组织层面的变革以及个人技能的提升和学习产生影响。接下来我会简要介绍一下这些内容,然后结合一些实际案例,讨论 GenAI 在企业中的应用及其在技能发展方面的挑战。最后,我们将总结今天的研讨会。

首先介绍一下“三视角框架”。第一个视角是战略设计视角。在这个视角下,组织被看作是一个信息处理机器。因此,你需要优化组织的结构,使信息在不同部门之间流通更加顺畅,人们能够理解不同部门之间的依赖关系。比如,如何构建 AI 项目,是保持集中管理还是去中心化管理,或者采用卓越网络模式,所有这些问题都属于这个视角,并涉及到不同的权衡。这个视角不仅对组织变革有影响,也会影响个人如何发展技能。

第二个视角是权力与政治视角。在这个视角下,组织被看作是一个资源争夺的舞台。人们为资源、权力和地位而竞争,而不仅仅是一个信息处理机器。因此,关于管辖权和地盘之争的问题变得尤为重要。当我讲到实际案例时,这些问题会更加清晰。在 AI 和技能发展的背景下,人们不仅仅是学习更多的技术知识,例如 ChatGPT,而是使用这些技术完成更复杂的任务。然而,如果你在组织中承担了更复杂的任务,你可能会踩到其他已经从事这些复杂工作的人的“地盘”。那么,如何管理这些权力与政治的动态?这对技能发展有很大的影响,我们也会讨论这个问题。

最后是文化视角。根据这个视角,组织被视为一种制度,强调意义、实践和非正式规范。某个组织或其内部的某个部门共享这些规范,并形成了特定的氛围,这种氛围允许人们更多地进行实验。是否对失败有更高的容忍度,或者是否对避免错误有更严格的要求,这些都是文化视角下讨论的内容。


4、 企业AI应用案例讲解

ARVIND KARUNAKARAN: 所有这些问题都与使用生成式人工智能(GenAI)学习新技能密切相关。这就是我们将要使用的三视角框架。为了让这些概念更加具体化,我们将通过一个真实案例来说明一家企业如何使用 GenAI。在过去两年里,这家公司采用了生成式人工智能。它是一家从事专利和知识产权法的企业律师事务所。他们在 ChatGPT 发布之前就已经采用了这项技术,这是一种专为法律行业设计的大型语言模型,主要由法律助理使用。

我会通过这个案例来解释我们发现的内容,以及在不同视角下的权衡问题,特别是在技能发展方面的挑战。然后,我们会从这个案例中得出一些更广泛的启示——无论你是作为一名员工还是管理者,这对你在人工智能时代如何提升技能、重新培训员工有何意义。

那么,我们就从这个案例开始吧。我之前提到,这是一家从事专利和知识产权法的企业律师事务所。该公司面临的第一个选择是,创始人和合伙人意识到人工智能正在迅速发展,生成式人工智能将会颠覆他们的行业。特别是对于企业律师事务所来说,这是一个高度依赖文档和文本的行业。他们生成大量的文件、合同和保密协议,撰写复杂的合同为客户提供服务。大部分工作都围绕这些文档展开。所以,他们知道生成式人工智能和大型语言模型即将到来。因此,他们提前采用了针对法律服务的专用大型语言模型。公司面临的第一个决策是如何实施和引入这项技术。从战略设计的角度来看,他们可以选择一个更加集中的职能模型,由某个分析与人工智能小组负责这一举措,推动技术的实施并在整个公司范围内推广。或者,他们可以选择去中心化的模式,每个业务部门或律师事务所的每个分支都可以自行决定如何引入 AI 及相关技术。这是第二种选择,各分部经理有更大的自主权。最后,他们可以选择一种咨询模式,聘请外部专家或建立一个专门的小组,专注于 GenAI,负责找到最佳实践,实施技术并培训员工和律师助理。

这三种模式各有利弊。职能模型可以确保一致的最佳实践,但你可能无法了解某个特定分部的实际需求。相对的,去中心化模式则缺乏统一性,技术使用上可能不一致,但分部经理可以根据各自的需求决定如何实施技术,以及设置激励措施。该公司最终决定采用去中心化模式,因为各个业务单元的需求差异很大。因此,每个分部经理有权决定如何引入这项技术,这种技术叫做 LawBoard——一个专门针对法律服务行业的大型语言模型。因此,这是一个非常去中心化的模式,分部经理拥有很大的自主权。接下来发生了什么呢?一旦公司决定让各个分部经理实施和推广 GenAI,并确保员工接受培训后,我们对其中两个分部进行了跟踪研究,我们称其为 A 分部和 B 分部。我们跟踪了他们多年的技术使用情况。A 和 B 分部在很多方面都非常相似,处理相似类型的专利案件,法律助理接受过类似的培训,背景也相似。

我们的发现如下——正如我之前提到的,持续使用和实验对于发现这些技术的价值至关重要。我们发现,A 分部和 B 分部的法律助理在使用这项技术时存在显著差异。就技术的使用频率而言,A 分部的法律助理使用频率比 B 分部高出 58%。除了使用频率之外,我们还发现,实验性使用同样重要。我们发现,A 分部的法律助理在技术上的实验性使用比 B 分部要多得多,他们发现了很多功能,甚至是这项技术的设计者都没有预想到的功能。比如,A 分部的法律助理利用 LawBot 来进行案件分析,查看过往案例的历史记录,进行法律研究。然而,这并不是这项技术最初的设计目的。最初,这项技术主要是为了帮助创建合同和保密协议,结合不同的法律条款,以更快的速度生成复杂合同或保密协议。然而,通过实验,A 分部的法律助理发现,他们可以将这项技术用于其他用途,比如法律研究等。这是非常好的现象。但这种情况在 B 分部并没有发生。B 分部的法律助理并没有进行足够的实验,也没有发现新的使用场景。此外,B 分部的知识共享也远远不如 A 分部。例如,A 分部的法律助理会分享他们的提示输入不太奏效时遇到的问题,并试图反向推理出原因,讨论应该避免哪些提示,或者哪些提示链思维更有效。这种现象在 A 分部的讨论中经常发生,而 B 分部却很少有这样的交流。

这就是我们最初的发现——不仅在使用频率上有显著差异,更重要的是,在实验性使用和知识共享上也存在很大的差异,而这些差异对技能的发展有着深远的影响。接下来我会进一步讨论这些影响。但首先,我想请大家思考一下,为什么会出现这种情况?为什么我们在 A 分部看到了更多的实验性使用和知识共享,而 B 分部却没有?请大家在问答框中写下你的想法。你认为原因是什么呢?是因为激励机制不同吗?还是因为文化的差异?

大家可以随便写下任何想到的原因,然后我们再继续讨论这个话题。你们觉得 A 分部的法律助理是否受到了不同的培训?或者你们认为有什么其他潜在原因?随后我会告诉大家实际的原因是什么,为什么会出现这种显著差异。

竞争心理、安全感、害怕因技术丢掉技能或工作——这些都是很好的答案,确实是其中的原因之一。但问题在于,为什么一组法律助理可能比另一组有更多的这种担忧呢?毕竟,这两组法律助理在同一家公司工作,薪资相同,激励机制也一样,公司文化在两组中也大致相同。那究竟是什么在推动这种差异呢?A 分部的员工更年轻吗?其实不是。我们查看了两组法律助理的年龄和工作经验,发现两者相差无几。领导差异?这是一个不错的思路,但我们可以更具体一些,看看这背后到底意味着什么。这些都是很好的答案。接下来,我来简要介绍一下发生了什么。

让我们从表现不太好的 B 分部开始。正如之前提到的,B 分部的使用频率低,测试性使用少,知识共享也较少。问题在于——公司采用了非常去中心化的模式来推广和扩展 GenAI 技术,因此,分部经理在如何引入这项技术方面有很大的自主权。而 B 分部的经理在会议和邮件中将这项技术定位为一种提升生产力的工具。他们告诉员工,使用 LawBot 这项 GenAI 技术,可以更快地完成合同和保密协议的工作。这就是他们引入技术时的定位——一个提高生产力的工具。

但他们在技能提升或工作丰富性方面并没有给予足够的重视,也没有向法律助理明确说明,提升生产力对他们的技能发展有什么好处。经理们也没有向员工做出足够可信的承诺,告诉他们有机会承担新的任务,学习新的技能。这一开端导致了一系列的动态变化,我们通过访谈、观察和一些实验追踪了这些变化。由于 B 分部的经理将 LawBot 定位为一种生产力工具,法律助理们不禁开始思考:如果我们今天变得更高效,那么两个月后、六个月后、一年后会发生什么?作为个人或者一个团队,我们是否会因为生产力的提升而最终失去自己的工作?因此,他们将 LawBot 视为一种威胁,认为它会削弱他们的专业能力。

ARVIND KARUNAKARAN: 这项技术或许可以提升他们的工作效率,但对他们个人并没有什么帮助。对于技能发展或职业发展而言,他们无法从中获得任何有价值的信号。这显然是一个缺失,这也导致了一种恶性循环。法律助理们首先认为这项技术威胁到了他们的专业能力,认为它降低了他们的价值。有时,他们甚至担心自己可能会被合并到某种共享服务中,从而在这一过程中失去权力,这进一步导致了他们对技术的信任缺失。但这并不是说他们完全不用这项技术。他们偶尔还是会尝试使用。但一旦使用中出现了问题,比如生成了错误的法律条款,或者出现了幻觉(技术生成了不存在的条款),他们就会过度关注这些负面体验,认为“我不能信任这项技术,因为它只是在胡乱生成垃圾内容。”他们把注意力集中在这些负面体验上,而不是尝试去实验、了解技术的优点。正因为如此,他们对这项技术的信任度进一步下降,使用和实验的频率也随之降低。这就导致了恶性循环的形成。

他们不仅没有发现新的应用场景,也没有利用这项技术完成新的任务,拓展自己的工作领域。相比之下,另一部门的法律助理通过使用这项技术,扩展了他们的职责范围。在这个过程中,B 部门的法律助理几乎没有机会学习新技能。因此,他们认为这项技术对他们并没有实际帮助。一位 B 部门的法律助理曾说:“我不喜欢 LawBot,我觉得它没用,麻烦太多了。我们 B 部门的法律助理不信任这项技术,不愿意每天使用它。”这里有一个我想强调的悖论——你使用这项技术越多,进行实验,了解它的优缺点,你就越信任它。但是,如果你觉得实验的过程会让你感到威胁,你就不会进行实验。这就是 B 部门的情况。他们既觉得实验是不安全的,同时也认为使用这项技术并不会帮助他们学习新技能或提升职业发展,反而会威胁他们的专业能力。所以这就是 B 部门的现状。

接下来,让我们来看看 A 部门的情况。这两个部门位于不同的办公楼,我们并没有看到两部门的法律助理有太多交流。如果他们有更多的交流,或许结果会有所不同,但这我们无法确定。那么,A 部门发生了什么呢?同样地,A 部门的经理在引入这项技术时也拥有很大的自主权。但与 B 部门不同,A 部门的经理并没有刻意计划如何引入这项技术,而是偶然采取了一种不同的方式。A 部门的经理没有将这项技术简单地定位为一种提高生产力的工具,也没有强调“用它来更快地完成合同和保密协议”。相反,他们把这项技术定位为一种技能发展的工具。经理告诉员工,可以利用这项技术不仅是为了更快完成工作,还可以腾出时间来处理他们一直想做的、更复杂的任务。这种技能发展或工作丰富化的定位带来了许多积极的影响。首先,经理们询问法律助理们:“你们还想参与哪些任务?除了你们目前的工作之外,是否有你们一直想做的事情?”许多法律助理实际上并不喜欢花大量时间处理复杂的合同和保密协议,他们认为这并不是自己擅长或接受培训的内容。他们有能力处理更复杂的任务,比如法律研究等。因此,经理还建议:“你们可以先用这项技术来更快地完成那些你们不喜欢的任务,比如合同和保密协议,但这不是全部。这样做是为了让你们能够有时间去做那些你们一直想做的、更复杂的任务,同时在这个过程中学习新的知识。”

接下来我将具体解释这意味着什么。法律助理们喜欢做法律研究,他们希望能够参与到法律策略会议中,协助律师们。但是他们之前一直没有时间去做这些事情,因为大部分时间都花在了起草复杂的合同和保密协议上。所以,这种技术定位的本质是:使用 LawBot 更快地完成那些枯燥的工作,或是你必须做的任务——重要的是——这样你就可以腾出时间去做那些你更喜欢、更复杂的任务,在此过程中还能学到新技能。这种定位带来了很多正面的连锁反应,稍后我们会简要讨论这些。除此之外,这些经理也切实兑现了他们的承诺。他们表示,使用这项工具可以让你有更多机会从事你一直想做、喜欢做的更复杂的任务,比如法律研究。为此,他们给了员工额外的空闲时间,让他们探索这项工具,尝试使用 LawBot,进行实验,并安排了知识共享会议。还提供了培训和指导,基本上是由一名资深法律助理带一名初级法律助理,实际上很多时候是初级助理教资深助理如何更好地使用 LawBot。他们不仅仅是让员工使用这项技术,还做了很多其他的事情,最终促成了一种更积极的良性循环。当然,刚开始的时候,法律助理们并没有对这项技术抱有很大的热情。他们最初还是很怀疑,觉得这又是一个他们不得不使用的新技术。因此,他们一开始还是很持怀疑态度的。但是,经理们将这项技术定位为可以学习新技能和处理更复杂任务的工具,结合其他一系列的培训和指导,最终激发了他们至少愿意去尝试这项技术的动力。

就像图中所展示的,他们跨出了一步,开始尝试和使用生成式人工智能。有时候技术能顺利工作,有时候不行,他们有过正面的体验,也有负面的,还有一些模棱两可的体验。但因为他们感受到这项技术可以帮助他们学习新技能、处理更复杂的任务,他们持续使用并进行实验,并相互分享经验,讨论哪些方法有效,哪些无效,应该使用哪些提示,应该避免哪些提示等等。在这个过程中,他们逐渐更加了解这项技术的优势,这也带来了更多的使用、更多的实验和更多的知识共享。更重要的是,通过这个过程,他们不仅学会了如何更好地使用这项技术,了解它的优缺点以及应该避免的事项,还能够处理以前从未处理过的复杂任务。比如,参与法律研究、参加客户策略会议、做会议记录等,这些都是他们之前没有机会接触的工作。这个过程的核心是,通过使用这项技术完成更复杂的任务,同时在完成任务的过程中学习如何更好地使用这项技术。这种循环是我想传达的关键。通过这种方式,人们不仅学会了新技能,还在使用 GenAI 的过程中提升了技术使用能力,因为他们处理的是日常工作中的实际任务,而不是假设性任务。

所以在 A 部门,法律助理们说:“我们希望找到更快完成任务的方法。我们不喜欢做保密协议和合同,但我们大多数人喜欢做法律研究。我们希望能够参与法律策略会议,或者至少能旁听。如果我们能找到如何通过 LawBot 更快地完成保密协议和合同的方法,也许我就可以向经理申请参与会议、与客户互动,甚至进行法律研究等更复杂的任务。”这是我们发现的第一个关键点,法律助理们在使用技术的过程中学习了新技能,并能够处理更复杂的任务。但这并不是故事的全部,接下来发生了正面的溢出效应。因为 A 部门的法律助理能够处理更复杂的任务,这也影响了其他角色。比如,法律秘书或行政助理开始在工作中承担更复杂的任务,而这在以前是不可能的。类似地,文员和暑期律师也开始使用这项技术完成更多的复杂任务,同时在此过程中学到了更多关于这项技术的知识,并且承担了更多的任务,学习了新的技能。

这就是正面的方面,但故事还没有结束。接下来要讨论的是权力和政治的角度。当法律助理开始处理更多复杂的任务,比如法律研究、与客户沟通、参与法律策略会议(至少是在会议的背景中,做会议记录等)时,A 部门的初级律师——这些通常是二年级或三年级的律师,刚从法学院毕业——感到受到了威胁。因为法律助理参与了法律研究等任务,他们感到自己的“地盘”被侵犯了,所以开始抵制这种情况,表示“这是我的领域,不要侵占我的地盘”。


5、AI应用案例总结

ARVIND KARUNAKARAN: 一位初级律师说:“法律助理没有接受过做法律研究这类事情的培训。如果他们做这些事情,但在主要任务上出错,客户发现了问题,到头来,这对我们所有人来说都是一种尴尬,等等。” 他们的意思是,法律助理应该“安守本分”,不要侵占他们的“地盘”。如果仔细想想,这并不是一种富有成效的思维方式。初级律师不应只做某些特定的任务,这并不是一个“零和游戏”。他们完全可以去做更复杂的任务,而不仅仅是基础的法律研究。因此,这里我们称之为“任务总量谬误”,这是一种几乎接近于零和心态的思维模式,人们认为这些任务属于他们的管辖范围,其他人不应该涉足其中。在这种过程中,他们的技能发展受到了限制。作为经理,他们需要消除这种“任务总量谬误”,进行干预。A 部门的经理们确实进行了干预,重新设计了初级律师的角色,告诉他们他们也可以使用 LawBot 来进行更复杂的法律研究,或者其他他们之前没有做的事情。在这个过程中,他们不仅能更好地学习这项技术,还能学习新技能,执行新的任务。因此,他们也重新设计了初级律师的角色。

这个故事的要点在于,初级律师认为他们只能做这些特定的任务,但事实上,经理们需要重新设计多个角色,尤其是当你想要从像生成式人工智能这样的技术中获得价值时。如果只关注法律助理而忽视了其他角色,像律师这样更高级别的职位可能会产生抵制情绪。因此,作为管理者,不应只局限于重新设计一个角色,而是要考虑组织中的多个角色以及它们之间的依赖关系,尝试通过提供机会让他们学习新技能、执行更复杂的任务,进而产生更广泛的积极影响。最终,这家公司的法律助理们不仅在处理法律相关任务,例如法律研究,还参与了一些业务开发相关的活动,比如与客户沟通,参与客户会议。于是,他们开始向两个上级汇报工作,一个是法律部门的律师,另一个是负责业务开发的客户经理。因此,关于如何评价法律助理的绩效、如何分配工作负荷,也引发了更多的问题。是应该 70%-30% 还是 60%-40% 分配他们的时间?因此,组织结构和汇报结构也需要重新考虑,部分原因正是因为人们使用了这项技术并在此过程中发展了新技能。

因此,我想传达的更广泛的信息是,当你考虑利用生成式人工智能学习新技能时,你必须从整个组织的角度去思考。这不仅仅是关于某一个人的问题,你必须将整个组织结构视为一个系统来重新思考。只有这样,我们才能在生产力提升和技能发展上看到积极的影响。

总结一下,这里有几个重要的启示。首先,实验性使用的角色至关重要,特别是在生成式人工智能的情况下。你必须鼓励一种实验的文化,只有这样,才能发现这项技术的优势在哪里。鼓励人们通过实验来学习新技能,执行更复杂的任务。如果仅仅使用生产力提升的语言,可能不会取得太大的效果,因为人们对生产力和生产力提升的理解各不相同,有时会将其解读为对他们工作的威胁。因此,作为管理者,继续致力于提供学习新技能的机会非常重要,这样才能充分利用这项技术带来的优势。最后,你不能只重新设计一个角色,而是要同时重新设计组织中的多个角色,避免出现领域之争和管辖权冲突。这一点非常重要。

最后一个问题是,作为管理者,你如何衡量影响?这个问题总是围绕着如何衡量影响。你可以很容易地衡量生产力的提升,但这还不够。你还需要展示人们之前从未执行过的新任务,这也许是衡量影响的一种方式。A 部门的法律助理现在能够接待更多的客户,他们接触了以前没有接触过的不同类型的客户。我认为这也是衡量影响的一部分。”进行新的任务、复杂的任务,参与新的活动,这些都很重要。因此,传达的更广泛的信息是,超越仅仅衡量生产力和投资回报率,更多地思考技能和以技能为导向的组织,你培养了员工什么样的技能,这显然会产生更多积极的后续影响。这是我想讨论的主要内容。我会跳过一些已经讨论过的内容,比如心理安全感的重要性,以及你们在聊天中提到的许多事情。


6、 问答环节

助理HEIDI: Arvind,感谢你精彩的信息分享。在你的演讲过程中,我们收到了一些问题。我想提醒一下今天的观众,现在仍然可以提交你的问题。好,现在让我们开始回答问题。

问题1: 随着生成式人工智能的快速进展,我们是否有时间在下一波技术进步到来之前解决这些权力和政治问题?我们如何调和人工智能进展的快节奏与组织变革的慢节奏?

ARVIND KARUNAKARAN: 这是一个很好的问题。这也是为什么我认为培养人们更广泛的思维方式很重要,告诉他们,今天你们做的任务并不是最终的全部。你可以利用这项技术去做更复杂的任务。因此,从一开始就强调这一点,可以避免那些权力政治领域的争夺,避免“任务总量谬误”。强调我们将根本性地重新思考你们的角色,考虑这项技术的能力是什么。因此,保持更大的灵活性和敏捷性会非常有帮助。我认为这是一个起点。我会从这里开始,告诉大家,尤其是更高级别的员工,他们当前的任务和工作活动并不一定是他们六个月后还在做的事情。作为管理者,提前设定这些预期并不断强化,这将大有帮助。

问题2: 有人问这个研究涵盖的是哪一代生成式人工智能技术,还有人想进一步了解不同部门的经理态度,以及为什么 B 部门的管理层没有积极使用 AI。

ARVIND KARUNAKARAN:  这些都是很好的问题。关于技术方面,正如我提到的,这是一款垂直领域的特定大型语言模型,所以在 2022 年,使用的是当时最新版本的生成式人工智能技术。它不是 ChatGPT,而是一种针对法律行业的专用技术,专注于他们的具体使用场景。所以这就是技术层面的回答。至于 B 部门的经理们,并不是说他们不愿意使用这项技术,而是他们认为这仅仅是一个提高生产力的工具。他们强调这一点,认为如果你把这项技术定位为一种生产力提升工具,员工会更加有动力去使用它。但正如我们所看到的,事情并非如此。

另外,他们对给予员工自由时间进行实验持有一定的保留态度。他们认为,为什么我们要这样做?为什么要每周给员工一个小时的时间去进行实验?他们觉得我们可以更好地利用这一个小时来满足客户的需求。但他们没有意识到,使用这些技术通过实验创造的价值是非常重要的。你必须营造一种实验文化,让员工能够学习这项技术如何真正为他们的工作服务。作为管理者,你无法远程操控这些事情。因此,我认为,承诺培训和指导以及给予自由时间进行实验,这两点非常重要,而不是仅仅通过优化每一分钟的员工时间来考虑问题。我觉得这两点至关重要,缺乏这种思维方式对组织非常不利。

问题3:  首先,非常感谢您在演讲中提供了深入且实用的关于如何在组织中部署 AI 的信息。您如何看待在组织中实施混合的职能和去中心化的组织设计,以便充分利用两者的优势?

ARVIND KARUNAKARAN:  是的,我认为我们正在研究其他组织的做法。更多的是“卓越网络”模式。卓越中心的模式运作得很好,就像一种中心辐射模型,你有一组技术专家,其中很多人还相当年轻,他们四处传播最佳实践,并在整个组织中营造一种实验文化,这种方式效果很好。当然,从资源的角度来看,职能模式可能运作得更好,因为有专人负责这项计划,并将其在整个组织中推广,尤其是对于大型组织来说。但我建议分阶段进行,先从中心辐射模型开始。一旦你发现组织内有了足够的关键群体,并且希望标准化某些实践,了解了员工在使用这项技术做什么时,也许引入一个 AI 或 GenAI 职能部门会更有帮助。但我总是建议从去中心化或网络模型开始,了解公司中不同的员工认为这项技术有何用处和价值,然后再做进一步的调整。

问题4: 一个关于心理安全感的问题:您能详细解释一下什么是心理安全感,为什么它很重要,以及在行为和态度管理不当时,谁应该负责引导?

ARVIND KARUNAKARAN:  好问题。心理安全感在这个背景下非常重要。心理安全感的基本概念是一个群体层面的结构,意思是员工认为组织对错误和实验有一定的容忍度。这在 GenAI 的情况下尤为重要。正如我之前提到的,这项技术没有预设的功能和特性,它们是在员工每天使用过程中发现的。但如果员工总是感到受到威胁,害怕犯错会受到惩罚,或者觉得他们绕过了技术在工作,经理或同事可能会觉得他们在浪费时间,那么这就营造了一种不安全的心理环境,使人们不愿进行实验。其次,心理安全感还意味着员工不总是处于一种会被取代或在过程中失去权力的威胁之下。因此,在这个过程中,给予员工某种保证,告诉他们可以自由实验,扩展他们的工作内容和职责,而不会因此受到惩罚,反而可能会得到奖励,这是非常重要的。尤其是在 GenAI 这种情况下,传达这一信息尤为重要。

问题5: GenAI 能做什么?哪些工作职能可能最容易受到 AI 增强的影响?您认为目前哪些行业或工作最容易受到影响?

ARVIND KARUNAKARAN:  是的,最近有一篇新的论文刚刚发布,是由沃顿商学院和 OpenAI 的一群研究人员共同撰写的。他们的基本观点是,很多依赖文本和图像的行业会受到较大影响。显然,我们知道呼叫中心和帮助台已经受到了影响。法律行业也受到很大影响。广告代理机构也受到了一些影响,尤其是在制作横幅等基础功能上。建议大家查阅那篇论文,它更详细地列出了受影响的行业以及容易受到影响的职业。我可以在问答框中分享该链接。

问题6: 关于 GenAI 在组织中的学习和发展中扮演的角色,您怎么看?

ARVIND KARUNAKARAN:  这是一个很大的问题。大家正在重新思考在 GenAI 的背景下我们应该如何看待员工培训和技能发展。以前的很多最佳实践是,我们需要派员工参加培训,他们得看视频学习。但我们知道,这并不是培养新技能或提升技能保留效果的最佳方式。现在,很多公司正在尝试开发非常具体任务或活动的 AI 机器人。比如,如果你的工作涉及大量的谈判,你可以使用谈判机器人进行训练,不仅学习如何使用 GenAI,还能更好地完成任务。所以现在的方向是,很多公司正在开发非常具体的任务 AI 机器人,要求员工在日常工作中使用它们。我们现在看到有很多不同用途的机器人——谈判机器人、供应链优化机器人等等,员工使用它们的同时也逐渐掌握了这些技术的优势。

助理HEIDI: 太棒了,非常感谢你。感谢你今天花时间回答观众的问题,同时也感谢你精彩的演讲。如果你对 AI 相关的主题感兴趣,我们还提供了一个新的斯坦福在线生成式 AI 技术、商业和社会项目的链接。感谢今天在线参与研讨会的所有人。祝大家有美好的一天,也感谢大家的参与。



斯坦福大学更多AI公开课链接:https://online.stanford.edu/courses/x...

对了,喜欢就别忘了点赞、收藏、转发支持一下!期待在评论区听到你对观点和看法!

往期回顾

1、[0到1的创富指南:在斯坦福大学AI实战课上,微软AI产品经理分享最赚钱领域和个人变现技巧]

2、[Google 前 CEO 埃里克·施密特在斯坦福2万字讲座实录:AI明年三大趋势,第一个趋势将彻底改变你获取信息的方式]

3、[《哈佛商业评论》前沿报告:为什么这三种通用技能是驾驭生成式AI、实现职场逆袭的关键]


我们旨在将先进科技与创新想法完美融合!

想要掌握人工智能,但不知从何开始?告诉我们你的需求,学习AI让你抓住这波浪潮

告别昂贵服务和缺人烦恼,再见漫长交付周期

无限创意,分分钟生成专业级产品

感受 AI 带来的全新工作体验!

欢迎各大品牌方、媒体、企业和个人等

请联系负责人微信:Milo-1101

--END--

未经许可不得转载,务必保留公众号原文链接和公众号按钮

继续滑动看下一个
AI深度研究员
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存