查看原文
其他

哈佛商业评论:工程师为什么要学习哲学?

Marco Argenti 科睿研究院
2024-08-30


本文原文标题为:Why Engineers Should Study Philosophy


作者Marco Argenti,高盛首席信息官。




我最近告诉我的女儿,她一个大学生:如果你想从事工程师职业,除了传统的工程课程之外,你还应该专注于学习哲学。为什么?因为它会提高你的代码水平。


作为一名工程师,这可能看起来有悖常理,但围绕想要解决的问题建立清晰的思维模型,并在开始研究如何解决之前理解为什么,是一项越来越重要的技能,尤其是在人工智能时代。


编码是人工智能最擅长的事情之一。人工智能通常可以编写比人类更高质量的代码,而且其能力正在迅速提高。你知道,计算机语言使用的词汇量比人类语言要有限得多。而且由于人工智能模型的复杂性随着人工智能理解的语言的符号范围的增加而呈二次方增长,因此词汇量越小,结果就越快、越好。


然而,这里存在一个问题:人工智能编写的代码可能在语法和语义上是正确的,但在功能上却不正确。换句话说,它可以运行良好,但不能完成你想要它做的事情。模型的输出对提示的编写方式非常敏感。如果提示写错了,你的人工智能编写的代码充其量是合理的,最坏的情况是错误和危险的。



在新兴学科“提示工程”中(现阶段,提示工程更像是一门艺术而非科学),用户学习如何手工制作简洁、富有表现力且能有效让人工智能执行其指令的提示。目前存在各种技术,例如少样本提示,即在提示前添加一些示例,以引导人工智能朝正确的方向发展,有时还会使用问答。例如,对于使用少样本提示的情绪分析,用户可以输入“分析收益电话会议中句子的情绪”之类的提示,然后输入具体示例,例如“前景改善:积极”或“需求放缓:消极”,以帮助人工智能理解模式和上下文,从而根据示例生成准确的情绪分析。


在管理工程团队的几十年中,我学到的最重要的技能之一就是提出正确的问题。这与人工智能并无不同:大型语言模型 (LLM) 的输出质量对提示的质量非常敏感。模棱两可或格式不正确的问题会让人工智能试图猜测你真正想问的问题,这反过来又增加了得到不精确甚至完全虚构的答案的可能性(这种现象通常被称为“幻觉”)。


正因为如此,要想最大限度地利用人工智能,人们首先必须掌握推理、逻辑和第一性原理思维——所有这些都是通过哲学训练培养的基础技能。问题“你会编码吗?”将变成“你能通过提出正确的问题从你的人工智能中获得最好的代码吗?”


稍微缩小一点,人工智能性能对用户所表达的心理模型质量的依赖性提示人工智能,这表明作者和读者之间的关系发生了根本性转变,总的来说,我们与知识的关系也发生了根本性转变。在某种程度上,它与印刷机的发明类似,印刷机通过大量生产书籍以及创建图书馆和大学使信息民主化。


例如,在印刷机出现之前,如果你想学习数学,你可能必须亲自接触数学家或接触手写的文本,而这些文本可能是花费巨资购买的。印刷书籍使这一障碍大大降低,而互联网则将其几乎降至零。尽管如此,仍然存在一个障碍,那就是作者和读者之间的知识差距。你可以接触到世界上任何论文或书籍,但如果你无法理解它们,它们就没有多大用处。



有了人工智能,这种关系就会发生变化,作者的概念也会发生变化。法学硕士会根据读者的知识和理解水平调整其内容,并从他们的提示中获取线索。


读者的提示是触发人工智能产生内容的种子,利用其训练数据中的作品为该用户专门创建新的文本——从某种意义上说,读者既是消费者,也是作者。以数学为例,如果你想了解微积分中的极限概念,你可以找到一本针对高中生或大学生的教科书,或者尝试在互联网上找到与你当前理解水平相匹配的资料来源。


另一方面,人工智能模型可以根据你的理解水平和学习风格提供个性化和自适应的指导。未来,学习的黄金标准——个性化辅导——可能对每个人都适用。其后果是难以想象的。


生成式人工智能改变了我们与知识的关系,消除了障碍,不仅可以提供获取知识的途径,还可以以量身定制的方式解释知识。它在你的知识水平和攻克某一特定主题所需的知识水平之间建立了一个缓坡。但是,获取经过适当量身定制、更重要的是准确的知识的能力始于用户,也终于用户。随着知识越来越容易获得,推理变得越来越重要。


但是,这些哲学思维技能的使用并不会因为你得到了你认为你想要的输出而结束——这项工作还没有完成。众所周知,人工智能会犯错误,它们特别擅长让错误的输出看起来可信,这使得辨别真相的能力成为另一项非常重要的技能。为了以负责任的方式与技术互动,让我们获得我们想要的适当和准确的信息,我们必须在整个旅程中以哲学心态和适度的怀疑态度和常识为先导。



曾经有一段时间,为了编写计算机程序,我必须手动拨动开关或在纸卡上打孔。该创建过程处于基础层面,涉及计算机拥有多少位内存或寄存器的复杂程度。由于拥有数十亿个晶体管和数万亿个存储单元,我们的软件创作过程必须随着计算机语言的创建而提升到越来越高的水平,这些语言可以抽象底层硬件的复杂性,使开发人员几乎可以完全专注于算法的质量,而不是 1 和 0。


如今,我们处于这样一个阶段:计算机(即人工智能)不再需要在我们所说的语言和它们理解的语言之间进行这种中间级别的翻译。我们可以把罗塞塔石碑放在一边,直接用英语和计算机对话。它们很可能理解得和用 Python 对话一样好。这立即带来了两个选择:我们可以偷懒,或者我们可以提升我们的思想。


当语言不再是障碍时,我们可以充分利用人类语言的表达能力,向人工智能传达更高的概念和逻辑,以最紧凑、最有效的方式、以声明性的方式(专注于结果)捕获我们的请求。我们想要获得)与命令式(专注于如何实现目标的步骤)。


命令式:左转,然后直行,然后再左转,然后(1,000 次)。

宣言:带我回家。


我见过社交媒体上的人们只需要一些精心编写的提示就可以创建整个游戏,而在最近的过去,这些提示可能需要几个月的时间才能开发。


这又回到了我最初的观点:对问题有清晰的思维模型,能够将其分解为可处理的步骤,完美的第一性原理思维,有时准备好(并且能够)与固执的人工智能辩论——这些技能将造就未来的伟大工程师,同样的考虑可能也适用于许多工作类别。



我们不想失去在需要时打开引擎盖并修复人工智能可能错过的事情或能够(重要的是)审核人工智能所创建内容的能力。这对人类来说是一个真正的问题,我们不太可能让这种情况发生——我们至少仍然必须构建人工智能。然而,这只能让我们部分实现目标。自动化代码创建机制并专注于我们的批判性思维能力将使我们能够创造更多、更快并对世界产生不成比例的影响。帮助人工智能帮助我们变得更加人性化,而不是计算机化。




科睿研究院最早成立于中国香港特别行政区,是国际科学与人文科学院(International Core Academy of Sciences and Humanities)建设的综合性研究机构,致力于搭建学术界与社会间高效沟通的桥梁,将前沿的学术研究成果赋能至新时代社会发展。


作为科睿研究院主办的官方号,我们致力于打造高质量知识交流平台:持续推出与当代社会相关的洞察分析与时事评论,定期发布高质量专栏文章与交流活动,并推送有价值的学术资源和最新资讯。同时,学院积极欢迎读者们的踊跃来稿,参与我们的知识传递之旅中!


往期推荐

1

美国通胀放缓引发降息争论:美国经济会不会表现得太好?

2

伊朗总统莱希坠机遇难:他有何政治遗产?未来伊朗将走向何方?

3

杰出的计算机科学家:亚历山德罗·阿斯托尔菲教授

4

聚焦美国大选:拜登与特朗普罕见达成一致



继续滑动看下一个
科睿研究院
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存