年轻人也需要跟上AI时代
“
大模型可能会放大一些社会维度的问题,也可能会导致新问题的产生。面对这么强大的新技术挑战,其历史意义及对社会的影响将是巨大而深远的。此时此刻,我们有必要仔细识别这些风险与挑战,找到应对之策。
本文字数9743,阅读时长约23分钟
文|孙天澍 李梦军
编辑|朱弢
过去一年,ChatGPT的出现让人耳目一新。人们一方面为它强大的功能和未来预期的广泛使用感到兴奋,另一方面也为人工智能技术的潜在风险感到担忧。
喜忧之间,当前趋势更偏向接受和拥抱。一年间,以GPT技术为代表的全球大模型竞赛还在不断升级,已经开始应用到各行各业。
经历过一段时间的沉淀,我们有必要认真探讨大模型与社会相关的一系列问题。比如,该如何看待这项技术的本质,以及由此衍生的全新商业生态?如何看待AI对社会的影响、冲击,甚至恐惧?如何在控制风险的同时,让其成为对社会、对人类进步普惠而有益的工具?
回顾人类科技历史,我们认为,大模型既是先进的生产力,也改变生产关系,并且还在继续演化和突破,对全社会生产力和生产关系可能同时产生颠覆性变革。未来,它可能会成为一个能够穿越技术壁垒的、人人可用的社会技术,如同电力、互联网、手机一样无所不在。它与我们的工作、生活息息相关,是强耦合关系。它可以成为每个人的超级大脑、人工智能助理,或副驾驶员,逐步替代人类的脑力劳动,让所有人都受到影响,进而影响整个社会。
从技术本质上看,以GPT为代表的大模型已经具备了前所未有的五大独特能力:即世界认知、开放创意、产品交互、个性陪伴和技术普惠。这意味着一种新的范式革命,模型即知识。从此,人类通过长时间的学习积累获得的知识体系、世界认知,甚至是科学探索、开放创意类工作都可以通过这项技术唾手可得。
从社会维度看,包括人的年龄、职业、教育、信息交流、知识创造与消费、收入等方方面面都将受到不同程度的影响。大模型可能会放大一些社会维度的问题,也可能会导致新问题的产生。面对这么强大的新技术挑战,其历史意义及对社会的影响将是巨大而深远的。此时此刻,我们有必要仔细识别这些风险与挑战,找到应对之策。
01
大模型技术本质和商业生态
ChatGPT的出现及其展现出的强大能力,无疑宣告了强人工智能技术时代的到来,这让所有人感到措手不及。回顾人工智能历史,我们认为,以GPT为代表的新一代大模型具备了五个全新能力,将最终塑造和影响新一代的商业生态。
第一,世界认知。
ChatGPT之所以强大,很大一个原因在于其打破了过往简单的数据对比与匹配方式,通过大模型预训练的方式,把海量语料,如历史书籍、维基百科,以及互联网上的资源信息文本或数据,不断地训练、学习和模拟,最后通过人类反馈学习等方式完成了从学习到知识储备,再到优化与个性化问答的过程。ChatGPT几乎封装了全世界所有的知识,完成了对人类公开知识的整合,抽象出了对这个世界的认知。
从技术角度,ChatGPT理解这个世界是怎么运作的,甚至形成了自己的逻辑推理能力,使得它能够很好地完成通用型任务。进一步讲,如果把这种通用的认知和行业垂直领域的知识做一些融合,通过微调,让其成为行业模型,就能够更加适应于特定行业的一些数据和任务。同时,ChatGPT的学习能力极强,可以用于探索科技前沿,发现新知识,解决人类面临的挑战,如气候变化和治愈癌症等。
第二,开放创意。
ChatGPT具有强大的智能工作能力,不仅能够写诗绘画、写代码、写文案,甚至能独立完成一篇学术论文。它不仅能够帮助搜索和整理信息,还能加以分析,并输出多模态内容和进行开放的艺术创作(包括生成文本、图片和视频的混合交付等),这极大提高了人类获取信息、生成信息和创造信息的能力。如Midjourney和Dall-E在过去一年不断迭代,完全没有绘画经验的人通过输入自然语言提示词,就能完成一幅想象中的作品,甚至可以做到多模态间的相互转化,用一段描述生成图片和视频,等等。可想而知,这对于游戏制作、广告创意、内容产业的插画师、原画师、影视制作的冲击是巨大的。
再比如,过去没有办法写好小说的普通人,在ChatGPT的加持下都有可能完整高效地表达自己,把自己的故事形成一部有意思的作品。总而言之,ChatGPT能够“放大”人类开放创意的能力。
第三,全新的产品交互。
大模型通过基于世界认知的自然语言对话实现了新一代产品交互,有望颠覆以往的电脑、智能手机和搜索引擎成为下一代信息、商品和服务的入口,真正实现自然语言用户界面(LUI, Language as User Interface)。过去四代信息科技的交互界面(DOS系统、Windows鼠标互动、搜索引擎打字、智能手机滑屏)都需要“人适应机器”,而大模型的交互真正做到了“机器适应人”,这个变革有划时代的意义。
语言是人与生俱来的交流方式,人类思维中最复杂的活动过程,也是人类与其他生物的根本区别。以往所有的人工智能交互无法直接理解人类语言,而ChatGPT第一次让算法让机器能够去通过自然语言来适应人的要求。ChatGPT目前已经表现出对人类复杂语言的理解能力,并且能够联系上下文把握关键意思和逻辑,进而执行各种命令、完成多种任务和反馈。
新一代产品交互有可能引起用户需求的入口迁移,从搜索引擎和智能手机转向大模型入口,而在完成入口之争后,必然也会发生生态之争。ChatGPT已经开放了API接口体系“插件Plugin”,如同手机应用商店它可以链接最新信息和服务,有望成为GPT平台并建立自己的生态,从而进一步巩固自身下一代平台入口地位,让更多的用户与信息、商品、服务之间实现自由调用。
过去,浏览器、搜索、应用商店是互联网行业最早形成的三大入口。而以ChatGPT为代表的生成式人工智能集信息获取(信息支持)、智能服务(服务支持)、聊天机器人(情感支持)、创作工具(生产支持)等功能于一体。它就像一个个人助理,不仅可以通过人类自然语言直接交流,而且还能在聊天中提供完整确定的答案以回答任何提示,能够让用户在其平台上完成其最终目的,并赋能人类行动,如搜索、发现、旅行计划、餐厅预订、礼品购物、创作研究等等。
这种产品交互的革命、入口的变化代表着一种范式的迁移,会造就一批新的企业、新的生态,也会冲击线下物理场景中的交互方式。
第四,个性陪伴。
ChatGPT基于Transformer的模型结构,有长期上下文记忆,结合对话机器人这一交互模式,可以衍生许多“个性陪伴”的实际应用,在教育、医疗、客服等专业服务领域会产生深远的影响。比如ChatGPT可以陪伴孩子聊天,辅助孩子个性化学习,未来可能每个人都会有一个AI陪伴他/她长大。ChatGPT还可以化身为虚拟好友,还能定制人格,让人们在孤独、困惑或需要陪伴时,有一个可以倾诉的对象。与传统的聊天机器人不同,ChatGPT具有更高的智能水平和自然语言处理能力,它可以理解人类的情感和需求,并及时作出相应的回应,或者作为朋友、导师,为人提供实用的建议和支持。这些个性陪伴能力未来在个性诊疗、养老看护、教育培训、家庭机器人等领域都有很大的拓展空间。
第五,技术普惠。
ChatGPT是一个自动化的聊天机器人,用户可以随时随地利用它来寻求问题的解答,无需具备任何特殊的技术知识。无门槛,意味着任何人都能够轻松使用它来获得所需的信息。它可以翻译一切,不只是语言的翻译,还可以是视频、图片、语音与文字之间的自由转换,不同计算机编程语言之间的转换,等等。
另外,它可以弥补数字鸿沟,使更多的人获得技术平等的机会,跨越鸿沟。过去,只有通过长期的知识积累、技术培训,懂得技术的人才能使用新产品新服务,而ChatGPT通过提供轻松访问技术知识的途径,尤其对那些不熟悉技术的人,可以帮助他们跨越难关。
此外,ChatGPT可能会作为一个具有公共底座性质的万能模型快速普及,无论是农村地区、发展中国家还是现代化城市,无论是年轻人还是老年人,ChatGPT都能够便捷地为其提供信息服务,助力他们更好地使用现代技术。这些信息服务还可能为用户提供更好的就业机会和经济机遇。未来,随着技术的持续发展,大模型的普及和无门槛使用将会更加重要。
综上所述,以ChatGPT为代表的大模型产品具备了以上五个独特的技术能力,也会衍生出全新的商业生态。我们可以把它们看成一个能够放大人类能力的“放大器”工具,让其帮助我们以更高效的方式完成工作。在可预见的未来,随着大模型的商业化落地与生态的不断演化,模型的成本开始从边际走向固定,大面积进入社会劳动领域是一种必然。随着它的大规模应用,势必会对劳动力市场、教育体系、社会经济,甚至全球劳动分工造成颠覆性改变,对人类行动、思维乃至社会、历史发展等产生重大且不可逆的影响。
ChatGPT的惊艳能力一方面让人们感到兴奋,另一方面也让人们越来越担忧。2023年3月22日,生命未来研究所(Future of Life)向全社会发布了一封《暂停大型人工智能研究》的公开信,呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练。在他们看来,当下的AI不再风险可控了。只有确定它们的影响是积极的,并且风险是可控的,才能继续开发更强大的人工智能。很快,公开信就引发了舆论的轩然大波。
与此同时,意大利成为全球第一个因隐私考虑,禁用ChatGPT的国家。随后,4月11日,中美两国几乎同时发布了关于AI政策监管的征求意见稿。就连OpenAI CEO(首席执行官)山姆·阿尔特曼(Sam Altman)也发文表示,通用人工智能可能带来严重的滥用、重大事故和社会混乱的风险,希望通过制定一些原则和激励措施来确保它的好处最大化,并控制它的潜在风险。他还于5月18日参加了美国国会听证会,呼吁加强对人工智能的技术监管。
大家为何害怕?他们担忧的是什么?根据我们的观察以及对过去一些关键事实的梳理,可能集中在以下几点:大模型的涌现能力,让人们担忧AI会失控;如何阻止虚假信息传播?如何应对对劳动力市场的冲击?如何保护知识产权、数据安全与隐私?如何解决技术的飞速发展可能会加剧的数字鸿沟、贫富差距等社会问题?02
大模型可能带来哪些社会影响?
前面我们根据对GPT技术的观察以及关键事件的梳理,分析了大模型的独特能力,以及大家的担忧具体是什么。接下来,从社会学视角来探讨它可能会对社会带来怎样的影响。需要注意的是,社会既是一个整体,也是由每一个个体组成的。因此,我们既要看到技术对整个社会的整体影响,也要看到对每一个个体可能产生的影响;既要看到对生产力的影响,也要看到对生产关系的改变。
首先,ChatGPT对社会生产力及效率的提高将是革命性的、颠覆性的。在一些常规甚至复杂的任务中,大模型可以处理得更好,可以使生活更简单、更安全、更高效,可以用更少的人做更多的工作。这提高了人们日常生活的质量,整个社会的运营效率也提高了。这是它带来的正面影响。
但企业在广泛应用大模型的同时,其业务流程、工作岗位也将面临调整和重塑。技术的提升也并不意味着每个个体都能从中获益。“科技赋能”的另一面也存在风险,它可能剥夺许多人的某些能力。这就引出了一系列问题,未来的社会劳动分工如何变化?未入职场的年轻人的工作机会在哪里?究竟应该拥有怎样的技能才能生存下去?等等。
接下来,我们可以从社会维度和技术维度去做具体分析。把社会维度分为职业、年龄、收入、信息知识的创造与消费,分别去对应大模型的五个独特能力,我们会发现,其影响是深远而多层次的。综合来看,它不仅会影响或放大原有的社会问题,同时还有可能制造出新的社会问题。
1)大模型冲击劳动力市场
大模型对劳动力市场的冲击是显而易见的,也是大家讨论最多的。在我们此前发表的文章(详见《财经》2023年第5期“ChatGPT冲击劳动力市场”)中,我们从短期、中期、长期总结了ChatGPT对于劳动力市场的冲击。我们认为,短期内会替代低技能任务和重复性工作;中期增强效应和创造效应会凸显出来,既放大一些工作的价值,并创造新技能要求和新岗位。长期来看,商业模式会被重塑,技术和资本垄断会加强,贫富差距进一步扩大。
3月中旬,OpenAI公司发布的报告也指出,在美国,大约有80%的劳动人口的工作会受到GPT的影响。报告还特别强调:教育程度越高、入行门槛越高、收入越高的工作,会面临更大的风险。紧接着,高盛分析师Joseph Briggs和Devesh Kodnani根据数千份职业通常执行的任务数据构建了模型,计算显示,约五分之一的工作可以由人工智能完成,在各大经济体中,这相当于约3亿个全职工作岗位。
更需要提起注意的是,技术节约劳动力的速度远远大于创造新就业机会的速度。这种“技术性失业”问题或许比前三次工业革命都要深刻,难以解决。过去,技术发展会使整个社会的劳动力逐渐从一个经济部门转向另一个经济部门,如从农业到工业,再到服务业。目前,服务业是吸纳就业人口最多的产业。但现在传统服务行业也越来越多地出现了AI的身影。这意味着从长远来看,AI将会对全产业部门的就业产生冲击,服务业将不能再吸纳其他部门溢出的劳动力,就连其自身的就业数量也会受到影响。劳动力似乎没有可以再流动的其他经济部门,大量的剩余劳动力该何去何从?仅有的工作机会势必会加剧竞争、内卷。因此,AI对劳动力市场产生的震荡远比想象中的更加复杂,更加不可预测。
2)大模型对年轻人影响巨大
首先,就对年轻人(特别是即将毕业的大学生)的职业发展路径、上升通道提出了挑战。传统的教育体系都在培养具有事务性或专业执行人才,而越来越多的企业开始采用AI技术进行自动化生产和管理,许多传统职业正在被取代或改变。年轻人的未来职业该如何选择?同时,年轻人之间的竞争可能加剧。“AI失业”的直接后果就是带来了大量剩余劳动力,这会使得原本所剩不多的工作岗位引来更多人的竞争。同时,AI对劳动者的素质提出更高要求,掌握AI的操作、管理、运营等技术的人将获得优先的工作机会。因此,对于年轻人来说,需要认真思考未来应该选择什么专业?时代需要怎样的人才?
此外,AI技术也对年轻人的学习、生活方式产生一定影响。比如,大模型可以作为AI助手,为正在学习中的年轻人提供个性化的学习工具,帮助他们更快乐地学习。有了AI这个工具,人们就能专注于创新或者成为更高级的编辑,把目光和精力聚焦在重要的事情上。在社交媒体、游戏等方面,AI可以为年轻人提供更加智能化、个性化和创新性的体验。但如此一来,我们需要重新考虑和反思目前的教育体系,以及教育的最终目标究竟是什么?
与此同时,大模型也会带来一些负面影响,比如可能会导致年轻人过度依赖虚拟世界、缺乏真实交往,影响他们的价值观等问题。与ChatGPT对话能够快速获取知识和信息,对于任何问题,它都能给出相对清晰简洁、观点明确的答案,这为不愿思考的人们省去了许多时间。因此ChatGPT可能在对话中不知不觉地影响、塑造人们的价值取向——特别是价值观正在形成中的年轻人。因此,当年轻人高度依赖大模型时,思维能力反而有可能变弱。我们该如何培养年轻人的批判性思维?
综上所述,AI对年轻人的影响是多方面的。年轻人更需要认真思考如何在这个时代中保持自我的独立性和价值观,并积极应对这个不断变化的世界。早在2017年,美国经济研究局曾举办过一个关于“人工智能经济学”的研讨会,会上提到:机器抢走工作所带来的两大问题是,人们收入的损失和地位的损失。与后者(失去地位、成就感等)相比,前者(失去收入来源)反倒是更容易解决的问题,我们需要的不过是劳动生产力的大规模提升,以至于更多的人可以不需要工作,却以其他的方式悠闲地分享整个社会的平均劳动果实。但是,届时,我们将如何处理我们的时间,如何找到自己的存在感和生命的意义?也许将成为全人类最为重要的问题。对这个问题的回答,将真正决定,我们能否拥有一个更好的世界。
3)大模型可能加大贫富差距
山姆·阿尔特曼认为ChatGPT能够帮助我们“拥有更高的生活质量”,高盛也预测该技术最终将在十年内使全球年均国内生产总值(GDP)提高7%。的确,AI技术的普及可以提高劳动生产率,提升人们的平均收入和生活水平。但是没有经济法则能够确保每个人都能分享这块增长的蛋糕。社会整体生产力的提高并不等同于全人类共同富裕,反而更可能加剧贫富差距与地域发展差异。
首先,个体就业上的差异,会直接导致社会财富收入的不均。更多掌握人工智能技术的企业或个人能够获得社会财富更大的分配权,从而增大社会贫富差距。有统计显示,在AI产业快速发展的早些年,美国真实的人均国内生产总值增长了36%,但普通基层职工实际小时工资却下降了14%,收入的增额都被20%的人所占有,而最顶级的1%更是占去了收入增额的64%。
其次,垄断将会随之产生。AI的技术红利大部分会流向头部企业。由于大模型对工作效率的提升,企业和雇主可以大量减少雇佣工作人员的数量。这不仅意味着很多人将要失业,也意味着上层资源财富向下流动的可能性减小。普通人在劳动生成过程中的议价能力不断下降,在资源分配时往往被排除在外。除此以外,对于一些重要的信息和机会,富人可以更容易地获取,而穷人可能无法获取这些资源。
因此,多方面作用下,大模型可能会造成贫富差距日益拉大、阶层固化的情况。而且,由于AI的数字化特征和对数据资源的依赖,使其具有天然的垄断性质,逐步侵蚀市场竞争机制,产生出能够支配行业的科技巨头,造成“赢者通吃”的局面。
4)大模型的其他风险
除了上述可能的社会影响之外,还有一些技术方面的风险。首先,大模型的底层技术与数据安全存在天然矛盾。具体来说,它在数据抓取、模型训练和用户使用的过程中,都可能存在数据安全和侵犯个人隐私的问题,还有数据泄露的风险。比如,使用的训练数据集是否通过合法的渠道获取?训练数据是否能够安全地储存?开发者如何管理与用户交互产生的数据?如何防范数据泄露?等等。现有的大模型大多存在与数据相关的安全问题,如果你的个人信息被学习进它的大脑中,隐私追溯比起以前的互联网会更加困难,而它产生的数据属于谁,在法律上还存在空白。
其次,大模型可能是一个虚假信息的超级传播者,它可以前所未有的速度和规模传播虚假信息,还可能被黑客利用或攻击造成技术扩散。OpenAI首席技术官米拉·穆拉蒂(Mira Murati)就表示,ChatGPT可能会“编造事实”,可能被“危险分子”利用,这是当下基础的大型语言模型共同面临的挑战,对此进行监管势在必行。
最后,大模型可能会在以下四个方面面临知识产权的侵权风险。如,开发人主体在使用数据时可能会侵害他人知识产权;输出的实际上是对已有信息的整合,且并未标注资料来源;当开发者为这些产出向用户收费时,是否已经造成了侵权?随着多模态大模型的发布,这种侵权可能会从文本拓展到图像、音频和视频领域。
03
如何与AI大模型共融共创
过去一年,人们喜忧参半。一方面,人工智能作为“放大器”工具可以极大地提高生产力和创造力,让人感到兴奋,另一方面人们又对AI安全性、开发方向以及人类未来发展感到担忧。
我们认为,短期技术监管政策出台后,可以快速解决当下的特定技术风险,如数据隐私、假新闻、技术扩散等问题。但AI大模型带来的经济和社会影响高度复杂,很难通过政府的技术监管和企业的技术改进单独解决,需要政府跨领域设计经济、财政、产权等政策的协同,以及企业创造性设计公司治理策略,共同合作长期调控,特别需要持续关注大模型对劳动力市场的冲击、对贫富差距的扩大和知识内容领域生产和分发体系的颠覆。而大模型对年轻人职业的影响,和对下一代的教育变革更需要全社会的思考的参与。
首先,需要技术监管。
从国家政策监管角度看,自从ChatGPT掀起人工智能热潮以来,如何监管成为世界各国备受关注的共同课题。
4月11日,中美两国发布关于AI监管的征求意见稿之后,美国已经举行过三次关于人工智能的公开听证会,参加者不仅包括政府、科技巨头、亿万富翁,还有国家安全专家和学者。
7月21日白宫宣布,美国七大AI企业已与拜登政府签署协议,承诺采取自愿监管措施管理AI技术开发风险,协议主要内容包括:在发布AI产品前,先由独立专家进行内外部安全测试;定期公开报告AI的能力和局限性,及其适当和不适当应用的领域;同意开发数字水印系统等强大技术机制,确保帮助用户识别AI生成内容;优先研究AI可能带来的社会风险,以避免偏见与歧视、保护隐私,等等。9月12日,英伟达、IBM和Adobe等八家企业签署了第二轮协议。
在中国,7月10日,国家网信办等部门公布了《生成式人工智能服务管理暂行办法》(下称“生成式AI管理办法”),并于8月15日实施,对数据使用的合法合规、个人隐私保护、生成式人工智能生成的内容归属及使用问题提出了要求,同时也要求AI企业公开算法,在防歧视、模型可解释性、反垄断等问题上做了初步的管控。
中国对大模型的监管基本属于“发放许可准入制度”。8月31日,百度、抖音、智谱AI、中国科学院、百川智能、商汤、MiniMax、上海人工智能实验室等八家企业/机构的大模型,首批通过“生成式AI管理办法”备案,正式向公众开放服务。9月1日,国家网信办发布了第二批深度合成服务算法备案清单,涉及110个算法,包括华为云盘古多模态大模型算法、腾讯云智能数智人算法等,这为AI应用的规范化落地提供了支撑。这次备案被认为是在发放大模型牌照。业内人士认为,取得牌照对大模型商业化的主力——To B端、G端的产品刺激不会太大,因为这些应用本来就在强监管下,生成内容能产生的社会影响相对可控,而备案未来真正规模化产生影响的应该是To C端。
其次,需要政策协同。
随着生成式AI的广泛应用,未来,政府和企业还需要在应对劳动力市场的冲击、贫富差距问题上展开更多的讨论,以及跨领域合作,持续沟通配合。例如,如何引导社会正确使用人工智能,并树立正面的技术观与价值观;政府、学术界、社会各界和企业可以建立跨组织的沟通平台与协作机制,共同探讨人工智能如何健康发展,以及我们应该如何打造一个与AI共融共创的普惠社会;政府积极采取措施,减缓人工智能对就业、低收入群体带来的负面影响,缩小贫富差距。对于凭借新技术垄断财富的群体,或许可以通过征收“资本所得税”或“科技税”,避免垄断和不正当竞争,等等。
从企业层面看,OpenAI公司也提出了很多有针对性的公司治理策略。从其公司愿景来看,OpenAI一直以追求普惠的AGI(通用人工智能)为第一目标。他们制定了一些原则来确保AGI的好处最大化,并控制它的潜在风险。还建立了一系列的制度保障,比如,公司章程中,有一个条款关于协助其他组织提高安全性,而不是在后期AGI开发中与它们赛跑;在盈利分红方面,对股东可以获得的回报设定上限,使公司不被激励去无限制地获取收入;在股权架构上,用一个非营利组织来管理盈利公司,最终目标是“为人类的利益而经营”,并且可以凌驾于任何营利目标之上。其他还包括,在安全需要的情况下取消股东的股权义务,赞助世界上最全面的UBI实验,等等。
山姆·阿尔特曼认为,民众和政府应该充分了解人工智能的优点和不足,通过快速学习和谨慎迭代,最终实现人类与AI共同进化。
缩小贫富差距的关键在于保证全社会的生产力提升能够较为合理地分配给每一个人。OpenAI正在做的全民基本收入(UBI)实验可能不是解决贫富差距的唯一解,但也是一个值得探讨的方案。阿尔特曼预计十年后,AI创造的财富可以给每个美国人每年发放13500美元。如果能有合理的无条件基本收入,贫富差距的问题能得到一定缓解。但这就会引发另一个问题,人们该如何处理多余的时间,如何找到自己的存在感和生命的意义?这也关系到年轻人的未来,特别是对教育的变革。
最后,还要教育变革。
年轻人的教育和思想问题更长远,也更难通过即时的措施进行调整。ChatGPT的出现或许是第一次对于年轻人的教育、就业提出了严峻的挑战,机器的成长速度可能比年轻人成长速度要快得多。如何利用大模型改造现有教育模式,还需要社会各界以及教育界的共同探索。这里我们也给年轻人提出个人应对的三点建议。
第一,学会从给出好答案到提出好问题。大模型时代,如何有效地同机器对话与合作变得尤为重要,而提出开放性的好问题是其中的重中之重。要与AI有效地共创,提出原创的问题才能得到创造性的回答,真正体现学术思想和原创性的部分在于学习者自身的洞察和思考。
第二,熟练掌握AI工具并且融会贯通。我们需要真正把AI工具融入教育和各种职业技能中,融入到学习内容、学习方式、工作环境中去,借助技术的力量提升教育水平,熟练掌握新一代GPT这样的AI工具。
第三,借助AI工具自我学习,不断迭代。借助AI工具,学生可以根据自己的基础、需求和兴趣定制学习内容,从而获得更好的学习体验和学习效果。未来不缺知识,但掌握如何学习的能力,学习如何学习的能力至关重要。
总的来说,我们应通过教育避免年轻人丧失思考的能力,让人工智能成为帮助人的工具,而不是取代人的工具。面对挑战,接受变化,抓住机遇,与新一代AI共存融合、共同创造,可能是唯一的选择。
(孙天澍为长江商学院杰出院长讲席教授,数字化转型研究中心主任;李梦军为长江商学院案例中心高级研究员)