ChatGPT的创新与挑战
感谢作者授权推送
目 次:1. ChatGPT不是“炒概念”2. ChatGPT是“创新”3. ChatGPT在法学领域的应用场景4. ChatGPT所带来挑战:过程与结果的错配5. 应对ChatGPT的挑战:伦理、法律与科技创新的关系6. 学术圈的ChatGPT应用
OpenAI公司研发的ChatGPT颇有“未来已来”之感。从工业革命中的科技蓬勃发展,到人工智能会替代工作乃至取代人类的诘问,再到科幻电影《流浪地球2》中人工智能MOSS的“穿越”解读,对AI的探索贯穿着人类科技之树枝繁叶茂的全过程。人与机器的主客关系、法律和伦理如何及时回应新兴科技,是科技进步中的永恒命题。
诸多媒体将ChatGPT作为访谈对象予以采访,这是一种直观感受AI、侧面了解科技成果背后技术原理的立体化研究方法。有赖于机器学习、神经网络以及Transformer模型的多种技术模型积累,ChatGPT的模型训练利用了基于人类反馈数据的系统,其自然语言理解和作品生成能力大大提升。ChatGPT到底是“炒概念”还是“创新”?ChatGPT在法学领域有哪些应用空间?从法律和伦理视角来看,ChatGPT带来的挑战与规制逻辑是什么?
1.ChatGPT不是“炒概念”
资本市场需要“炒概念”,而人类需要人工智能。ChatGPT的确很热,但相比某些资本市场的炒作术语、热词而言,以ChatGPT为代表的AI是更值得社会科学进行深入研究的问题。ChatGPT的成功,不仅在于其第一次以零门槛、AI平民化方式所带来的热度与话题,关键在于从GPT-1、InstructGPT再到ChatGPT,OpenAI公司八年来推陈出新的探索,及其扎实的底层技术支撑。
许多人声称ChatGPT会犯错、会“胡编乱造”。有鉴于AlphaGo出道之初遭受的批评,相比对其生成内容出现错误、无法溯源的批评而言,讨论AI的未来发展空间与可能影响更加有意义。借用木遥博士的一段话:“当你抱怨 ChatGPT 鬼话连篇满嘴跑火车的时候,这可能有点像你看到一只猴子在沙滩上用石头写下1+1=3。它确实算错了,但这不是重点。它有一天会算对的。”[1]
2.ChatGPT是“创新”
3. ChatGPT在法学领域的应用场景
某个特定模型的极限,并非是对话式人工智能的极限,需要参考文献来源、内容准确度提升,这些都可以通过完善AI应用的场景设定、调整对AI的训练方式来实现。同样,直接将这个版本的ChatGPT应用于正式的法律文书写作和法院判决当然是不可取的,因为其开发之初的设计方向就未将严谨性与准确性作为核心特征。
以ChatGPT为代表的通用性人工智能,在法学领域的未来应用空间极为宽广。在法院审判过程中,哥伦比亚卡塔赫纳区巡回法院的法官Juan Manuel Padilla Garcia已经在判决中加入了AI生成文本,用其增加说理依据。[4]需要注意,尽管这听起来很赛博朋克,但细读法官的判决原文,AI此时生成文本的目的绝不是要取代法官的决定。该法官是将ChatGPT作为其验证与论证的工具,判决结果早已由法官确定。未来,AI将会在法院的科学证据判断、大样本案例参照等方面取得更大突破。[5]而在法律服务中,AI在基础的法律检索与研究工作中做得更出色,“不能因为机械效率高就用勺子挖运河”,法律服务将会走向更加精细化和定制化,部分岗位也将被法律工程师等新角色替代
4. ChatGPT所带来挑战:过程与结果的错配
所谓“当时只道是寻常”,就如同人类无法同时拥有青春和对青春的感受一样,以ChatGPT为代表的AI对现行法律带来的冲击与挑战,本质上是过程与结果的错配问题。科林格里奇提出并以其名字命名的困境(Collingridge Dilemma)很好地解释了这种错配关系,即新兴科技学技术的风险在其发展前期难以识别,虽可以对其进行控制却不知如何对其控制;而技术发展成熟后的控制要点逐渐明显,但由于技术在社会中根深蒂固,却已经很难对其进行控制。普林斯顿大学的计算机科学教授在对聊天机器人进行基本信息测试后所说的,“除非你已经知道答案,否则你无法判断它是错的” [6],亦是这种错配关系在AI问答的微观层面体现。原以为所谓新技术发展“日新月异”只是一种比喻,但近日谷歌抢先发布名为“Bard”的AI,微软宣布将ChatGPT接入Bing搜索引擎表明,数字时代这种过程与结果的错配挑战只会日益加剧。
5. 应对ChatGPT的挑战:伦理、法律与科技创新的关系
面对这一挑战,我们需要做的是回归到伦理、法律与科技创新之间的关系中进行思考。在法律与科技创新的关系层面,需要以更为谨慎、审慎的态度调整,避免在技术尚未成熟之时对其进行过多干预,[7]最终压制和扼杀新技术的发展。更进一步,还需要明确何种原则是法律维护并必须坚守的底线红线(如人的主体性),何种现行规则是成熟AI能够内化和介入的土壤,何种内在价值应为实在法和社会伦理不懈追求。
而在伦理与科技创新的关系层面,科技伦理的目的在于“以道驭术”,为法律而所不能为,为AI科技划定柔性的发展边界。一切社会关系都是人的关系,科技伦理亦莫能外,良性科技伦理的实现关键在于科技从业者、科技审查者的伦理。这其中,一方面是贯穿事前阶段的技术评估(Technology Assessment),由多元主体构成的技术专家“对权力诉说真理”(Speaking Truth to Power),注重在科技研发之初的应用场景选取时的伦理论证;另一方面,以事后事后阶段性、持续动态的伦理审查作为新兴技术的“控制阀”,增强对科技及时纠偏、中断和逆转的调控性。
6. 学术圈的ChatGPT应用
未来已来,以ChatGPT为代表的通用型人工智能介入社会生活已成定局,将会不可避免出现在科研、写作、绘画等多领域。直接关闭相关市场是最便捷、最自然的选择,如知名学术期刊Science直接禁止稿件使用ChatGPT生成文本。[8]但一味地严防死守、以事前禁止使用的方式规制ChatGPT将收效甚微。采取这种方式,学术出版机构将面临建立有效的人工智能生成内容检测工具的压力。相较而言,Nature明确指出无法阻止ChatGPT进入学术圈,转而对其应用场景与规制边界进行探索,[9]是一条可取的道路。
在对新兴科技的规制选择、以及版权法等问题之外,我们还应该思考的是,如果AI能够满足切身经历、想法或创意控制(Personal Experiences, Thoughts, or Creative Control)等成为论文作者的关键因素,并在将来能够满足学术论文在社会中的核心价值(传播知识与发现),以出版机构的规则来限制其作者身份是否有足够的正当性?毕竟,在保证人类主体性完整的前提下,最大程度开发和利用AI的潜在价值,才是对人与AI孰为工具、孰为主体的最好回应。
“人的行动逻辑是人特有的心智结构的产物”。[10]对于ChatGPT的创新性,我们需要担忧和进一步讨论的是其大范围应用后对人类“模仿”过程的替代、乃至对人类决策的替代。无论AI的创新过程与人类多么相似,其所提供的解决方案永远是被人类主动选择的对象,而不能代替人进行“选择”。倘若AI为人类提供了充分的决策选择,但人类已不再掌握创造这些决策的原始材料,那时的AI将会和Asimov小说“The Last Question”中Multivac的回路一样,无法被人类完全掌握,最终由AI喊出那句响彻宇宙的“LET THERE BE LIGHT”。责任编辑 | 吴晓婧
审核人员 | 张文硕
本文声明 | 本文章仅限学习交流使用,如遇侵权,我们会及时删除。本文章不代表北大法律信息网(北大法宝)和北京北大英华科技有限公司的法律意见或对相关法规/案件/事件等的解读。
▼往期精彩回顾▼北大法宝参与国家重点研发计划“立法公众意见综合分析与法律条文智能审查技术研究”
法宝重磅 | ChatGPT来了,法宝人工智能研究院告诉你真相
专访ChatGPT:2023涉外律师高度关注的十个问题,我给出了高质量回答
点击下方公众号名片
获取更多信息