律师使用AI:有哪些不得不避开的坑
点击蓝字
关注我们
编者按
法律的生命不在于逻辑,而在于经验。对时代需要的感知、流行的道德和政治理论、对公共政策的直觉,不管你承认与否,甚至法官和他的同胞所共有的偏见对人们决定是否遵守规则所起的作用,都远远大于三段论。法律包含了一个民族许多世纪的发展历史。它不能被当作由公理和推论组成的数学书。
——霍姆斯《普通法》
近期,美国佛罗里达州一位名叫Thomas Grant Neusom的律师,因在法律文件中使用了人工智能工具,面临了律师协会的纪律处分。
这件事迅速引发法律界的广泛关注和讨论,成为美国境内第一个律师因使用AI而收到处分的案例之一。
随着人工智能技术的迅猛发展,AI工具在法律行业的应用越来越广泛:从法律研究、文书起草到案件分析,AI正在改变律师的工作方式,提高工作效率。然而,佛罗里达这一事件暴露出在享受AI技术带来的便利的同时,法律从业人员也面临着新的挑战和风险。
律师运用AI时,可能会踩的坑
像GPT这样的AI大模型,既然能给律师提供强大的辅助作用,也能直接为当事人所用,但是无论AI到底多厉害,仍然还会生成虚假或误导性内容,从而引发伦理问题,损害社会公共利益、公共秩序,并可能引起法律纠纷。
互联网的无数数据库可能已经存在虚假、错误及失效的信息,不能保证数据的真实性、完整性、时效性、准确性、合法性等,从而导致AI生成虚假或者有偏见的内容,给出的信息不能确保完全真实可靠或出具误导性结论。
所以,律师在使用AI工具时,必须对生成的内容进行严格的审查和核实。尤其是在引用法律案例时,更需要确保其准确性和真实性。此外,每一种AI工具都有局限性和可能的误差。律师应该充分的了解所使用工具的原理、适用范围、以及潜在的误导风险,避免盲目依靠AI生成的内容。例如,人工智能驱动的法律研究工具可以加快初步研究,但律师仍必须分析研究结果并确保其准确性。
AI使用不当,或导致法律纠纷
AI也可能会引发数据安全风险等法律纠纷,可能会收集、存储、处理或泄露当事人提供的个人信息、隐私、商业秘密等敏感数据,导致数据安全风险。另一种可能是Ai会复制、转载、引用、或修改当事人提供的原创作品、发明创新、专利技术等导致知识产权侵权风险,还可能会利用上述信息进行商业化利用,非法交易,恶意竞争等造成法律纠纷或经济损失。其次,AI自身的局限,会给用户带来风险。
除了上述自身的机制局限,还有其他很多能力方面的受限。譬如,AI不能够检索律师或所在律所曾经办理的案件等私人数据库的真实案例,也不能够参与谈判、出庭应诉、调解、和解等需要现场处理的法律事务或突发事件。此外,Ai也无法决涉及刑民交叉和多种法律关系交集的疑难复杂案件。
另外,生成式人工智能系统基于复杂的算法运行,需要对机器学习原理有细致入微的了解,这对不熟悉计算概念的律师来说,可能是一条陡峭的学习曲线。
另一个重大问题是算法偏见的可能性,即人工智能系统可能会无意中延续或放大现有的偏见。这种风险在刑事司法等敏感领域尤为突出,因为带有偏见的人工智能可能会影响量刑建议或假释决定。此外,人工智能时代的客户保密问题也需要严格关注。
就业:可以部分取代,不能完全替代
就业:可以部分取代,不能完全替代
从就业方面看,人工智能具有众多优势,导致人们对法律行业内可能出现的工作岗位流失现象感到担忧。毕竟AI强大的信息整合和对话能力依托于互联网强大的数据库,数据库的海量信息远超出人脑的装载量,所以AI的认知能力普遍高于律师,效率高于律师,AI的智能成本低于律师的人工成本,所以简单标准化的法律服务可能被取代。
因此,AI虽然具有强大和惊人的搜索、归纳、分析、整理整理对话的能力,确实能够取代部分法律服务,但是AI永远无法完全取代律师。
就像霍姆斯在《普通法》开篇评论的一段话,可以很好地说明AI不能完全取代律师的底层逻辑——“法律的生命不在于逻辑,而在于经验。对时代需要的感知、流行的道德和政治理论、对公共政策的直觉,不管你承认与否,甚至法官和他的同胞所共有的偏见对人们决定是否遵守规则所起的作用,都远远大于三段论。法律包含了一个民族许多世纪的发展历史。它不能被当作由公理和推论组成的数学书”。
本文仅代表资讯,不代表平台观点。
欢迎转发(请注明来源)。
文案 | 梅雅君
审核 | Linda 橡树
排版 | Candy
联系小编:
010-88431370, 17319454776
投稿信箱,欢迎来稿:
v89@CBCGDF.org