查看原文
其他

AIGC的“卷”,也许是很多律师想不到的

白粥 增长律
2024-08-26


这是 增长律公众号 的第 368 篇原创文章

作者:白粥  编辑:白粥


哈喽大家好,好久不见,最近在没有发文章的日子里,一直尝试调试更多层面的AI工具。而几天前的两条信息,让我不由得暂停了手上的调试工作。


第一条信息:


一项来自Epoch AI Research团队的研究抛出了一个残酷的事实:模型还要继续做大,数据却不够用了。


研究人员预测了2022年至2100年间可用的图像和语言数据总量,并据此估计了未来大模型训练数据集规模的增长趋势。


结果表明:高质量的语言数据存量将在2026年耗尽,低质量的语言数据和图像数据的存量将分别在2030年至2050年、2030年至2060年枯竭。


随着新一轮AI热潮来临,大量训练数据已成为AI算法模型发展和持续推进的“燃料”。从GPT的实验发现,随着模型参数量的增加,模型性能均得到不同程度的提高。


其中值得注意的是,通过来自人类反馈的强化学习(RLHF)生成的InstructGPT模型,比100倍参数规模无监督的GPT-3模型效果更好,也说明了,有监督的标注数据是大模型应用成功的关键之一。


如果以上预测是正确的,那么毫无疑问,数据将成为做模型继续做大的主要制约因素,AI的进展也会随着数据量的耗尽而放缓。


根据第一则信息,我们律师朋友可以配合并提前筹划的是:


1.高质量数据库的个人端梳理


2.数据标注或将迎来爆发,可以适当学习


随着数据量的不断增长和数据结构的不断变化,数据标注行业涉及的领域也越来越广泛,特别是在自动驾驶、AIGC等领域内,数据标注需求量极大。


作为AI大语言模型高质量回答的基础,数据标注的生产过程主要包括四个环节:设计(训练数据集结构设计)、采集(获取原料数据)、加工(数据标注)及质检(各环节数据质量、加工质量检测)。


其中,数据标注需要识别图像、文本、视频等原始数据,并添加一个或多个标签为机器学习模型指定上下文,帮助其做出准确的预测。


当前,大部分数据标注任务仍然需要人工完成,而且各种数据类型和应用领域都需要相应领域的专业标注员来完成标注任务。


第二条信息:


2022 年,Bai et al. 的论文《Constitutional AI: Harmlessness from AI Feedback》最早提出使用 AI 偏好来训练用于强化学习微调的奖励模型,该技术被称为根据人工智能反馈的强化学习(RLAIF)。


这项研究表明,通过混合使用人类与 AI 偏好,并组合 Constitutional AI 自我修正技术,可让 LLM 的表现超越使用监督式微调的方法。不过他们的研究并未直接对比使用人类反馈和 AI 反馈时的效果,于是能否使用 RLAIF 适当地替代 RLHF 就仍旧是一个有待解答的问题。


Google Research 决定填补这一空白,凭借强大的实验资源,他们直接比较了 RLAIF 和 RLHF 方法在摘要任务上的表现。结果发现,RLAIF可以在不依赖人类标注员的情况下,产生与RLHF相当的改进效果。


当前,RLHF已经成为微调大模型的核心方法,包括ChatGPT、Bard等模型都采用这一范式。


并且,在诸多大型语言模型训练中一个关键部分便是RLHF,人类通过对AI输出的质量进行评级,让回应更加有用。这就需要付出很多人的努力,包括让许多标注人员暴露在AI输出的有害内容中。


既然RLAIF能够与RLHF相媲美,未来模型大概率不需要人类的反馈,也可以通过AI自循环来改进。


不到一周时间,第二则信息的公布,我们会发现,我们需要学习的“传统”数据标注技能,已经被AI自循环取代了。


这时,我已经陷入深度怀疑中,是不是唯一搭建的数据库,在“内网”和“大厂”眼中,不过是皇帝的新衣。反推,高质量数据内容才是需要我们重点关注和持续不断积累的。


设想,以后大量的常规普法内容一分钟可以生产成千上万条,甚至时事热点新闻可能刚上线各大热点榜单,三十秒内就产出相关案例,法条等普法内容,一分钟内各大数字人产出相关解读视频。


给律师们留下创作相关内容的时间有多少?这些内容又如何与AI产出的内容进行区分?


面对新一代不停歇的技术浪潮,没有人可以躺着挣钱。每一次技术迭代冲击的背后,其实都暗中标注好了相应的“价格”。


现在,当我们在使用AI产出、调整内容时,可能很多律师朋友会感觉 AI 产出的内容可用性低,且有时产出质量不稳定,我们会觉得AI不过如此,不可能取代我们。


但其实,有没有一种可能,是因为你还没有把 AI 彻底玩明白?


比如,类似 Few-Shots 调教指令,可以让 AI工具在进行内容输出时,与以往大不相同,简单理解就是“给你一点小提示”。


在类似Few-Shots 指令下,用户往常直接用人类的语言下达命令,例如“给我写首诗”,“给我做个请教条”。


但是,我们可以在命令的过程中用一些人类语言,增强AI的效果,例如“在输出答案之前,你先每一步都想一想”。只是增加这样一句话,AI的答案效果就会明显提升。


这样类似的指令还有很多,其背后原理知道最好,不知道也无伤大雅,但重要的是,需要我们会在AI工具中进行应用。


我其实更相信,不可能取代我们的是「今天」的AI工具,而不是以后的AI工具。在新一代的技术浪潮下,以后能取代我们的AI工具,可能正逐渐缩短「明天」的距离。


当技术不断迭代后,相信不会被技术取代的,大概率是掌握技术思维的人。


近期没有公开发言的日子里,一方面在尝试测试更多层面的AI工具,比如搭建团队机器人、AIGC音频测试等;另一方我觉得,其实律师朋友们不需要陷入一种莫名的“焦虑”与“愤慨”中。


我们现在更需要的是,沉下心,能够用自己的思维模型/知识框架/提词库,提升AI工具的产出质量,辅助自己进行效率更高,质量更好的内容创作,不断沉淀,足够应对当下多变的时代。


▲近期在飞书中调试的「内部知识官」


如果你还没有掌握提示词,想要对AIGC工具进行初步的了解,进入ChatGPT观察者专栏,我们写过大量详细的教程与介绍。


大部分内容对律师朋友具有一定门槛,看起来比较复杂,但是掌握后却能大幅度的节省时间,提升整体效率。


而关于思维模型的搭建,也许每个人需要的工具都不大相同。特别是大部分律师朋友们,经历过大多案件的挑战,眼界与思维常常会陷入自己的“误区”中。


那么,如何在思维与精神层面获得释放与延展,也许无法依靠文字、操作技巧这些能够满足,目前增长律能够找到的一种方式——工作坊,也许能够帮到我们。


如果你对工作坊对ChatGPT,还有更多的问题和想法,也欢迎添加我的名片。


当然也欢迎提供更多法律行业内的案例,我可以简单拆解,可能你抛出的问题与案例,正是下一篇文章的主题与内容。


活动详情


时间:2023.9.15~16(周五晚上+周六白天)


地点:德必大陆宽窄we(成都数字文化艺术中心)



助力阵容:增长律核心团队;引导师;视觉笔记师;摄影师;用户体验师;设计师


主题:蓝海之旅——增长律工作坊×线下探索版 2.0


议题:打开自己,放松头脑;机会感知,路径设计;制定计划,执行追踪;等等


活动对象:律师、律所管理人、律所运营;法律咨询机构或运营机构人士


活动费用:

9月13日~15日报名:899元/人

9月13日前报名:699元/人

老同学报名:599元/人(也可转让一人享此价)

青年律师(执业2年内)报名:299元/人

※ 午餐自理


活动咨询、报名

欢迎扫码白粥沟通



点击下方卡片关注增长律,一起成为独角兽律师


继续滑动看下一个
增长律
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存