活动回顾 | 第二届全国翻译技术大赛第七期培训内容回顾
第二届全国翻译技术大赛第七期培训已经结束了,没来得及参与直播的小伙伴们不要着急,培训直播回放、内容回顾及模拟题都在这里,欢迎大家学习!
第七期培训回顾
为帮助翻译从业者、爱好者及高校师生进一步了解翻译技术,同时为第二届全国翻译技术大赛参赛者提供备赛参考,中国翻译协会、中国外文局翻译院、北京第二外国语学院于4月起启动第二届全国翻译技术大赛系列培训。
第七期培训邀请华为机器翻译产品和AI数据技术专家谢凝以《生成式人工智能与提示工程》为题进行讲座。讲座概要如下:
生成式人工智能与提示工程
一、生成式人工智能概述
机器翻译是大语言模型之母。机器翻译经历了三个发展阶段:基于规则的机器翻译(1945-2010)、基于统计的机器翻译(1990-2017)和神经网络机器翻译(2014之后)。2017年提出的神经网络机器翻译(Neural Machine Translation, NMT)模型Transformer是BERT和GPT等大语言模型(Large Language Model, LLM)的根技术。讲座从任务类型、网络层数、参数量及上下文长度等四个方面对比了神经网络机器翻译与大语言模型的翻译工作原理,并详细解析了大语言模型的训练过程——无监督学习(Unsupervised Learning, UL)、监督微调(Supervised Fine-Tuning, SFT)、基于人类反馈强化学习(Reinforcement Learning from Human Feedback, RLHF)构建奖励模型(Reward Model, RM)和上下文学习(In-Context Learning, ICL)。
二、大语言模型在机器翻译任务中的应用
大语言模型在机器翻译领域展现出强大能力。通过对比大语言模型和神经网络机器翻译的翻译机制,可以发现大语言模型的翻译能力源于其强大的多语言语义理解和生成能力,而神经网络机器翻译则是从双语数据中学习翻译知识。大语言模型通常在高资源语言和领域的翻译任务中表现更好,而在低资源语言和领域则逊于神经网络机器翻译。由于大语言模型具有机器翻译、语言检查、译文润色等功能,并有更强大的篇章翻译能力,它将为翻译工作带来交互新体验,开启人工翻译copilot模式。
三、大语言模型的发展方向
未来,大语言模型有5大发展方向:建设多模态大模型、建设多语言大模型、建设具备更大参数和更长文本能力的大模型、通过智能体(Agent)释放大语言模型潜力以及促进大语言模型推理加速。
四、大语言模型的数据工程和提示工程
在数据工程方面,主要介绍了大语言模型在各训练阶段需要的数据类型,并解释了这些数据是如何助力模型训练的。在提示工程方面,主要说明了提示工程的工作原理,并介绍了认知对齐、指令对齐、习惯对齐、安全对齐、体验对齐等5种对齐方式,同时分析了提示工程的发展趋势。最后探讨了提示词基本写作框架和写作要求,框架包括下达指令(Instruction)、提供背景信息(Context)、提供输入数据(Input Data)、提交输出要求(Output Indicator)等内容,写作要遵循4C原则,即正确(Correct)、清晰(Clear)、有情境(Contextual)、使用思维链(Chain of Thought, CoT)以指导模型思考。
特别说明:本文仅用于学术交流,如有侵权请后台联系小编删除。
转载来源:中国外文局翻译院智能翻译实验室
转载编辑:余莉萱
审核:陈杲 陈毅强
文章推荐:
【02】Microsoft Office和WPS中大语言模型插件初探
【04】教你如何使用 Copilot
【05】ChatGPT 和 Gemini 达到专八水平了吗?
【06】国外主流翻译APP
【07】国内主流翻译APP工具
【08】在Trados中利用TM做预翻译
【09】平行语料库在口译实践中的应用
【10】语料库探索之语料对齐及分词赋码
【11】语料处理之语料采集与清洗
【14】国内外常见语料工具一览
【15】翻译人员不容错过的5个权威术语库
【16】国内外常见CAT工具一览
【18】Quicker使用技巧
【22】TermWiki:术语检索利器
【24】ChatGPT + Word = 高效办公
【25】如何利用聊天机器人制作双语术语表
【26】 ChatGPT在译前准备中的应用——术语准备
【27】投喂语料,提升译文质量
【28】(一)结合ChatGPT的译前编辑初探
【29】ChatGPT最新接入word方法(完美debug)
【30】AI外语写作助手,助力高效写作
【31】探索ChatGPT在翻译过程中的应用
【32】中科院学术优化本地部署
如您喜欢我们的内容,欢迎您点赞、在看、转发,更多问题可后台留言小编哦
资讯推荐
点个关注再走吧