腾讯研究院
其他
生成式AI:三块短板、两道难题、一个悖论
Insight,如下图所示),融资额高居所有细分领域第一位(来源:Dealroom.co)。去年美国前5大风险投资中,OpenAI、Anthropic(2笔)和Inflection
其他
对话实录:黄仁勋对话Transformer论文七大作者,探讨大模型未来
Uszkoreit:我们喜欢这个名字,我们只是随便起了一个名字,觉得它很有创意,改变了我们的数据生产模式,使用了这样一种逻辑。所有的机器学习都是Transformer,都是颠覆者。Noam
其他
AI创新理念与路线之争:有效加速,还是超级对齐?
2023年AI大模型快速迭代发展,渗透到人类生活的方方面面。面对超级AI的逐渐涌现,人类社会也呈现出不同程度的担忧,这其中逐渐分成了有效加速和超级对齐两个阵营。两大阵营的分歧最终在OpenAI高层人事变动中被投射到人们面前。有效加速与超级对齐分别代表了什么立场?这两种理念对我国AI发展有什么影响和启示?除了有效加速和超级对齐这两条路线,还有没有第三条?2024年1月25日,腾讯科技向善创新节——“AI创新理念与路线之争:有效加速VS超级对齐”专题论坛在线上举行。论坛由腾讯研究院、大连理工大学人文学院、中国伦理学会科技伦理专委会联合主办。论坛由三场主题报告和圆桌讨论组成。论坛具体讨论了有效加速与超级对齐的理念分歧和挑战,中国在AI科技创新和治理方面的实践经验以及面临的挑战,以及如何寻求一条更符合中国特色的人工智能发展路径等问题。我们将会议实录刊发在这里,供各领域思想者参考。论坛开幕腾讯公司副总裁、腾讯研究院总顾问杨健,大连理工大学人文学院院长、教授、中国伦理学会科技伦理专委会主任李伦出席开幕式并致辞。论坛开幕式由腾讯研究院研究员胡晓萌主持。杨健先生在致辞中指出,随着AI不断进步,尤其是超级AI的逐渐涌现,人类社会正遭受前所未有的挑战。OpenAI高层人事变动在科技界引起了轩然大波,掀开了AI创新理念之争的序幕。这场风波不仅仅是关于组织权力的争夺,更是关乎AI创新发展方向的根本性辩论——是“有效加速”,还是“超级对齐”。我们需要深入探讨这两种理念的历史由来与演进,并且结合中国国情和语境来分析两者的合理性、可行性以及它们在实践中可能遇到的挑战。期待通过这次论坛,能够激发出更多关于AI未来发展的思考,为中国AI科技创新与治理提供参考,为我们如何在技术进步与人类福祉之间找到平衡点提供思路。李伦教授在致辞中指出,随着ChatGPT的出现以及更新迭代,关于AI伦理风险的讨论又一次被引爆。AI伦理风险已经成为与气候变化以及核扩散等相提并论,并能够影响人类未来的全球性重大话题。针对这一局势,2023年多国共同签署了《布莱切利宣言》,这代表着AI伦理治理不仅应当走技术伦理治理的道路,也要走全球伦理治理的道路。ChatGPT之父奥特曼也将2023年定为“世界开始认真对待AI的一年”。面对AI的发展,目前出现有效加速和超级对齐两种思潮。有效加速崇尚技术创新,超级对齐认为AI的发展首先应当考虑其伦理影响和社会后果。人类要走向未来,就必然会在科技创新与风险治理的张力中前行,对于有效加速和超级对齐的讨论将有利于政策制定者和科技从业者。主题报告湖南师范大学道德文化研究院副院长、哲学系教授文贤庆,清华大学社会科学学院教授、清华大学科学与社会研究中心主任、科技发展与治理研究中心副主任李正风,之江实验室智能社会治理研究中心副研究员赵宇超分别进行了精彩的主题报告。文贤庆教授以“技术与人类:裹挟还是引领?”为题进行了主题报告。他系统梳理回顾了有效加速与超级对齐的理念起源与演变。有效加速认为社会的改变依赖技术,这种观念由来已久,自从20世纪初的未来主义之后,人们就开始不断关注现代技术对于人类生活的影响。二战之后的社会建设使人们相信技术可以进一步解放我们的生产力。当时,左翼加速主义者认为,资本主义阻碍了技术的发展,应当通过技术的发展埋葬资本主义,使人类社会进入新形态。英国右翼哲学家尼克·兰德(Nick
其他
Sora能引爆生成视频新纪元吗?
2月15日,创造了ChatGPT的OpenAI推出一款名为Sora的生成式人工智能模型,又一次引爆科技圈。Sora可以将文字提示词转化为视频,OpenAI发布的视频效果令人大受震撼,带来了AIGC的又一个高光时刻。2月22日,腾讯研究院AI&Society举办了Sora生成式视频新纪元线上圆桌。全网刷屏的Sora是什么,为何在同领域遥遥领先?Sora有哪些惊人的本领和玩法,技术上是如何实现的,又将颠覆哪些领域?嘉宾介绍:王
科技
加速分化:关于大模型走势的十个判断
月。公司由前DeepMind、前Meta科学家创办而成,具备深厚的技术背景。三位创始人皆具有大模型开发经验,参与过LLaMA系列大模型的开发。在基准测试中以81.2%超越了谷歌Gemini
其他
AGI万字长文:2024,趋势与展望
AI的商业模式可能更确定:模型市场、合成数据、模型工程平台、模型安全基于国产芯片的软硬件联合优化-固件生态是明确的机会端上智能目前最大的想象空间是成为全天候硬件24x7收集数据“人的模型”或是AI
其他
AGI万字长文:2023回顾与反思
可以以人的方式相互交流->自主搭建社会协作关系;最终实现模仿人->替代人。“斯坦福小镇”论文之后,一直有层出不穷的尝试,包括BabyGPT、AutoGPT等;OpenAI的Assitant
其他
为什么Sora不是“世界模拟器”?
model,强调预测action执行的结果。RL一边从真实数据中学习(第3行),一边从model中学习(第5行),以防model不准确造成策略学不好。论文题目:Integrated
其他
“视频生成器”表皮之下,Sora究竟意味着什么?
腾讯研究院资深专家Sora,源自日语的そら,空。色即是空。色、受、想、行、识,五蕴亦皆空。至大无外,至小无内,这个产品注定会给人无穷的想象空间。OpenAI
其他
2024是科技趋势与人类命运交叉之年?
指向对丰富的物理世界的认知与交互。在自然语言理解能力突破之后,不到一年时间,我们已经看到代码、图像、声音、视频甚至3D等多模态AIGC技术陆续迎来突破进展,“多模态的对齐和融合
其他
深度解读Sora官方技术报告:OpenAI的下一个王炸?
复杂场景和角色生成能力:Sora能够生成包含多个角色、特定运动类型以及主题精确、背景细节复杂的场景。它能够创造出生动的角色表情和复杂的运镜,使得生成的视频具有高度的逼真性和叙事效果。3.
其他
王小伟:日常的深处,重归人与技术的和谐关系
technology,认为人的道德行动也不是人能全部主导的。你做好事还是坏事也受到技术的影响。提出这一概念的背景源自荷兰国内关于可持续发展的大辩论。荷兰的英文名字不是The
其他
腾讯发布大模型安全与伦理报告:以负责任AI引领大模型创新
在1月24日举办的腾讯科技向善创新节2024“大模型安全与伦理专题论坛”上,腾讯发布了大模型安全白皮书《大模型安全与伦理研究报告2024:以负责任AI引领大模型创新》,并邀请业界专家进行圆桌研讨。白皮书由腾讯朱雀实验室、腾讯研究院、腾讯混元大模型、清华大学深圳国际研究生院、浙江大学区块链与数据安全全国重点实验室联合研究撰写,对大模型发展中的安全机遇与挑战、大模型安全框架和实践做法、AI伦理和价值对齐进行了系统性梳理,并展望了大模型安全与伦理未来趋势。(文末提供报告PDF下载)专家点评:AI技术将深刻地影响着我们工作及生活方式,如何保障人工智能安全是我们当前迫切的责任。要把这一理念转变为具体的行动需要有标准的制定,健全的安全管理机制,有效的实践经验带来的思路启发等。在该报告当中,我们把过往实践的安全积累与前沿洞察的变化融在一起,希望能够在大模型快速发展中提供一个安全视角,探明存在的问题与挑战,有哪些积极的应对措施,以及未来在整体安全,数据安全,监管立法,跨学合作方面寻找新的理念,为行业同仁提供一份参考。道阻且长,行则将至,让我们一起为AI时代奋斗,加油!——杨勇
其他
腾讯司晓:“相变”是下个时代的前情提要
98%,但上面的例子也恰恰能够说明,我们是通过最新的技术,通过AI技术,可以把普通人变成艺术家,变成设计师,变成一个有秘书的老板。大模型的横空出世将各种能力变成了一种随时随地可调用的服务,看似是
其他
腾讯发布:影响2024年的十大科技应用趋势|2万字全文
过去一年,我们见证了数字科技的加速度。每个人都身处变革巨浪之中,既对大模型的突破进展无比兴奋,也对未来充满了无限憧憬。新年伊始,眺望未来2-3年的科技趋势。我们正驶向一个由连接衍生交互、由计算催生智能的时代。高性能计算、量子计算、云计算和边缘计算这"四大计算“融汇贯通,正催生全新的计算范式。通用人工智能渐行渐近,大模型走向多模态,AI智能体可能成为下一代平台,
其他
关于企业数据权益的观念转变与三重误区
)3)企业间的数据共享利用,应当在保护用户个人权利的基础上,遵循自主契约精神,遵从企业间约定。开放平台方直接收集、使用用户数据需获得用户授权,第三方开发者通过开放平台Open
其他
从“互联网+”迈向“数据要素×”
Humby,2006)和“世界上最有价值的资源”(经济学人,2017)。然而,数据还在沉睡,有待开发。全球90%的数据从未得到分析使用(IBM,2015;DASA
其他
AI Agent,为什么是AIGC最后的杀手锏?
Agent无疑是当下大模型最激动人心的发展主线,被称为“大模型下一场战事”“最后的杀手产品”“开启新工业革命时代的Agent-centric”。11月7日,OpenAI首届开发者大会(OpenAI
其他
为什么价值对齐是大模型的必由之路?
Friedma在90年代提出,是一个概念(Conceptual)、经验(Empirical)和技术(Technical)循环往复的研究范式;类似的还有代尔夫特理工大学团队提出的Design
其他
智创沪联:AI的新现实——大模型价值对齐不可或缺
去年OpenAI开启生成式人工智能浪潮,由大模型带动的AI产业一路狂奔。行业快速发展过程中,如何让它的行为跟人类的价值真实意图、伦理原则相一致,这成为学术、政策、产业等领域多方关注的“价值对齐”问题。10月26日,由腾讯研究院华东基地、腾讯优图实验室主办的第一期“智创沪联”活动,在上海诺布中心正式举办。活动以“大模型价值对齐”为主题进行研讨,深入探寻价值对齐问题的创新性解决方案与法律伦理治理,确保AI技术符合社会预期,探索AI与人类价值间的平衡。多位来自AI领域前沿的学者、专家分享自己看法和研究成果。上海市人工智能行业协会秘书长钟俊浩在致辞中指出,在行业发展过程中,大模型的“价值对齐”作为一种推动各领域协同发展的有效手段,具有重要的现实意义和深远的影响,还将为全球合作与发展提供新的契机。上海交通大学副教授刘鹏飞指出,包括OpenAI在内的大部分人工智能推动组织,都在积极运用各种方案加强价值对齐的完善落地,诸如监督精调、基于人类反馈的强化学习、基于检索的事实对齐,以及尝试使用工具对模型进行对齐,都是现阶段被行业寄予厚望的“AI价值对齐”可执行方案。人机合作走向现实AI价值对齐不可或缺如何避免数据规模与算力不断提升的AI大模型遭到滥用、生产有害内容,已经是人工智能行业的核心议题之一。正因如此,能够有效增强AI大模型安全与实用性的“AI价值对齐”,才会成为行业关注的焦点。腾讯研究院秘书长张钦坤指出,价值对齐将成为AI产品的重要竞争力。因为,大模型价值对齐的实现,需要对齐技术(人类反馈强化学习、AI监督等)、训练数据干预、模型可解释、对抗测试等多种技术和治理措施的结合,同时未来还需要着重考虑如何通过更多的社会参与来形成价值对齐的共识,以及如何使监督、理解、设计AI模型的能力与模型本身的复杂性同步发展,以更好地对大模型进行有效的监督。“我们期待的是大语言模型可以和人类的价值、真实的意图相一致,确保AI技术可以可靠和安全地服务于人,并且确保社会经济可以健康地增长。”上海交通大学刘鹏飞副教授介绍道。刘鹏飞教授表示,随着生成式人工智能实用性不断增长,除了最基础的性能优化之外,价值对齐的重要性,也随着AI大模型的快速迭代迅速提升。缺乏对齐的大模型不仅会生成大量虚假甚至有害的信息,在高阶应用领域更会产生巨大的危险隐患。上海交通大学的闫宏秀教授则表示,技术的发展进步,始终遵循着消除风险、力求确定性的趋势,作为应对风险的有效方式,“信任”始终是人类的必选项。没有信任,技术发展的停滞几乎是必然的。让人工智能走向可信、可控、可靠,让人机合作走向现实,“AI价值对齐”正是其中不可或缺的一环。“以合乎伦理的结构性性能来夯实价值对齐的底层伦理逻辑,以对信任的理性认知构建价值对齐的边界。”闫宏秀教授总结道。让AI价值对齐落地多国用立法进行诠释多位嘉宾在论坛活动上表示,明确了技术路径,如何将技术理论结合实际需求尽快落地,无疑是现阶段“AI价值对齐”议题的发展重点。来自上海人工智能实验室治理研究中心的研究员滕妍指出,想要加速“AI价值对齐”的发展,除了“基于人类反馈进行调整”之外,让人工智能部分监督,或者协调人类技术进行监督,提供一些高质量的反馈数据来提高价值对齐能力,是目前各国热度很高的研究方向之一,包括OpenAI在内都对这个领域投入过不少关注。“除此之外,在‘确认大模型是否对齐’的评估环节,除了采用人工手段进行验证之外,通过专用的AI模型来进行评测,同样逐渐成为行业的趋势所在。”滕妍认为,从准确率来看,评测模型依旧有提升空间,但从执行与迭代的效率来看,利用AI大模型来加速人工智能价值对齐,前景十分可观。除了技术与伦理层面,在攸关社会现实运转的法律层面,“AI价值对齐”同样带来了全新的挑战,对此,来自同济大学法学院的助理教授朱悦,分享了最新的行业观点:“从国内的《生成式人工智能信息安全服务规定》,到欧盟的《人工智能法案》,再到美国头部企业的深度自治试验,在全球范围内,积极推动AI大模型技术发展的国家和地区,都将相关法令研讨提上了日程。而透明、可解释和可问责以及个人层面的隐私保护等详尽问题,都是现如今在立法过程中遇到的挑战。”朱悦指出,虽然在目前这个“AI价值对齐”依旧处于基础技术迭代的早期阶段,在法律层面上做出定论为时尚早,但从各国政府和跨国企业的积极性来看,通过立法对“AI价值对齐”进行诠释,并通过实践来不断完善,已经是行业的大势所趋。围绕AI对齐的方法论、监管实施等话题,来自上海复旦大学计算机系的肖仰华教授、上海交通大学的张拳石副教授、对外经济贸易大学法学院的许可副教授、安远AI资深研究经理方亮、蚂蚁集团全面风险管理部专家王炳浩,以及腾讯优图实验室的高级研究员李珂、腾讯研究院高级研究员曹建峰,通过圆桌讨论深入交换了观点见解,从不同角度出发,剖析并肯定了“AI价值对齐”对人工智能行业发展的重要意义。关注AI价值对齐科技向善再进一步AI价值对齐,是当前阶段人工智能领域最具挑战性的基础研究项目之一,需要广泛的学科和社会参与,其研究价值,更是攸关下一阶段更强大的AI能否得以安全控制,实现AI向善的长远目标。AI价值对齐所蕴含的伦理道德意义,也是与主办方腾讯研究院一贯坚持的“科技向善”理念吻合。根据腾讯研究院华东基地秘书长徐思彦介绍,腾讯研究院作为腾讯公司设立的智库机构,在上海设立了华东基地作为区域研究的交流平台,联合本地产学研各类机构,通过对话沙龙、课题研究和白皮书等方式,开展前沿科技、人工智能、未来城市、金融科技、工业互联网等多领域的研究。作为腾讯研究院华东基地打造的城市品牌系列活动,“智创沪联”论坛将定期邀请业界专家,探讨在科技创新不断的发展过程中,前沿科技的演变可能带来的商业模式的变化以及涉及的相关政策和法律问题。作为第一期的“大模型价值对齐”研讨活动,得到了上海市城市化转型应用促进中心、上海市人工智能行业协会、上海市数据科学重点实验室、上海市人工智能实验室治理研究中心,以及对外经济贸易大学数字经济与法律创新研究中心协办支持。会上,四位嘉宾分别从技术、伦理、评价设计和法律实践四个方面讨论了大模型价值对齐的问题。腾讯研究院后续将陆续推送。1.
其他
活动预告 | 智创沪联:大模型价值对齐研讨会
随着大模型开始像人类一样从事广泛的语言理解和内容生成任务,人们需要直面一个颇具科学挑战的问题:如何让大模型的能力和行为跟人类的价值、真实意图和伦理原则相一致,确保人类与人工智能协作过程中的安全与信任。“价值对齐”问题在学术、政策、产业等各领域获得更多关注。2023年10月26日,腾讯研究院华东基地将邀请相关领域专家学者举办“智创沪联”系列活动第一期“大模型价值对齐研讨会”。本次研讨会期待通过跨学科的交流与思考,共同探寻价值对齐问题的创新性解决方案与法律伦理治理,探索AI与人类价值间的平衡,推动人工智能的健康可持续发展。关于智创互联智创沪联是腾讯研究院华东基地为业界打造的前沿科技及数字化转型交流平台,以“产业机遇、场景实践、未来引擎”为脉络,链接政、产、学、研及生态伙伴,交流分享数字科技赋能新场景、新机遇与转型最佳实践,着重研究上海科创中心发展中带有战略性和前瞻性的问题,发挥数字经济引领作用。活动议程👇
其他
万字长文详解:大模型时代AI价值对齐的问题、对策和展望
Irving等人在论文中提出了通过零和辩论游戏的自我对局方式来训练智能体。即由两个AI代理针对给定的问题或建议行动轮流作出简要陈述直到回合尽头,人类来判断哪个代理的信息最真实、最有用。[15]Jan
其他
大模型时代的人机关系:不要温和地走进与AI共生的时代
AI)眼下正引发新一轮的兴奋和恐惧:当AI与我们一起生活和工作,又或者当AI成为我们城市的一员,这种被无所不在、无所定形的技术包围的感觉,助推了一种对于机器智能具备自我意识既期盼又恐惧的复杂情感。
其他
2万字对话实录:剖解ChatGPT时代的教育难题
ChatGPT是2023年互联网圈非常炙热的一个话题,它是一场前所未有的技术革命,对很多领域都可能会造成巨大影响。在其中,受到最大影响之一的领域可能就是教育领域。有了ChatGPT之后,我们的学习方式会发生变化,同时获取知识的门槛也会降低。除了上课,ChatGPT还可以被用来获取感兴趣的领域的知识。教育观念也可能要面临着前所未有的改革或者是变化。现在的教育体系是基于目前工业化的生产基础之上的,那么在智能化时代或者说智能化工具出现以后,未来的教育面临着哪些难题,以及应该怎么去破解?本期为《仲夏六日谈2023》系列推送第一期,《培养星际一代——破解数字社会教育难题》。嘉宾(按出场顺序):陈祉妍
其他
X"宣战"新闻内容:新闻业与社交媒体的爱与破裂
https://about.fb.com/news/2023/09/an-update-on-facebook-news-in-europe/[3]