杨利伟:我国可重复使用载人飞船最早2027年发射;Meta开源可免费商用大模型Llama2,将重塑大模型竞争格局 | 科研圈日报
· 航天
杨利伟:我国最新可重复使用载人飞船最早 2027 年发射
据“广州日报”消息,7 月 17 日,杨利伟在华南师范大学举行的教师培训开班典礼上透露,目前我国正在研制新一代飞船,预计新一代飞船将在 2027~2028 年飞行。他还表示,新一代飞船,会有承载 4 至 7 个航天员的运输能力。
据中国香港《南华早报》消息,中国载人航天工程办公室称,该航天器将可重复使用,可进行近地轨道和深空探测任务。2020 年,由长征五号运载火箭运载的全尺寸原型机成功完成了 67 小时的试飞。航天器原型机长 8.8 米,重 21.6 吨,使用了新的材料和结构,其耐热性达到中国神舟飞船的 3~4 倍,最多能搭载 7 名宇航员。这些材料在返回大气层时,可以承受高达约 1650 ℃ 的高温,而耐热结构的重量会减少 30% 以上。不过,该航天器将可以重复使用,返回舱经过检查并更换“涂层”后,就可以为下一次任务做好准备——在理论上,航天器的关键部件可以重复使用多达 10 次,大大降低了发射成本。(广州日报、南华早报)
· 人工智能
Meta 开源可免费商用大模型 Llama2,将重塑大模型竞争格局
7 月 18 日,Facebook 母公司 Meta 在其官网上宣布开源下一代 AI 大语言模型 Llama 2,并将其技术免费用于研究和商业用途。从即日起,人们可以直接下载 Llama 2 的模型系列(包括 Llama 2 和 Llama 2-Chat),也可以通过微软云平台 Azure、亚马逊网络服务(AWS)和 Hugging Face 等平台使用。
此次发布的 Llama 2 模型系列包含了 70 亿(7B)、130 亿 (13B)和 700 亿(70B)三种参数大小,相比于今年 2 月份发布的第一个版本 Llama 1,使用的数据多了 40%,且上下文长度也翻了一倍。其预训练模型(基本模型)接受了 2 万亿个 token(即单词片段)的训练,上下文窗口包含了 4096 个 token ,这决定了模型一次能够处理的内容长度。此外,Llama 2-Chat 接受了超过 100 万条人工注释的训练。根据 Meta 公布的 Llama 2 技术报告,作为开源模型,在几乎所有基准上,Llama 2 70B 的结果均与谷歌 PaLM (540B)持平或表现更好,不过与 GPT-4 和 PaLM-2 的性能仍存在较大差距。但 Llama 2 在推理、编码、熟练度与知识测试等方面的表现都优于其他开源模型。
目前,已有许多开源的大语言模型以 Meta 发布的上一个大语言模型为基础演化而来。Meta 为 Llama 2 提供商业许可后,其他公司可以自由地使用这一人工智能模型及其微调版本从事商业活动并获利;同时,这些开源模型也将推动 Meta 自身 AI 的快速发展。Meta 的首席人工智能科学家杨立昆(Yann LeCun)对此很兴奋:“在未来几个月内,人工智能的竞争格局将彻底改变,也许就在未来几周内。届时,将出现和那些非开源平台一样好的开源平台。”(Meta)
· 学术机构
中国科学院不再简称“中科院”
7 月 13 日,中国科学院自然科学史研究所网站发布消息称,中国科学院办公厅 7 月 11 日向全院发送了关于中国科学院简称的相关通知,部分内容如下:根据《国务院办公厅秘书局关于印发国务院机构简称的通知》(国办秘函〔2023〕18 号),国务院办公厅秘书局对中国科学院简称作了修订,修订后简称为中国科学院。请各单位、各部门知悉,并在工作中使用。按照通知要求,中国科学院全称和简称均为“中国科学院”,在今后的网站和新媒体内容发布时,请大家统一使用“中国科学院”。此前,在中国科学院官方发布信息以及媒体报道中,常使用“中科院”作为中国科学院简称。(澎湃新闻)
· 环境
本世纪末,全球将有 55 亿人接触到受污染的水
图片来源:Pixabay
据联合国估计,目前全球已于 20 亿人难以获得安全的饮用水。据《自然》新闻(Nature news)报道,近日的一项研究表明到 2100 年,全球将有 55 亿人接触到被污染的水,水污染问题将成为本世纪末影响全球健康的“定时炸弹”。
荷兰乌得勒支大学(Utrecht University)等机构的研究人员通过建立高分辨率全球地表水质模型,设置 3 种气候变化及社会经济发展的不同情景,预测了 2100 年之前全球地表水的水温、盐度、有机物和病原体污染指标。研究结果表明,虽然大多数发达地区的地表水质将有所改善,但贫穷地区的前景却不容乐观。到本世纪末,全球受到水体有机物和病原体污染影响的人口比例将达到 20%~44%。而无论气候变化和社会经济发展情况如何,撒哈拉以南非洲地区受到水污染影响的人口规模都是最大的。在最坏的情况下,撒哈拉以南非洲地区的水污染将增加 4 倍以上,受到水体污染影响的人口数量将达到 15 亿。相关研究已于 7 月 17 日发表在《自然-水》(Nature Water)杂志。(Nature news)
· 人工智能
微软亚洲研究院和清华大学提出全新大模型基础架构 RetNet,或将取代 Transformer
Transformer 是一种基于自我注意机制的新型神经网络架构,其在自然语言处理任务上的突破促进了目前 OpenAI 的 GPT 系列,还有谷歌的 PaLM、Meta 的 Llama 等大语言模型的开发。不过,Transformer 也并不完美:其并行处理机制是以低效推理为代价的,每个步骤的复杂度为 O(N);Transformer 是内存密集型模型,序列越长,占用的内存越多。
目前,研究者一直在努力开发下一代架构,希望保留训练并行性和 Transformer 的性能,同时实现高效的 O(1) 推理。近期,微软亚洲研究院和清华大学的研究者取得了重大突破。他们提出了 retentive 网络(RetNet),同时实现了低成本推理、高效长序列建模,以及媲美 Transformer 的性能和并行模型训练。据公众号“机器之心”消息,RetNet 引入了一种多尺度 retention 机制来替代多头注意力,它有三种计算范式:并行、循环和分块循环表征。并行表征使训练并行化,以充分利用 GPU 设备。其次,循环表征法在内存和计算方面实现了高效的 O(1) 推理。部署成本和延迟可以显著降低,同时无需键值缓存技巧,大大简化了实现过程。此外,分块循环表征法能够执行高效的长序列建模。研究者对每个局部块进行并行编码以提高计算速度,同时对全局块进行循环编码以节省 GPU 内存。
在训练过程中,RetNet 也能够比标准 Transformer 节省 25-50% 的内存,实现 7 倍的加速,并在高度优化的 FlashAttention 方面具有优势。此外,RetNet 的推理延迟对大小不敏感,从而实现了巨大的吞吐量。对于 7B 模型和 8k 序列长度,RetNet 的解码速度是带键值缓存的 Transformers 的 8.4 倍,内存节省 70%。目前,相关的研究已于 7 月 17 日发表于预印本平台 arXiv。(公众号“机器之心”)
· 人工智能
微软公布 Copilot 企业版定价,每名用户每月 30 美元
7 月 18 日,微软宣布旗下的 AI 工具 Microsoft 365 Copilot 将向企业版客户(包括 Microsoft 365 E3、E5、商业标准版和商业高级版客户)额外收取每位用户 30 美元/月的服务费用,新工具将包括访问 Office 应用、Teams、SharePoint、OneDrive 和许多其他生产力功能的访问。不过据“The Verge”网站消息,微软尚未确定 Microsoft 365 Copilot 的发布日期。
Microsoft 365 Copilot 将大型语言模型(LLM)与 Microsoft Graph 和 Microsoft 365 应用程序中的数据相结合,实现了对 Office 应用程序等的全面改革。微软表示,在过去的几个月中,大约有 600 名企业客户在付费早期访问计划中测试了 Microsoft 365 Copilot,包括毕马威(KPMG)、鲁门(Lumen)和阿联酋国家统计局(Emirates NBD)等。此前,在微软宣布 Copilot 的几天前,谷歌也宣布了将发布类似的人工智能功能,涉及 Gmail、Docs 等中的人工智能辅助文本生成,参与竞争的还有 ZOOM 等。微软在人工智能产业方面的巨大投资是导致其高昂定价的主要原因,目前微软正在研发自己的人工智能芯片,以降低后期成本。(微软、“The Verge”网站)
编写:陈卉妮、欧阳光、孙嘉悦、石云雷、魏潇
编辑:石云雷
封面图是长征五号遥二火箭从海南文昌发射场总装大楼转移至101发射工位的过程中拍摄,来源:维基百科
▽ 精彩回顾 ▽