科大讯飞刘庆峰:理性认识中美大模型差距,以长期主义打造AI生态
6月27日,科大讯飞在北京发布讯飞星火大模型V4.0及相关落地应用。科大讯飞董事长刘庆峰在发布会上坦言,V4.0全方位对标OpenAI的GPT-4 Turbo,然而,一旦GPT-5发布,因为其模型尺寸更大、训练时间更长、数据更多,又会把差距拉开,甚至拉到一年以上。
有研究机构预测,到2026年将有80%的企业应用通用人工智能,而今天这个数字只有5%左右,通用人工智能是大势所趋,有着巨大的发展空间。
在刘庆峰看来,是否有自主可控的国产底座能力做支撑,决定了我国在通用人工智能这条路上能走多远。在别人的通用大模型底座上发展生态,就相当于把大楼建在沙滩上,随时会倒塌。
去年9月份,OpenAI发布了GPT-4V,让其大模型在图文识别和理解分析能力方面上了一个大台阶,随后11月推出语音识别大模型Whisper,今年2月又推出了文生视频大模型Sora,5月推出GPT-4o……看起来是一个接一个的热点,实际上还是依托GPT-4的底层通用大模型能力。
“以Sora为例,并不是外界所说的其‘对物理世界的认知进一步加强了’,而是通过GPT-4V的理解能力和生成能力,结合GPT-4V的‘打标签’能力、传统的文生视频能力,用GPT方法做了重写,从而实现了Sora的能力。与大模型在医疗领域做一个医疗专用模型、在教育领域做一个教育专用模型并没有本质差别,只要有算力、有数据,这些都能实现。”刘庆峰表示,要发展中国的通用人工智能,整个产业一定要有大模型的底座能力,现在业界已经具备了做大模型所调用的各种专用小系统的能力,但是我们还要继续发力自主可控的通用大模型底座,这将决定我们在本轮通用人工智能发展中能走多远。
万卡集群已经成为支撑大模型迭代的基石。据了解,讯飞星火大模型V4.0基于首个国产万卡算力集群“飞星一号”训练而成。一般而言,万卡集群是指由一万张及以上的计算加速卡(如GPU、TPU或其他专用AI加速芯片)组成的集群式的高性能计算系统,主要用来训练数据量日益庞大的通用大模型。
据介绍,这种集群充分整合高性能GPU计算、高性能存储以及网络、智算平台等关键技术,将各类底层基础设施整合成为一台“超级计算机”,可支持千亿级甚至万亿级参数规模的大模型训练,有助于大幅压缩大模型训练时间,以实现模型能力的快速迭代升级。目前在国际市场,Open AI、Google、Meta等科技大厂,都争相部署万卡集群,用来支撑其在基座大模型及生态服务等方面的技术创新。
刘庆峰还强调,今天人工智能技术的发展绝不是一家公司可以把所有事情都做完的,在这个时代,做“帝国”注定要衰落,只有生态才能生生不息。“必须是自主可控的繁荣生态,才有中国通用人工智能的未来,我们要打造新的生态,包括源头技术生态、应用生态还有行业生态。”他说道。
刘庆峰在会上也公布了自讯飞星火大模型3.5版本发布以来的生态状况。据了解,星火开发者生态目前正加速增长,生态开发者数量从598万增长至702万,海外开发者数量从34万增至40万,大模型开发者数量从39万增至57万。
“我们既要科学理性地认识中美在大模型上的综合差距,也要有信心快速追赶,给出从源头技术、到产业生态、再到应用落地的一整套的打法,以长期主义来打造真正自主可控的AI产业生态。”刘庆峰说道。