查看原文
其他

这些人怎么这么“恨”华为?

中生代大白 大白聊IT
2024-08-23

近日,网上流传一张图片刷屏上热搜了,据称是华为鲲鹏昇腾开发者大会的技术讨论,华为展示mXRAG SDK功能,展示如何通过十几行代码即可完成RAG应用开发,其中一张照片引发热议,其中time.sleep(6)这个代码,引发开发者讨论热潮!网友们认为,这个代码意味着“人为控制从输入到输出,过程6秒钟”;

大白特意找到了当时演示时候的视频,演讲者在程序运行中现场按下Ctrl+C中断,然后输入提示词,“帮我找一张小朋友的照片,并生成骑士照”

视频第18秒时,在演讲者执行命令后,生成了output.jpeg

一段没什么大问题的演示,却被一帮带节奏的黑上热搜,一张不知来路的网传图到处传播,说华为文生图模型读取了本地准备好的图片,于是一众黑粉沸腾了

更有阴阳怪气的开发者,还写了一个库说是把Ctrl+C中断时的traceback信息最后一行替换掉,省得显示出sleep(6)这种代码时的尴尬...

无独有偶,之前有一期文章讲到美国拟对华为全面封锁芯片,居然有留言说这是好事!!!

还有人黑问界M7事故,不见遥遥领先霸气回应,还有几十个点赞


对此次事件,华为昇腾社区做了正式回应

这是一场开发者大会,做的是技术讨论,演示的是mXRAG SDK,

mxRAG SDK 是华为在鲲鹏昇腾开发者大会上展示的一个功能,旨在展示如何通过十几行代码即可完成 RAG 应用开发。该功能的演示面向开发者,调用的是开源大模型,现场图片为实时生成,而非调取预置图片。代码中出现的 time.sleep(6)表述,是命令等待读取外部开源大模型实时生成的图片。

mxRAG SDK 功能是基于开源大模型实现的。然而,声明中并没有明确指出具体是基于哪个开源大模型实现的。

mxRAG 的功能为检索(Retrieval)、增强(Augmentation)和生成(Generation)。这一能力是目前开发大语言模型(LLM)所需的重要能力之一。一些学术资料显示,LLM+RAG 被应用于包问答系统、聊天机器人、事实验证、金融领域的决策支持等多个领域,未来还可以提高模型的可信度,开发多语言和多模态的 RA-LLMs 等。

尽管华为已公开回应,对于此次事件,网上多种观点仍在辩论。一些行业人士认为,time.sleep(6)可能是为了确保程序在演示过程中不会出现意外情况,而预设的一个缓冲步骤。这样的做法在技术演示中并不少见,目的是为了展示过程的平稳和可控。也有专家指出,大模型的计算和生成过程确实需要时间,而 time.sleep(6)可能是为了展示模型计算的实际耗时。在 AI 领域,模型的计算速度是衡量技术先进性的重要指标之一。但同时也有开发者认为,文生图过程理论上“完全没必要 sleep(6)”。

截至目前,华为此次展示的 mxRAG SDK 功能,还未在开发者资源下载中心上线。而由于昇腾社区暂未公布源代码,开发者目前也仅能通过网传代码截图进行经验判断和讨论。

AI大神贾扬清力挺华为!

贾扬清,1983年出生于浙江绍兴上虞,毕业于清华大学,中国内地 AI 科学家、原阿里巴巴副总裁、阿里云智能计算平台事业部总经理、阿里巴巴开源技术委员会负责人。

贾扬清在博士期间创立并开源了深度学习框架 Caffe,被微软、雅虎、英伟达、Adobe 等公司采用。2013年,贾扬清博士毕业,加入之前就已实习了2年的 Google,在 Google 首席架构师 Jeff Dean 麾下任职。2016年2月,贾扬清从 Google 离职进入 Facebook。2019年3月,贾扬清离开硅谷,加入阿里巴巴,担任副总裁一职,负责大数据以及 AI 方向的技术、产品和业务。2023年3月21日,贾扬清通过个人社交圈表示正式辞任阿里技术副总裁等一系列职位。2024年2月16日,OpenAI 最新的 Sora 大模型发布,贾扬清表示,Sora 这类文生视频大模型的出现会推动 AI 基础设施的需求猛增。

素材来源官方媒体/网络新闻
继续滑动看下一个
大白聊IT
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存