从人训练AI,到AI训练AI,路还有多远?
前一段时间,老黄带火了“元宇宙”。
“元宇宙”这个概念影响了真实的世界,从“机械飞升”到“股价飙涨”。
但在老哥看来,“元宇宙”带来了一种可能性。
就是,从人来训练AI,进化到AI训练AI。
举个例子,自动驾驶,厂家需要路测,不是每个国家的法律都允许路测,不是每一条道路系统允许路测。
真实世界不行,但是元宇宙可以。
例如通过元宇宙构建一个真实的城市道路系统,从而做自动驾驶的AI训练,而不用实际去道路测试。
随便测,大不了从头再来。
用一个AI构建一个世界,去训练另一个AI认识这个世界。
这真是一个魔幻的世界。
1:生产力
知乎前两天有一个热搜问题,如何看待某二本同学本科发了十篇 SCI 并全奖直博某知名大学?
通常,在生化环材领域发表论文,需要大量昂贵的实验仪器和耗材,二本院校缺乏相应实验条件下,怎么发表这么多论文?
这个同学用的是Machine learning+专业的做法。
这种做法在物理、化学、材料、生物学甚至于力学方面都非常常见。
通俗来说:准备好数据,调用使用机器学习模型和神经网络,
分析这些机器学习模型输入和输出的关系,最终能够成功产出十篇SCI论文。
这就是AI在科研领域带来的生产力提升。
回到20年前那个时候,口号是:21世纪是计算机的世纪。
现在我们这个世界运行整个生产力,全部构建在计算机体系上。
各种工作形态都是在计算机上完成的。
计算机辅助1.0阶段,各种计算机软件工具辅助我们生产。
我们这个时代,游戏设计师设计游戏,作家写作,工程师制图,软件工程师编程,芯片工程师设计验证芯片,都是通过不同的工具软件在计算机上开展工作。
这些构建在计算机体系上的工具软件在不同程度,提升了工程师生产力;
在芯片设计方面,在最初的时候,芯片设计都是手动设计的。
有经验的工程师可以设计几十个门以及几百个门的集成电路。
而现代计算机体系带来的EDA工具可以协助人类设计出上亿门的集成电路。
这是计算机带来的第一次生产力提升。
去年,google发布了一篇文章
《Chip Placement with Deep Reinforcement Learning》。
用AI人工智能的方式,来做芯片后端设计。
总体来看,谷歌这项新研究提出了一种基于深度强化学习的芯片布局方法,并且能在6小时内完成人类专家需要几周才能完成的设计。
这项工作只是优化领域自适应策略的一个例子,可以扩展到芯片设计过程的其他阶段,如体系结构和逻辑设计、综合和设计验证等等。
google的这篇文章,毫无疑问,只是完成的芯片设计漫长流程的一小步,
这却是AI自我进化的一大步。
这个例子证明了AI在某个方面做的比人类专家做的更好。
很快我们可能将迎来第二个阶段。
计算机辅助2.0的阶段。
这个阶段核心的特征就是AI。
AI引入带来的生产力的第二次跃升。
2:工具
一方面是AI带来的生产力跃升。
另一方面则是AI的落地之难。
理想和现实,丰满和骨感。
如何促进AI落地,
俗话说,手里有一把锤子,看什么都是钉子。
用AI这把锤子,不论看到什么方向都打算去砸两下。
这个过程,叫做AI给传统行业赋能。
敲的很多方向,不尽如人意。
所有人都在说,AI要落地。
而不仅仅是飙算力,要算到XXXTops。
AI不能看成仅仅是计算的游戏,
把运算先抛在脑后,AI是什么?
AI是一种工具。
原始人遇到火,跨世纪一代遇到计算机技术,当代人遇到AI。
都是工具。
这个工具要趁手,要解决问题。
AI已经在视频监控(安防),自动驾驶这些方面,站稳了脚步。
智能眼镜,智能家电,智慧零售,能源勘探,智能硬件,智慧城市,也逐渐被渗透。
AI应用则要通过数据来进行功能迭代,形成数据闭环迭代。
还有哪些地方可以找到目标客户,尽快产生价值,实现方案落地,实现数据和模型的快速迭代。
这是是AI产业要回答的一个关键问题。
这不是一蹴而就,这是一个过程。
有枣没枣先打三杆子,
AI赋能万物。
打什么枣用什么杆子,
万物需要更趁手的AI工具。
3:代价
中国有句俗语,“熟读唐诗三百首,不会作诗也会吟”。
这句诗深得AI精髓。
前一句说明了AI首先要训练,训练就需要很大的标注数据“三百首”。
后一句就是AI的推理,效果如何?能够达到“作诗”或者“吟诵”的效果。
如果家里有个三五岁小朋友,家长能就立马领会AI,这两个是一样的教育思路。
AI也是一个小朋友,需要不断的训练,才能不断的成长和进化。
AlphaGo没有前面无数次棋谱的训练,也不能打败柯洁。
而AI处理的对象是现实世界,只有不断训练,迭代,优化,最终才能达到一个比较满意的结果。
人成长需要代价,AI亦然。
前几天接触了一个AI创业团队,他们切入的就是就是AI+医疗,传统的CT读片需要影像学的医生来判断阴性和阳性,他们就从AI读片开始,最终AI可以识别到某个病症,例如(影像学上乳腺癌的识别)达到98%的正确率。如果这些技术能够最终实现,可以很好的造福人类,协助医生来工作。
刚才这个结论看起来很简单,实际上要艰难的多,其中工作量最大的就是AI训练,例如给AI要送入标注好的影像的各种CT图片,然后需要告诉AI的模型,阳性还是阴性(图片显示是否)。
这个过程需要专业的医生的参与,否则工程师自身是没有办法确定这么专业的知识。
这个就是AI训练的代价,不可或缺。
一个曾经出国留学的朋友,在某AI公司,做语音的标定,得到这份工作,原因就是他外语比较好,正好给语音识别AI做数据标定。
“每天要将成百上千幅照片里的物体分门别类地圈出,再标注出来,比如花盆、地毯、茶几、沙发……这些标好的图片会被送进数据库,成为人工智能的学习素材。比如,当电脑看了几万个标注沙发的物体之后,它才能认识什么是沙发。”
这个就是人工智能训练工程师的日常。
随着人工智能的强化学习等具有无监督自我学习算法的兴起,对于数据的依赖性将减轻。
但是如果用AI来训练AI,逐渐替换人来训练AI。
用一个AI构建一个世界,去训练另一个AI认识这个世界。
例如开头的例子中,用元宇宙来训练自动驾驶AI。
形成正反馈。
这才是一种正确打开方式。
4:后记:华山论剑—GTC大会
今年的11月8日-11日,GTC大会将在线上举行。
老黄前两年提出的“DPU”和“元宇宙”都成为科技领域的热词,掀起了一股科技企业追逐热点的狂潮。所以,老黄在GTC大会上又会提出什么样的技术,让业界非常的关注。
此外,斯坦福大学的李飞飞会做主题报告。
李飞飞成名很早。
早在2012年,大规模视觉识别挑战赛上(LSVRC),Alex Krizhevsky、Ilya Sutskever和Geoff Hinton提交一篇论文,其结果以惊人的优势获得第一名,把图片分类错误率减少到16%,比前一年提高了10%,让整个学术界看到了AI的巨大潜力,要知道过去两年的进步只有2%;10%足以是一个跨时代的成果;这篇划时代的文章叫做,《ImageNet Classification with Deep Convolutional Neural Networks》用卷积神经网络对ImageNet进行分类。
这是一个划时代的进步!
ImageNet就是是斯坦福大学的李飞飞团队创建的一个图片数据库,所有挑战者都用自己的算法来对数据库里的图片进行分类,没有这个数据库就难以衡量AI的能力。
如果说Hinton被称作AI“教父”,那么李飞飞的贡献,我更愿意称之为 AI“教母”。
除了老黄和李飞飞之外,还有很多的学术界和工业界的大咖,齐聚GTC,很多领先的创新者和科学家都来分享想法,华山论剑。
今年的GTC大会上,可以看看哪些AI+的技术,工具,方案,能够迅速解决问题,获得收益。
AI带来哪些生产力的提升?
AI如何快速落地?
AI如何降低训练成本?
这些问题,GTC大会上可能都有不同的解答?
新的方法,新的工具,新的实践。
GTC大会,11月8日。
可待!
NVIDIA GTC大会免费注册现已开放,扫描以下海报二维码,即可加入本次GTC大会。也可以点击文末”阅读原文“进行注册。