查看原文
其他

2019年的AI趋势有哪些?吴恩达、LeCun等大咖这样说

药明康德AI 2019-06-30

本文转载自”机器之心“公众号


人工智能是孤注一掷的选择,它要么拯救世界,要么摧毁世界。


近日,VentureBeat与一些专家进行了对话,包括谷歌大脑联合创始人吴恩达、Cloudera机器学习负责人&Fast Forward实验室创始人Hilary Mason、Facebook AI研究院负责人Yann LeCun和埃森哲Responsible AI全球计划负责人Rumman Chowdhury。他们讲述了自己心中的2018年重要里程碑,以及对2019年的展望。


其中一些专家说道,他们很欣慰关于AI终结者说法越来越少,更多的人开始理解AI 能做与不能做的事。但是专家们还强调,该领域的计算机和数据科学家仍然需要在推动人工智能发展的过程中,继续采取负责任的伦理观。


Rumman Chowdhury博士


埃森哲Responsible AI全球计划负责人Rumman Chowdhury博士(图片来源:Twitter)


Chowdhury博士是埃森哲应用智能服务部门的董事总经理,也是Responsible AI的全球领导者。2017年,她被BBC列入“全球最有影响力的100位女性”名单。


Chowdhury表示,她很高兴看到2018年公众对人工智能的能力和局限性的理解有所提高,并发现人们对人工智能威胁的讨论也更加均衡——不再局限于电影《终结者》中机器将统治人类世界的恐惧。“随之而来的是,越来越多的人开始关注隐私和安全问题,以及人工智能在塑造我们以及后代方面所扮演的角色。”


然而,Chowdhury认为,公众对于AI的这些认知还不是最重要的。更重要的是,在 2019年,她希望看到更多的人利用教育资源来理解AI系统,并能够利用自己的智慧质疑AI所做的决定


AI生态系统中的科技公司和人们开始考虑其工作的伦理影响,这让她感到惊喜。但她希望AI社区更进一步,能够“从道德提醒到实际行动”。


“至于伦理和AI领域——除了电车难题,我希望大家能够深入研究AI将带来的难题——那些还没有明确答案的问题。如何在人工智能与物联网监控之间取得‘正确’的平衡?这种监控必须安全,但不应该强化现有种族歧视的惩罚性监控状态。我们应该如何调整先进技术的收益再分配,从而不会进一步加大贫富差距?应该将孩子暴露在什么程度的AI环境中才会让他们成为‘AI土著’而不被操控或同质化?我们如何用AI扩展教育并将其自动化,但仍让孩子的创造力和独立思考能力得到充分发展?”她问道。


2019年,Chowdhury预计全球将有更多的政府对技术进行审查和监管


“全球科技巨头所拥有的AI及其力量引发了很多关于如何监管产业和技术的问题。2019年,我们要开始想办法解决这些问题——当一种技术是多用途工具且结果受特定环境影响时,你如何监管?如何建立监管条例并确保它不会抑制创新或偏袒大公司(可以承担合规成本)而非小公司?我们要监管到什么地步?国际,国家还是地区?”


她还希望看到人工智能在地缘政治事务中继续发挥其作用


“AI不只是科技,它还是经济、社会的塑造者。我们在这项技术中反思、扩展和实施我们的价值。我们需要加深对技术及其影响的理解。要做到这一点,我们对AI行业的理解不能再局限于常见观念。


“我希望监管者、技术专家和研究人员意识到,AI竞赛不仅仅是算力和技术敏锐度,就像冷战不仅仅是核力量一样。我们应该以更公平、公正、平等的方式去重建这个世界,尽管这样的机会很稀有。逝者如斯夫,不舍昼夜。不要浪费时间。”


从消费者的角度来看,她认为2019年将会有更多的家庭使用人工智能。很多人会更加习惯使用如Google Home和Amazon Echo这样的智能语音助手以及其它智能设备。因此,她也很期待本月将于拉斯维加斯举办的国际消费者电子展(Consumer Electronics Show,CES)上是否会有什么有趣的东西出现。通过这个展会,人工智能可能会进一步融入人们的日常生活。


“我想我们可能都在等一位机器人管家的出现。”她说。


吴恩达博士


▲吴恩达博士(图片来源:LinkedIn)


吴恩达是斯坦福大学计算机科学系教授、谷歌大脑联合创始人、Landing AI创始人(该公司旨在帮助企业在业务流程中融入AI)。此外,他还是很多流行的在线机器学习课程的讲师,他还创办了deeplearning.ai,并写了一本书《Deep Learning Yearning》。2017年,他从百度离职,后创办了人工智能创业投资机构AI Fund,他也是自动驾驶汽车公司Drive.ai的董事会成员。


吴恩达认为2019年有望出现进展或改变的地方是:AI将应用于技术或软件公司以外。他认为,AI最大的待开发潜力在软件行业之外,并引用了麦肯锡报告:到2030年,它将会创造大约13万亿美元的GDP增长。


“我认为2019年在软件业之外的AI应用方面会发生很多故事。在行业中,我们已经帮助谷歌、百度、Facebook、微软等企业做了很多工作,而Square、Airbnb、Pinterest这样的公司也开始利用AI。我认为下一波创造价值的浪潮将出现在制造业公司、农业设备公司或医疗企业,这些企业可能会利用AI来开发多项解决方案帮助其发展业务。”


和Chowdhury一样,吴恩达也对2018年人们对AI能力的理解感到惊讶。


“我尝试审慎地列举一些我认为对实际应用非常重要的领域。我认为AI的实际应用存在很多障碍,而在这些问题的有些方面有很大进展。”


对于2019年,吴恩达希望看到AI/ML研究中两个特定领域的进展。一个是AI能在数据量少的情况下获得较高的准确率,即“few shot learning”


“我认为深度学习发展的第一波浪潮是拥有海量数据的大公司训练非常大的神经网络。如果你想要构建语音识别系统,在10万小时的数据上进行训练。想要训练机器翻译系统的话,就在大量平行语料库的句对上进行训练,从而创造出大量突破性的结果。现在,我看到在小数据集上出现越来越多的成果,即使你只有1000张图像,你也可以尝试做出点什么。”


另一个是计算机视觉领域的进展,即“generalized visibility”。一个计算机视觉系统可能在使用斯坦福大学的高端X光机拍摄图像时效果很好。很多该领域的先进企业和研究人员已经创造出超过人类放射科医生的系统,但它们并不是很灵活。


“但是如果你将训练好的模型应用到低端X光机或不同医院拍摄的X光片上(图像比较模糊,或者角度有偏差),那么人类放射科医生的表现会比现在的学习算法泛化性能好得多。因此我认为有趣的研究是尝试改善学习算法在新场景中的泛化性。”


Yann LeCun


Facebook AI研究院负责人Yann LeCun博士(图片来源:Facebook Research


Yann LeCun是纽约大学教授、Facebook首席AI科学家、Facebook AI研究院(FAIR)创始人。


LeCun认为FAIR执行的开源策略帮助推动其他大型技术公司的开源之路,他认为开源可以促进AI领域的发展。


“开源促进整个领域更快地发展,因为更多的人可以就研究进行沟通交流,这会产生非常大的影响。今天大家所看到的AI领域发展速度主要是因为更多人更加迅捷、高效地互相交流,同时做了更多的开放性研究。”


关于伦理,LeCun很高兴地看到大家能够考虑研究的伦理影响以及带有偏见的决策的风险性


“人们应该注意伦理问题,这在现在已经成为共识。而两三年前情况完全不同。”


LeCun称,他认为AI领域的伦理和偏见不是需要立即采取行动的大问题,但是人们应该为此做好准备。


“我认为……有一些亟待解决的关乎生死的大问题,但是伦理和偏见问题终有一天会到来,我们需要……理解这些问题,并在它们发生之前防患于未然。”


和吴恩达一样,LeCun想看到更多灵活的AI系统,它们不需要特定质量的输入数据或固定条件也能获得准确的输出。


LeCun表示,研究者已经可以很好地利用深度学习管理感知,但缺乏对完整AI系统整体架构的理解


他认为,教会机器通过观察世界来学习需要自监督学习或基于模型的强化学习


“不同的人对此的称呼不同,但本质上人类婴儿和动物通过观察和分辨大量关于世界的背景信息来学习世界的运作原理,我们不知道如何让机器学会这么做,而这是一项重要挑战。AI和机器真正取得进步的一个重要标志是具备常识,以及虚拟助手可以更流畅自然地谈论更多话题、参与更多讨论。”


对于帮助Facebook内部运营的应用,LeCun称自监督学习的巨大进步以及仅靠少量数据也能返回准确结果的AI系统将非常重要


“在解决整个问题的过程中,我们希望能够找到一些方式来减少任意任务所必需的数据量(如机器翻译或图像识别任务等),我们在这个方向已经有所进展。我们已经通过弱监督或自监督学习对Facebook所用的机器翻译和图像识别系统带来了好的影响。所以这些并不是长期的,它们在短期内就可以带来效果。”


LeCun希望未来能够看到AI在建立因果关系方面有所进步。这一能力不只是通过观察习得,而需要对事物有实际的理解。例如,如果有人打伞,那就有可能下雨了。


“这非常重要,因为如果你想让机器通过观察学得世界模型,那么它必须能够了解它对改变世界状态的影响以及有些事情不能做。如果你在一个房间里,面前有一张桌子,桌上有一瓶水,那么你知道你推一下水瓶,它就会移动,你不会想去移动桌子,因为桌子又大又重,这样的事情都与因果关系有关。”


Hilary Mason


▲Cloudera机器学习负责人&Fast Forward实验室创始人Hilary Mason(图片来源:Twitter)


2017年Cloudera收购Fast Forward实验室之后,Hilary Mason成为Cloudera的机器学习负责人。虽然已经被并入Cloudera,但Fast Forward Labs还在继续运营,为用户提供应用机器学习报告和建议,帮助他们看到未来半年到两年的发展方向。


2018年令Mason感到惊喜的人工智能进展与多任务学习有关,利用这种技术可以训练单个神经网络在推理时应用多个标签,如在一幅图像中看到的多个对象。


Fast Forward实验室为用户提供的建议也包含AI系统的伦理影响。Mason越发意识到创建AI伦理框架的必要性。


“自从五年前Fast Forward创立以来,我们的每一份报告都包含伦理内容,但直到 2018年,人们才真正开始重视这个问题。我认为,2019年我们将开始看到结果,以及针对对此熟视无睹的公司或个人的问责机制。”Mason说道:“有一点我没说清楚,就是我希望数据科学和AI的实践应该按某种方式演进,即科研人员和商界领袖都能在利用AI创造产品时将伦理、偏见以及这些产品的发展考虑在内,这在今天还不是惯例。”


2019年,更多AI系统将成为商业运营的一部分,Mason希望产品经理及主管可以为AI的前沿发展做出更多贡献,因为他们的职位提供了最大的便利。


“显然,对整个产品了如指掌而且懂商业的人知道什么样的产品有价值,他们处在可以决定投资方向的最佳职位。如果让我预测,我认为那些使用电子表格一类的东西进行简单建模的人会变得非常低能,他们很快也会在发现自己产品中的AI机会方面变得非常低能。“


AI民主化,或者说将AI扩展到企业数据科学团队以外的部门,是一些企业所强调的,包括Kubeflow Pipelines和AI Hub等谷歌云AI产品,以及CI&T公司为确保人工智能系统在公司内部得到实际利用所提出的建议。


Mason还表示,越来越多的公司将需要构建管理多个AI系统的结构


与之前描述运维人员所面临的挑战类似,Mason说道,可以使用手动部署的自定义脚本来管理单个系统,cron作业可以管理几十个系统。但当你在一个具有安全、管理和风险要求的企业中管理数十或数百个系统时,你需要专业而强大的工具。


企业正从招揽有能力或才华的人才转向系统地追求机器学习和AI机会。


由于Cloudera最近推出了基于容器的机器学习平台,所以对Mason来说,强调部署AI所需的容器是有意义的。她认为,这一趋势将在未来几年持续下去,因此企业可以在本地AI和云端AI部署之间做出选择。


最后,Mason认为AI的商业化将会持续下去,而且将涉及整个行业的惯例,而不是单个公司


“我想我们将会看到AI专业实践的继续发展。现在,如果你在一家公司做数据科学家或机器学习工程师,然后你跳槽去另一家公司,你的工作将会完全不同:不同的工具、不同的预期、不同的报告结构。但我想我们还是会看到一致性。”她说。


参考资料:

[1] AI predictions for 2019 from Yann LeCun, Hilary Mason, Andrew Ng, and Rumman Chowdhury. Retrieved January 3, 2019, from https://venturebeat.com/2019/01/02/ai-predictions-for-2019-from-yann-lecun-hilary-mason-andrew-ng-and-rumman-chowdhury/


更多精彩文章:


血液肿瘤重大突破!机器学习助力RNA测序,精准锁定癌细胞

GPU让小鼠大脑模拟再上台阶:功耗仅有超级计算机的十分之一

年度盘点 | 2018年,人工智能和医疗领域里发生了这些大事!

IBM新研究:仅凭手指甲就可以监测身体的健康状况,还能预防帕金森病?

蜜蜂只用四个神经细胞就能数数了,你数学为啥还考不好?


大家关注的公众号越来越多,找不到“药明康德AI”怎么办?简单四步,将“药明康德AI”设置为星标公众号,问题即可解决。



    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存