查看原文
其他

人工智能发展简史

律小旭 人工智能法律研究 2023-01-13

本平台聚焦互联网和人工智能新时代、新生态法律的研究与服务,整合资源,跨界合作。系由曹旭律师团队运营,业务范围以一般民商事争议解决为基础,创新型中小企业法律服务、创业园区法律支持服务、互联网领域法律服务为核心。诚实守信,勤勉尽责,以最大的努力维护委托人的合法权益。

合作联系微信:soupain 

邮箱:105491396@qq.com

备注:本号原创作品。

作者:曹旭律师

首发:人工智能法律研究

阅读说明:本文节选自论文的一部分,读来并不有趣,但用极为精炼的语言准确描述了人工智能五段浪的内因。

人工智能的发展曾经历过两次低谷,目前正迎来第三个繁荣上升期。


发端和第一次泡沫破灭


1956年夏天,美国的达特茅斯学院(Dartmouth College)会议上,约翰·麦卡锡(John McCarthy)提出了“人工智能”的概念。1959年,麦卡锡发表论文阐述了完整的AI系统。之后AI机器人开始进驻工业生产线,甚至出现了能完成自然语言处理的AI程序。人工智能的第一次繁荣期持续了20年,但是逻辑理论下的人工智能系统难以工程化,耗费了巨额资金和漫长等待后,依然没有带来具有实际价值的人工智能系统。1974年应用数学领域的大师,詹姆斯·莱特希尔爵士在给英国科学研究委员会所做的报告中,用详尽的数据和调查结果狠狠批判了AI产业的发展现状,并且断言“人工智能研究没有带来任何重要影响。”这场报告发表后,引发了西方各国政府大幅度削减人工智能研究经费,林立的实验室接连破灭。人工智能发展进入第一个低谷。



第二次浪潮和低谷


为推动人工智能的发展,研究者设计了LISP语言,并针对该语言研制了Lisp计算机。到了80年代,这种广泛被看好可以实现自然语言处理、知识工程、工业分析的计算机类型,成为了商业追逐的风口。当时的日本凭借制造业和科技崛起,成功跻身世界第二大经济体,一度成为令美国恐慌的存在。1981年10月,在高精密制造、大型计算机、机器人等领域积累了丰富经验,抱着“下一次科技革命在日本爆发”信念的日本,宣告启动研制第五代计算机;并于1982年4月制订了为期10年的“第五代计算机技术开发计划”,总投资1000亿日元,并称其将会成为人类计算机历史上的伟大变革。消息传到大洋彼岸,为霸主地位受到威胁而深感忧虑的美国,将此称之为“科技界的珍珠港事件”。随后,受到刺激的美英等国政府投入巨资,疯狂批准了大量直到今天看来还是脑洞大开的人工智能研究项目。人工智能由此进入第二次繁荣期。人工智能相关的数学模型取得了一系列重大发明成果,其中包括著名的多层神经网络(1986)和BP反向传播算法(1986)等。


然而,Lisp计算机价格昂贵且难以维护,始终难以大范围推广普及。1987年到1993年间,苹果和IBM公司开始推广第一代台式机,随着性能不断提升和销售价格的不断降低,这些个人电脑逐渐在消费市场上占据了优势,越来越多的计算机走入个人家庭,价格昂贵的Lisp计算机由于古老陈旧且难以维护逐渐被市场淘汰。1992年,日本确实交付了“第五代计算机”工程,但其核心能力却达不到标准,并且已经失去了商业价值和应用场景。同时,1989年,日本经济泡沫达到顶峰破裂后,政府支持的研究经费开始大幅消减。国家角力暂时停歇,人工智能又一次步入低谷。


进入第三次繁荣上升期


进入21世纪后,随着信息技术快速发展和互联网快速普及,三大要素推动了人工智能进入了第三次繁荣上升期。


第一,是深度学习的崛起。


2006年,加拿大多伦多大学教授杰弗里·辛顿(Geoffrey Hinton)在《Science》杂志上发表 Deep Belief Networks 论文,提出了深度学习的概念,极大地发展了人工神经网络算法,提高了机器自学习的能力,开启了深度神经网络的新时代。随着算法模型的重要性进一步凸显,全球科技巨头纷纷加大了这方面的布局力度和投入,通过成立实验室,开源算法框架,打造生态体系等方式推动算法模型的优化和创新。目前,深度学习等算法已经广泛应用在图片识别、机器翻译、自然语言处理、语音识别、决策助手、生物特征识别以及计算机视觉等领域,并在某些特定领域取得了突破性进展。


第二,大数据时代的到来。


以深度学习为基础理论,模拟人脑大量神经元的层级联结结构,训练计算机自己从大量数据中高效地寻找模型和规律,其结果强烈依赖数据质量和计算能力。深度学习机制所需要的训练样本的数量非常之大。如果用于学习的数据量不够,就会产生“过度拟合”(overfitting)的问题,导致有局限性的或者错误的结果。而随着互联网、社交媒体、移动设备和传感器的大量普及,全球产生并存储的数据量急剧增加,为通过深度学习的方法来训练人工智能提供了良好的土壤。目前,全球数据总量每年都以倍增的速度增长,预计到2020年将达到44万亿GB。海量的数据将为人工智能算法模型提供源源不断的素材。


第三,算力的提升。


深度学习对于处理器芯片的运算能力和功耗提出了更高要求。深度学习机制的两大关键环节training(训练)和inference(推测)需要大量的算力支撑。人工智能领域富集了海量数据,传统的数据处理技术难以满足高强度、高频次的处理需求。人工智能芯片的出现加速了深层神经网络的训练迭代速度,让大规模的数据处理效率显著提升,极大地促进了人工智能行业的发展。相比传统的CPU只能同时做一两个加减法运算,GPU(图形处理器)等专用芯片多采用“数据驱动并行计算”的架构,特别擅长处理视频、图像类的海量多媒体数据。在具有更高线性代数运算效率的同时,只产生比CPU更低的功耗。随着人工智能应用场景的延伸,FPGA(现场可编程门阵列)和ASIC(专有化集成电路)同样有着相当大的表现空间。前者通过内置可灵活组合的逻辑、IO、连线模块为专用计算服务,主要用于移动终端;后者是不可配置的高度定制化芯片,比如谷歌推出的TPU(张量处理器)。

响应司法部和中华全国律师协会的号召,本号提供免费公益法律咨询。进入方式:点击菜单 “公益咨询 - 免费公益法律咨询”。

行业研究报告分享:

3 2018中国人工智能AI发展报告-清华大学中国科技政策研究中心-104页

关注本公众号,并向后台发送“报告3”即可获得。

4 2018美国机器智能国家战略白皮书(英)-60页

关注本公众号,并向后台发送“报告4”即可获得。

5 2018德勤AI趋势报告图(英)-11页

关注本公众号,并向后台发送“报告5”即可获得。

6 2017-2018 互联网类脑巨系统研究报告,互联网大脑、城市云脑和 AI-93页

关注本公众号,并向后台发送“报告6”即可获得。

7 2018省级政府网上政务服务能力调查评估报告-国家行政学院-2018.04-112页

关注本公众号,并回复关键字"政网"即可获得。


更多重量级研究报告,持续分享中......

曹旭律师原创作品集

本站原创文章,欢迎个人朋友圈转发分享。

刊物、机构或其他公众号如需转载,请联系授权事宜:105491396@qq.com

投稿及商务合作,请加微信sea-cho

如果要加入“人工智能法律研究与交友”微信群,请加微信soupain,备注或发送“加群ai+姓名+职务”。

如果要加入“法律星球”微信群,请加微信sea-cho,备注或发送“加群星球+姓名+职务”。

聚焦互联网与人工智能新时代、新生态法律研究与服务。包括互联网法律、人工智能法律、金融科技法律、区块链法律、AR/VR虚拟(增强)现实法律、物联网法律、车联网法律、智慧城市法律、智能制造法律、大数据法律、云服务法律等相关领域的研究与服务。

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存