可深了 | 科学将人工智能拖下神坛【一】智能的本来面目
引 子
人工智能是科学的产物,是当今炙手可热面向未来的技术,它承载着人们对技术颠覆生活的下一个期盼和恐惧。本咨询师充分肯定人工智能技术将超乎我们想像的巨大价值和威力;同时,否定公众对之神化的不科学认识。
本咨询师注意到公众中的很多人已经将人工智能的能力大大的神化,超出了其在科学范畴内可能的能力,很多从事思想、智能性工作的人因此对执业前途产生了极大的不安全感。
客观上,尽管人工智确实也会给不少思想、智能性工作岗位带来不同程度的冲击,这当中的很大一部分确属杞人忧天。因人们对人工智能的神化认识大大夸大了它的威力。
本咨询师籍此系列文章发表管见以抛砖引玉,希望我们能对人工智能这一科学的产物持有客观的认识,褪去神光,还其本来而面目。
这样,有助于我们对人工智能给各行业带来的可能变革有一个更科学的预期,至少减少一些不科学的误判和烦扰。本咨询师将以最熟悉的专利代理行业为主要分析实例。本咨询师相信,这也是对人工智能健康发展的支持和爱护。
作为系列文章,先分步提出主要观点,然后逐步对这些观点和相关理论进行必要论证、阐释、推演。
正名顺言
正名为先。
本咨询师以为,当前所谓的“人工智能”均未达成真正的智能,只能称作“高端自动化”或“伪人工智能”。但为了方便讨论,仍遵从大家的习惯,以“人工智能”称呼当前大家所认为的人工智能,即高端自动化。对不属于高端自动化的真正的人工智能,必要时加类似“真正”的字样以有所区别和强调。
本咨询师以为,当今以二进制计算技术搭建起来的人工智能名不符实。真正的人工智能终将实现,但须在二进制计算技术之外另辟新的智能决策技术路径。而目前还未看到真正的人工智能技术的端倪。
基本观点
基于当前二进制计算技术的人工智能,只能精确执行程序,因而不是真正意义上的智能,不具备真正的自主意识和自学习能力,不具备思想或创造性。最多只具备表象上的伪自主意识和伪自学习能力。
这就决定了人工智能不能真正完成涉及智能或思想的工作,不能真正完成创造性工作,例如文化艺术、哲学、科学研究、发明创造、政治、法律等方面的工作。更具体的例子可以包括专利代理人的专业工作,例如申请文件的撰写、翻译、答复审查意见、专利无效、专利诉讼等等。
人工智能可以在涉及智能或思想的工作、创造性工作中作为得力工具提供基础性的支持,大大提高人的工作效率。但这些工作中的最后一公里只能由真正具有智能的人走完。
智能,意味着在思想性活动中走完最后一公里的能力。当工作中涉及的智能、思想、创造性的程度比较深时,可能任务的全程只有1.5公里,或者更短。
人工智能最大的建树将在于不涉及智能或思想的工作的领域,不涉及创造性工作的领域,尤其是能够精确程序化的工作领域。
真正的智能工作是不能由算法或程序解决的。算法和程序有其局限性,只能解决一部分问题。而将思想、智能以算法和程序来穷尽的想法是不切实际的,哪怕只将任务限定在仅涉及思想和智能灵动之魂的一个小领域。
何为智能
认识人工智能,先要知道何为智能。我们看待人工智能时,常以一个朴素的眼光来判断:看起来聪明。
这种朴素认识,加上人对事物常会有的拟人化想象,便是公众对人工智能产生不科学认识和想象的主要根源。其中,对技术不了解和了解不全面也起了推波助澜的重要作用。
字典解释:智能指人的智慧和行动能力。其中,智慧指人辨析判断和发明创造的能力。
我们可以暂且放下字典解释。在讨论机器是否能够具备智能时,我们常能看到两条判断标准:自主意识、自学习能力。
通常我们认为一台机器必须具备真正的自主意识和自学习能力,才可能具备真正的智能。请注意,自主意识+自学习能力是智能的必要条件,是否能构成充分条件,可暂不讨论。同时,自主意识和自学习能力也是考量能力的重要因素。
当机器不具备自主意识和自学习能力的时候,它的能力范围是比较确定的,是很有限的。而当机器真的具备了自主意识和自学习能力,甚或具备了真正的人工智能,你就很难确定它的能力范围和能力潜力了。这是智能的威力和可怕之处。智能意味着无法想象的能力边界。
所幸真正的人工智能还未现端倪,所以包括专利代理人在内的从事智力工作的人还不用担心失业,至少三十年之内吧。
自主意识
真正的自学习能力至少需要具备自主意识,再加上获取信息的渠道和得到教导,至少是启蒙教导。信息渠道和得到教导看来并不太难。所以归根结底,关键还在于自主意识。
就智能而言,对自主意识的简单解读是:自己决定是不是执行指令,即:有能力不执行指令,而且会自主做出选择。如果没有思想和自主意识,只会按指令、程序行事,有可能做出新东西,但墨守成规所做出的新东西并不具备创造性。
这里,我们有必要给当前的人工智能所声称的自主意识和自学习能力定定性。它们之前都应当加一个“伪”字。
在二进制计算基础上搭建起来的当前的人工智能,其决策依靠执行算法程序。现在已经变得非常复杂的算法程序依旧是被精确执行的算法程序。不管算法从结构上多复杂,其决策机制依然是依据多个输入变量计算出输出结果。输出结果就是最终的决策。输入变量再多,计算过程再复杂,本质上还是各输入加权得到输出。
所谓当前人工智能设备产生自主意识的任何实例,均不是因为机器违背了人设定的程序指令,只是片面地从表象上看时,像是机器违背了人的指令。真正的情形是,所谓人的指令只是机器做决策计算时所依据的众多输入变量之一,而当被视为“人的指令”的输入项所配的权重过低时,机器执行计算程序得出的决策结果可能违背该项“人的指令”的指向性。
这就在表象上造成了机器违背指令从而具备自主意识的片面假象。而实际上,机器一直在没有思想也没有原则地忠实执行人设定的程序,只是设定程序的人配错了算法中的权重参数而已。
例 如
“X-47B成为历史上第一架成功在航母上着陆的无人机,这不是一件易事。
不过就在测试期间,有意思的事情发生了。两次成功的起降之后,Salty Dog 502加满了油然后继续测试,准备进行第三次着陆。一切看起来都很正常,人们都在美国海军布什号航母上等待着。然而意外发生了。
无人机没有在舰上着陆,而是选择降落在附近的Wallops岛空军基地。在AI看来,这个地点降落可能是更安全的选择。也就是说,这个AI认为自己的决定比人类的指令优先级更高。在我看来,这是迄今为止最接近天网的东西。”(引自AI都干过什么让人细思极恐的事)
X-47B的例子其实是这样的:按照X-47B的决策算法程序,“舰上着陆”指令是输入项之一,而其他输入项应当还有天气海况等环境变量,X-47B的自身情况,例如载油、载弹、设备完好情况,航母以及Wallops岛空军基地备降机场的情况等等。而在X-47B决策算法程序中,舰上着陆指令的优先级或者是权重过低了,各方面的输入配上权重后计算出的结果是降落到Wallops岛空军基地的得分更高,所以就飞到那里去了。有什么好大惊小怪的呢?
真的不是X-47B有自主意识,只是当初配错了权重系数,将“航母降落”指令的权重提高,其他输入项的权重调低就没问题了。好比火车撞车真的不是因为火车有了自主意识,尽管调度下达了正确指令,只是调度系统中间某个环节出现了问题或故障导致扳错了道岔。千万别把所有功过都推到人工智能身上,它真的担不起。
当前的人工智能自学习、自纠错等等,均是没有自主意识下的自学习、自纠错,与可以突破程序指令的真正的具有思想和创造性的自学习、自纠错存在质的区别。
当今自学习典型的包括数据训练集,就是将历史案例数据输入给机器,当机器碰到相同性质的场景时可以参考。本质上,数据训练集相当于将历史数据作为决策算法程序中的众多输入的一部分,各自配上了相应的权重系数,加入到决策计算当中,从而对计算结果产生影响。
当前的人工智能的自纠错,本质上还是按决策算法程序,高权重的一个或一组输入否定低权重的一个或一组输入的情形。
当然,当前的人工智能自学习、自纠错还可以包括按人所设定的决策算法程序依据输入来调整算法的参数,典型的,还可以包括调整子计算模块的参数等等,本质上达成输入项权重或算法修正。
归根结底,当前的人工智能,只能没有思想、没有创造性地忠实执行指令程序或算法来解决问题,不具备自主意识,也不具备智能。当前的人工智能对于程序或算法解决不了的问题永远无能为力。
重新审视智能
前已述及,自主意识是智能的基础之一。再前进一步,还应当看到:智能意味着具备不依照算法、程序、规则、逻辑来解决问题的能力。应补充说明:智能并不排斥利用算法、程序、规则、逻辑,但智能的精粹在于不依照算法、程序、规则、逻辑来解决问题。
简单问题可以依照算法、程序、规则、逻辑来解决,复杂问题很难甚至不可能依照它们来解决。面对和解决这些问题,只能依靠真正的智能。这也就是前面所提到的:人工智能可以在涉及智能或思想的工作、创造性工作中作为得力工具提供基础性的支持,大大提高人的工作效率。但这些工作中的最后一公里只能由真正具有智能的人走完。
智能,意味着在思想性活动中走完最后一公里的能力。当工作中涉及的智能、思想、创造性的程度比较深时,可能任务的全程只有1.5公里,或者更短。智能意味着无法想象的能力边界。当我们误以为已经出现了真正的人工智能时,从事智能工作的人确实真的需要担心工作前途。
后续,本咨询师希望可以与各位进一步深入认识真伪人工智能以及他们的能力边界,从而估量其对行业的冲击程度。
敬请期待
推荐阅读
硬见 | 技术与专利布局,iPhone X让苹果成为AI大赢家
在线等 | 女友最爱的美妆号死了,作为商标咨询师我能怎么办?
用知识产权的眼光
看世界
欢迎原创投稿,稿件一经采用,支付稿费
投稿邮箱:iptree@iptalent.com