去年这个时候,写了一篇小文《边缘计算或许是一把双刃剑》,今天可以更加明确的说,边缘计算的确就是一把双刃剑。要明白这个道理,我们首先要知道边缘计算到底是什么?这东西在不同行业、不同场景是如何应用的?不把这些东西搞明白,稀里糊涂的跟着瞎吹牛,那无疑是害人、害己、害社会。
上周,一位行业领导,给我发了介绍国内某著名工业互联网平台的资料,我看了之后,这样回复领导:吹牛的地方很多,我刚看了这两块,其他的就看不下去了,第一, 【边缘计算】:根本没说边缘计算,说的是物联网协议,而且边缘计算未必都好,它是一把双刃剑。第二, 【接入和建模】:接入讲了,建模没讲。前年,我接触了上地一家做语音声纹技术的公司,语音声纹主要是靠边缘计算来实现的,这种技术至少可以用在两大类场景,一是生物体(人和动物)的语音识别,尤其是基于特征的识别;二是设备场景,主要是解决与设备声响和震动有关的故障监测与判断。关于设备管理和检修,我们捣鼓了二十来年,我们坚信,不会有太多人比我们理解的更加深刻了。举一个很简单的例子,给大家伙加深一点印象,我们在说一段话的时候,实际上从嘴里冒出来的是一段时间序列信号,这一段时间序列信号,至少包括三个方面的东西,一是我们表达了什么,也就是语言和文字内容;二是我们的态度是什么?也就是我们语气语调,代表了我们的什么态度和情绪;三是谁是说话者?也就是我们不同于别人的语音特征,就像小平同志讲话,不管在什么场合,我们一听就知道这是小平同志过去的讲话。我们都认识很多四川的朋友,为什么可以准确的识别出小平同志的语音呢,更进一步说,这些个体的语音特征取决于什么?都有哪些构成因素,这就是前面所讲到的那家声纹技术公司,首先要解决的问题,因为每个人的语音(不考虑变声伪装),都有其固定的特征,这是我们在生活和工作中再熟悉不过的事情了。要识别这种情况,技术上所能采取的措施,无非就是两个:一是把我们讲话的时间域信号录制并传到后方,由人或者系统基于时间域、频率进行分析或者做特征识别;二是声音传感器本身,就能自动识别讲话者的语音特征,仅仅把拾取到的特征值传回后方,而不再传送完整的时间域语音信号,这种在语音传感器上加装的自动拾取甚至是识别的装置,就是所谓的边缘计算。双刃剑是什么意思?就是有好有坏,有优点也有缺点,优点很明显、缺点也很突出,甚至缺点会很严重。现在的边缘计算跟我们早期做EAM时用的阈值判断,已经完全不能同日而语了,目前所讲的边缘计算,一般而言,是经过大量同类现象的学习之后,把人工或者机器提炼出来的判断依据放置到更加靠近目标的地方,例如传感器上,传感器完成信号采集和特征识别的二合一功能,并把识别到的特征传回后台,或者现场的设备管理人员。
所以,我们初步理解,边缘计算的优点是,节省了传输带宽,不再需要高价值的宽带传输网络;其次是便于设备的现场管理,能更加紧密的结合人工巡检,做到对设备的及时性维护。但是,缺点或者隐患也是有的,首先,如果传感器上的前置模型可靠性存在问题,就会产生误报;其次,前置的边缘计算只传特征值或者判断结果,不回传获取的时间域信号,后台的AI系统就缺少了进一步学习的素材。也可以形象的说,边缘计算这个儿子做空甚至是架空了后台的老子;再次,由于后台老子被架空,也就无法持续、有效的更新前端儿子的功能,导致边缘计算的模型很难与时俱进,尤其是当工况环境发生变化时,例如一台设备边上通过技改又增加了一台设备,尤其是动静更大的设备,那么,就会大概率导致加装在原来设备上的震动声纹传感器失去其判断设备故障的能力和价值。感兴趣的小伙们们,可以参阅文章《当场景发生改变时,大数据和人工智能的数学模型有可能是靠不住的》。7. 要想搞清楚是谁终结了6500万年前恐龙的美好生活,还真不容易(京东藏宝斋,新浪博客)