查看原文
其他

你手中的代码,可能变成他们的子弹

小神经 超神经HyperAI 2019-05-13

By 超神经


今天在新加坡进行的朝美会谈,美国总统特朗普与朝鲜最高领导人金正恩进行历史性会晤并签署文件。


近期的国际局势,真的会因为今天的历史性握手,而太平么?其实我们一直关注和投身的 AI ,作为一项民用科技中发展出的技术,正前所未有的接近军事战争。


34 岁的金正恩与 72 岁的特朗普,代表敌对了近 70 年的朝鲜与美国,在新加坡嘉佩乐酒店,把手握在了一起,时间大约 13 秒。



朝鲜近年的核计划、美军主动攻势、俄罗斯和中国的旁观防守态度,国际局的势风云诡谲,都让整个世界陷入阶段性焦虑。


不同于数十年前的冷战,当代国家越来越重视在信息技术上的投入,以创造出更先进的军事武、培养更多更领先的军事人才,来争取自己的世界地位。


发展军事科技,先发展人才


发展军事科技,美国自然不必多说,他们一直主张人才至上。


不过美国的趋势是,主流 MIT、Stanford 这些知名学府培养了不少工科人才,但他们通常是直接进入工业界的应用型人才,很少针对国防军事进行培养。


跟国外不同,我国是军事科技一把抓。比如我们熟悉的中国科技大学、国防科技大学、解放军信息工程大学等知名院校都设有计算机、电子信息、大数据等现代科技专业,几乎针对国防军事进行定向培养和输送。



另外,我国还有着中国特色学生类型:国防生,他们出没在各个大学中,享受着优惠的学费政策和严格的培养计划。


我们的老邻居俄罗斯也十分注重人才培养,尤其是在计算机科学领域。大家都知道他们的数学基础实在是太好了,所以自 1977 年 ACM 成为一项国际性赛事以来,俄罗斯基本就是夺冠最多的国家。


战斗民族真是比不了


今年在北京大学举行的 ACM 想必不少小伙伴也都看了,俄罗斯在内的的数所东欧大学,再一次怒刷存在感,狠虐了其他国家。


不过,由于缺乏创业环境,以及太多垄断性行业,这些聪明的程序员很难在科技领域发展,如果他们想要为国出力,也就只能去造坦克了。


今天刷屏的「白头山天降伟人」伟大领袖金正恩将军所领导的朝鲜,在人才竞赛上就比较尴尬了,本来国内能成为大学的学校就屈指可数。而计算机科学领域,也就金策工业综合大学能拿得出手,可以说人才匮乏。



加上整个国家比较封闭,在核计划夭折后,这些为数不多的理工人才也只能继续给国家造潜艇,也很为朝鲜的技术人才感到担忧,毕竟伟大领袖金正恩将军吹过的牛实在是太多了。


Marven 项目真的结束了么?


话说历经 3 多个月,3000 多名员工的联名抗议后,各方舆论压力之下。谷歌终于放弃和美国军方「Project Maven」项目的续约计划。这是一次技术的胜利,但绝不是互联网公司与国家层面军事计划合作的结束。


Project Maven 这个项目,最早是由内部员工爆料,当时 Google 正通过一家私密的中间公司为美国军方提供 AI 方面的知识和技术支持,帮助美军发展无人机 AI 系统,并允许军方使用 Google Cloud 并指导支持他们使用 Tensorflow。


虽然在公司内部掀起了前所未有的争议,还引起了极大的舆论压力,也仅仅是停止了 Marven 的项目合作。如果你觉得 Google 这就在美国军事行动中收手了,这就太 Naive 了。



美国国防部每年在信息技术上近百亿美金的科研投入,远高于其他国家,甚至是数十个国家的整体国防投入的总和。而我们所知道的 Project Maven 只不过是冰山一角。


除了 Google,但其实 IBM、Microsoft 等也在为美国国防部的各种军事项目提供技术支持。


世界战场召唤民用 AI 技术


互联网公司工程师们一直在推进 AI 技术的发展,这样的民用客机,能被直接用来研发军事武器,参与军事战争么?


从目前已经实现的技术来看,AI 的自主性是建立在历史数据的基础上,依靠强大的运算能力,AI 能基于历史对未来行为进行简单预测。


但这些数据却不足以支撑 AI 形成像人类一样的道德准则。它们不知道种族主义,也不知道杀人的含义,它们只会机械的执行既定算法的命令。所以,过分依赖数据也是AI的致命缺陷。



如果输入的数据是一些负面,甚至带有偏见的,AI 就会做出带有偏见的行为,甚至放大偏见,比如种族歧视、性别歧视等。人类能够用道德约束自己,但对AI而言,数据就是它的道德。


按照 AI 的行事逻辑,特朗普空袭叙利亚就不会是发射几枚导弹这么简单了。而且在人为控制下,很难保证输入的数据不具备主观性,而这种主观性则带有偏见。


Google 退出与军方的一个项目是舆论的胜利,但并不代表互联网公司带头研发的 AI 技术不会继续被应用到军事领域。英国政府不久前出台过一份 AI 发展原则:


  • AI 应该为了人类共同利益而开发;

  • AI 要在可理解和公平的原则下运作;

  • AI 不能被用来削弱个人、家庭或社群的数据权和隐私权;

  • 任何公民都有权接受教育,使他们能够在精神、情感和经济上与人工智能共同发展;

  • AI 不应具有伤害、摧毁或欺骗人类的自主力量


各位 AI 工程师们,结合自己的项目,来品读一下。


超神经 小百科

单词

labeling

['leɪblɪŋ]  标注


geospatial

地理空间;地理;地球空间信息


词组

hierarchical categorization 多层分类

nonlinearity 非线性


历史文章(点击图片阅读)

《GitHub 被微软收购后,各路网友反映》

《四个 AI 工程师,完成了自己的童年梦想

《 AI 放大招,或将终结骑士勇士的粉丝骂战》

超神经HyperAI

公众号ID:HyperAI

关注

    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存