特朗普盯上谷歌在华AI中心,CEO皮查伊上演“拉锯战”
「2019 Python开发者日」7折优惠最后3天,请扫码咨询 ↑↑↑
作者 | 琥珀
出品 | AI科技大本营(ID:rgznai100)
长久以来,Google CEO 皮查伊对拿下中国 AI 市场的念头似乎愈演愈烈,却每每不能如意。
3 月 28 日,凭借 Twitter 治理天下的美国总统特朗普发消息称,“刚刚与 Google CEO 皮查伊会面,他强烈声明绝对忠于美国,而非中国”,在这番谈话里特朗普对他的 “表现” 可以用赞不绝口形容。
此前一天,据彭博社消息称,知情人士透露,Google CEO 桑达尔 · 皮查伊(Sundar Pichai)将在华盛顿与参谋长联席会议主席约瑟夫 · 邓福德(Joseph Dunford)将军会面。
一周前,彭博社就已指出,Google 发出面谈邀请起因与邓福德对 Google 于 2017 年在中国设立的 AI 研究中心相关。
这位将军表示,谷歌“间接使中国受益”,“根据我的判断,我们协助中国
推进技术发展,与美国国家利益不符。所以,我们必须对此展开讨论。”
不得不说,五角大楼此举,可能也是建立在对中国 AI 人才监控、技术封锁、企业打压愈发严重的基础上。
2017 年,据纽约时报和路透社报道,美国正准备加强对中国在硅谷投资的审查,以更好地保护“对美国国家安全至关重要的敏感技术”。
2018 年 2 月,前美国密歇根州立大学教授、著名机器人研究专家席宁在密歇根州立大学附近被美国联邦调查局(FBI)以诈骗罪逮捕。五天以后,另一名华人科学家王春在,于迈阿密一家联邦法庭被判刑。
年末,美国商务部提交的建议案又以“国家安全”为由,要求加强 14 项高科技领域的出口限制,其中 11 项是关于 AI 技术。
实际上,在过去的一年里,Google 迫于内部压力退出了与五角大楼签订的人工智能合同,包括使用 AI 增强美军无人机战斗力的 “Project Maven” 项目,甚至还退出了价值百亿美元的五角大楼云计算合同的竞标,并同时扩大了在中国搜索之外的新业务。
这种举动已经遭到了华盛顿方面的强烈反对。2018 年 12 月,劈柴就被传唤出席美国国会委员会,回答了是否将恢复在中国的搜索业务等问题。当时他还问道:“我们能否探索为中国用户提供教育和医疗保健的服务?”
死于 2018,2019 可期?
然而,就这么一条看似单纯的 Google 中国 AI 发展计划,却也走得充满荆棘。
2018 年,李飞飞、李佳的双双离职,给谷歌 AI 中国中心的发展蒙上了一层阴影,而该起事前的源头不免让外界与遭到员工强烈抵制的五角大楼合同相联系。
2017 年年底,由李飞飞、李佳共同领导的谷歌 AI 中国中心在北京成立。当时,“AI 没有国界,AI 福祉亦无边界”的口号曾吸引了大批 AI 人才的关注。
从业务角度来讲,比起亚马逊和微软在中国做得相对比较成熟的云服务来讲,Google 更擅长的是依赖 AI 而开展的云计算业务,这是其除广告以外未来收入增长的主要来源。
在中国,基于中国市场巨大的用户基数,互联网及移动互联网时代的快速增长带来的是数据、应用和场景,这对人工智能在技术上的发展形成了比较好的优势。
Google 发言人曾表示,“我们不与中国合作。我们正在与美国政府,包括国防部合作,在许多领域,包括网络安全、招聘和医疗保健等也有合作。”
在一封电子邮件中写道,Google 在北京的实验室专注于开发软件,包括当前主流的深度学习开发框架 TensorFlow,以应用于“自然语言理解和工业算法的研究”,以及教育计划。
在 CNBC 等多家媒体眼里,TensorFlow 是 Google 扩张战略的重要组成部分。谷歌工程总监 Rajat Monga 在 9 月份由中国政府支持的会议上表示,TensorFlow 已下载 1700 万次,其中 200 多万来自中国用户。TensorFlow 是免费的开源软件,因此 Google 无法控制谁使用它。
或许,这是劈柴在最终对外表示放弃遭曝光的 Dragonfly 计划之后的无奈之举。此前,他一再强调该计划是“试图了解市场”。
那么,在多方权衡之下,Google 在中国未来是否还有更好的出路?
附上 2018 年 6 月 Google 明确了的使用 AI 的七项原则,以下为皮查伊署名文章的部分摘选(CSDN 翻译):
AI 的核心是可以学习和适应的计算机编程,它不能解决所有的问题,但拥有巨大的潜力改善我们生活。在谷歌,我们使用 AI 让产品更有用,从没有垃圾邮件并且更容易撰写的电子邮件,到可以自然对话的数字助理,再到突出有趣内容供你欣赏的照片。
我们认识到,人工智能如何开发和使用,将对未来多年的社会产生重大的影响。我们也意识到,这个领域是不断变化和不断发展的,我们将以谦逊态度对待我们的工作,我们也愿意随时间的推移调整我们的方法。
我们将根据以下目标评估 AI 应用。我们认为 AI 应该:
1、对社会有益。人工智能的进步将对包括医疗保健、安全、能源、运输、制造和娱乐在内的各种领域产生变革性的影响。我们将努力使用 AI 来随时提供高质量和准确的信息,同时继续尊重所在国家的文化、社会和法律准则。
2、避免制造或加强不公平的偏见。人工智能算法和数据集可以反映、加强或减少不公平的偏见。我们将努力避免造成不公正的影响,特别是与种族、民族、性别、国籍、收入、性取向、能力及政治或宗教信仰等有关的人。
3、建立并测试安全性。我们在设计人工智能系统时会保持适当谨慎,并根据人工智能安全研究的最佳实践寻求开发它们。在适当的情况下,我们将在受限环境中测试 AI 技术,并在部署后监控其操作。
4、对人负责。我们将设计能够提供反馈、相关解释和说明的 AI 系统。我们的 AI 技术将接受适当的人类指导和控制。
5、纳入隐私设计原则。在开发和使用 AI 时将融入隐私原则,提供通知和同意,鼓励具有隐私保护措施的架构,对数据使用提供适当的透明度和控制。
6、坚持科学卓越的高标准。人工智能工具有可能在生物学、化学、医学和环境科学等关键领域开拓科学研究和知识的新领域。我们将与一系列利益相关者合作,以科学严谨和多学科的方式来全面引领领域发展。
7、为符合这些原则的用途提供。我们在开发和部署 AI 技术时,将根据以下因素评估可能的用途:主要目的和用途、性质和唯一性、规模、谷歌参与的性质这四个方面。
除了上述目标之外,我们不会在以下应用领域设计或部署 AI:
已造成或可能造成整体性伤害的技术。存在重大伤害风险的情况下,我们只会在好处远远超过风险的情况下继续进行,并纳入适当的安全限制。
武器或其他主要目的是导致或直接造成人身伤害的技术。
收集或使用信息的技术违反国际公认的规范。
其目的与国际法和人权普遍接受的原则相违背的技术。
我们希望明确的是,虽然我们没有在开发用于武器的 AI,但我们将继续在其他许多领域与政府和军方合作,包括网络安全、培训、军人招募、退伍军人医疗、搜索和救援。这些合作是很重要的,我们将积极寻找更多方法来加强这些组织的关键工作,并确保服役人员和平民的安全。
长期的人工智能
随着人工智能技术的进步,我们将与一系列利益相关者合作,采用科学严谨、多学科方法提升这一领域的领导力。
我们将继续分享我们在改进 AI 技术和实践方面的经验。
链接:https://www.bloomberg.com/news/articles/2019-03-26/google-ceo-is-said-to-meet-general-dunford-on-wednesday
(本文为 AI科技大本营原创文章,转载请微信联系 1092722531)
◆
精彩推荐
◆
戳↓↓↓
「2019 Python开发者日」7折票限时开售!这一次我们依然“只讲技术,拒绝空谈”10余位一线Python技术专家共同打造一场硬核技术大会。更有深度培训实操环节,为开发者们带来更多深度实战机会。目前演讲嘉宾议题已确认,扫描海报二维码,即刻抢购7折优惠票价!更多详细信息请咨询13581782348(微信同号)。
推荐阅读:
你也可以点击阅读原文,查看大会详情。