查看原文
其他

硅谷科技巨头聚焦人工智能伦理问题

2017-01-31 人工智能学家

人工智能学家


关于AI伦理问题的讨论越来越热。在某些领域,AI机器人正在取代许多人的工作,在自动驾驶汽车和某些医疗项目中,AI正在代替人类进行生死抉择。AI未来将给人类带来什么影响?越来越多人对此深感忧虑。


本月早些时候,美国麻省理工学院媒体实验室(MIT Media Lab)与哈佛大学伯克曼·克莱因互联网与社会研究中心(Berkman Klein Center for Internet & Society)合作推出一个预计耗资2,700万美元的AI伦理研究计划。2016年7月,全球领先的AI研究者在纽约的AI Now研讨会上讨论了AI技术对社会和经济的影响。去年9月,斯坦福大学主持的“人工智能研究一百年(One Hundred Year Study on Artificial Intelligence)”项目组的研究人员发布了第一份研究报告,描述了AI技术到2030年将对北美城市生活产生怎样的影响。


也许最重要的新项目是由几个硅谷巨头发起的人工智能联盟(Partnership on AI)。人工智能联盟是一个非营利组织,由亚马逊、谷歌(微博)、Facebook、IBM和微软共同创建,致力于解决AI技术的可靠性等问题。该联盟近日宣布苹果也将加入,其第一次正式董事会会议将于2月3日在旧金山举行。


我们可以将人工智能联盟看作一个类似于联合国的论坛,它为开发AI系统的公司提供了一个沟通平台,让各方在可能对全人类造成巨大损害的问题上寻求共同点。


从好莱坞的视角来看,人工智能即将崛起并杀死所有人。这样的故事中通常具有一个或多个人形机器人,它们通常是由畸形天才在某个阴暗公司的实验室里研究出来的。然而,AI的真正威胁不在于科幻电影中危险的人形机器人。相反,最先进的人工智能隐藏于在线搜索引擎和社交网络等我们常用的技术产品之后。


然而,科幻电影确实对现实具有警示作用。最强大的AI系统主要掌握在科技公司手中。为了理解AI的未来和危险,你应该密切注意科技公司的企业道德和透明度。许多硅谷领导者已经认识到,建立在“贪婪是好的”和“快速行动、推陈出新”等理念之上的商业模式不能确保AI技术发展与人类长远利益一致。真正的问题是企业透明度的问题。


三年前,谷歌以6.5亿美元的价格收购了英国的人工智能创业公司DeepMind。DeepMind的创始人设定的交易条件之一是谷歌创建一个AI伦理委员会。这似乎标志着负责任的AI研发新时代正在到来。


但是,自从谷歌的AI伦理委员会成立以来,谷歌和DeepMind一直对该委员会的成员和工作讳莫如深。他们拒绝公开确认该委员会的成员,尽管有媒体记者不断提出质疑。他们没有就该委员会如何运作披露任何信息。开发人工智能的科技公司自身具有逐利性和保密性,同时又要确保其研发活动符合人类的共同利益,两者之间如何保持平衡?这中间有一种紧张的矛盾关系,谷歌就是一个例子。


DeepMind的共同创始人丹米斯·哈撒比斯(Demis Hassabis)表示,DeepMind团队一直关注AI伦理问题。在谷歌收购DeepMind之前,DeepMind的三位创始人都希望谷歌同意关于技术使用的某些条件。作为收购交易的一部分,谷歌必须同意这一条款:“不能将DeepMind开发的技术用于军事或情报目的。”


另外,DeepMind还希望谷歌建立AI伦理委员会,以指导AI技术的开发。哈撒比斯2014年在接受Backchannel的采访时解释了自己的观点:


我认为AI是一个了不起的技术。所有技术本身都是中性的,但它们可能被用于好的地方或者坏的地方,所以我们必须确保它的使用者是负责任的。我和我的共同创始人一直是这样想的。谷歌吸引我们的另一点是他们也抱有相同的观点。


负责任地开发AI,这一共同观点似乎有助于谷歌完成对DeepMind的收购。此外,这似乎表明,越来越多的硅谷公司正在关注AI伦理。麻省理工学院媒体实验室主任伊藤穰一(Joi Ito)说:“我认为这个伦理委员会是一个很好的主意。”


但伊藤穰一对谷歌AI伦理委员会的保密性深感忧虑。谷歌没有公开披露该委员会的成员,外界不可能知道其成员是否能够反映各方意见,更不知道该委员会做了什么。


DeepMind的联合创始人穆斯塔法·苏莱曼(Mustafa Suleyman)2015年6月在接受《华尔街日报》采访时承认,就AI伦理委员会而言,公司保密性是一个问题:


“从根本上说,我们仍然是一个公司,我认为这是一个问题。我们非常清楚这是非常复杂的,我们不打算在真空里做这件事或单独做这件事。”


有一点已经变得明显,仅仅建立AI伦理委员并不能消除人们对AI前景的担忧。当人工智能联盟成立时,DeepMind作为独立的一员加入这个联盟,苏莱曼成为两个临时共同主席之一。


人工智能联盟的另一个临时共同主席、微软华盛顿州雷德蒙德研究实验室的负责人艾里克·霍夫维茨(Eric Horvitz)表示,微软等公司多年前就已经建立伦理委员会以指导研发工作。2016年,微软还创建了自己的AI伦理委员会“Aether”,并将它与人工智能联盟联系在一起。霍夫维茨希望其他公司效仿他们的做法。他补充说,微软已经与一些同行公司分享了建立伦理委员会的“最佳实践”。


同样,人工智能联盟将侧重于分享最佳做法,以“竞争前(pre-competitive)”精神指导AI技术的开发和使用。例如,它将评估AI系统在自动驾驶汽车和医疗保健等“安全关键领域”的表现。人工智能联盟的另一个重点将涉及公平性和透明度,以及AI技术中的偏见或歧视问题。人工智能联盟还将研究人类和AI如何有效地协同工作。


霍夫维茨还重点提到了一些关键问题,例如AI对劳动力市场的影响和AI如何影响人们的思想和信念。


随着人工智能联盟的扩大,该联盟将不仅吸纳企业界人士,还将吸纳学术研究人员、政策研究专家和其他行业部门的代表。该联盟还打算吸纳亚洲、欧洲和南美洲的合作伙伴。“人工智能联盟意识到,它正在得到企业的支持和资助,”霍夫维茨说,“但是它关注的是AI对社会的影响,而不是商业收入。”


然而,除了让公司披露自己的AI伦理,还有另一个透明性问题,那就是为外部人士揭开技术的神秘面纱。没有计算机科学学位的人可能很难理解人工智能决策,更不用说审查或规范这些技术。麻省理工学院媒体实验室的伊藤穰一解释说,新的人工智能伦理与管理基金会(The Ethics and Governance of Artificial Intelligence Fund)将专注于将AI领域内发生的事情传达给所有关注AI未来的人。伊藤穰一说:“如果没有对AI技术的理解,律师、决策者和一般公众就很难真正理解或想象AI的可能性和风险。


“我们需要他们的创造力来指导未来。”伊藤穰一说。


伊藤穰一设想,人工智能未来将与市场和公司更深度地整合,使这些已经相当复杂的系统在未来变得几乎不可理解。他将人类管理AI系统的困难与政府管理跨国公司的困难进行了类比。“公司正在变得非常难以规范——其中许多公司能够压倒立法者和监管者,”伊藤穰一说,“与此类似,管理AI系统未来可能变得几乎不可能。”


人类未来不完全掌握在科技公司手中。但是,硅谷将不得不抵制公司的阴暗化趋势,并进行更多的分享。这是因为,解决AI伦理问题的唯一处方也许是让它变得更加透明。


本文来自:腾讯科技





【重磅】未来科技学院前沿科技趋势学习班 (2017第一期)报名

每一次人类社会的重大技术变革都会导致新的科学革命,互联网与人工智能对于人类的影响已经远远超过了大工业革命。人工智能、互联网、脑科学、虚拟现实、机器人、生物基因等领域正在相互融合,形成一股强大的洪流,对人类社会的各个领域产生巨大的影响。


一日千里的科技进展,层出不穷的新概念,使企业家,投资人和社会大众面临巨大的科技发展压力,前沿科技现状和未来发展方向是什么?社会大众,企业家和投资家如何应对新科学技术带来的挑战?


在科学院大数据与知识管理重点实验室,泰智会,人工智能学家的支持下,未来科技学院邀请国内和国际著名科学家、科技企业家讲授人工智能、互联网、脑科学、虚拟现实、机器人,3D打印、生物基因等领域的基本原理和未来发展趋势。欢迎投资界、企业界,科研机构的人士参加。


未来科技学院第一期前沿科技趋势学习班将在2017年2月下旬(2月24日-26日)在北京中关村互联网金融中心1楼未来科技讲堂举办。线下集中学习三天,之后学员将通过未来科技学院的线上平台进行更多前沿科技讲座学习和答疑互动。集中学习期间,将举办未来科技交流酒会,加强学员以及专家之间的沟通交流。


未来科技学院第一期学员将受邀加入未来科技学院的“未来科技创新促进会”,共享未来科技学院的高端科学家、企业家和投资人资源,共同解决企业和投资过程中遇到的科技问题;参与前沿科技未来发展重大课题研究;参加未来科技学院组织的讲座、参观和会议;选择投资未来科技学院孵化的前沿科技创新创业项目。


点击本文左下角”阅读原文”了解详细信息



您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存