查看原文
其他

全球 14 家机构专家发百页报告:警惕人工智能

2018-02-24 看雪学院

据The Verge北京时间2月23日报道,当谈论人工智能带来的危险时,我们通常强调的是意料之外的副作用。我们担心的是,我们可能会意外地开发出具有超级智慧的人工智能系统,而忘记赋予它道德;或者我们在部署刑事判决算法时,这些算法吸收了用来训练它的数据存在的种族偏见意识。


但这还不是人工智能可能带来的全部风险。


人们会主动将人工智能用于不道德、犯罪或恶意目的吗?这会带来更大问题吗?来自包括牛津大学、剑桥大学、人类的未来研究所(Future of Humanity Institute)、埃隆·马斯克(Elon Musk)投资的非营利性组织OpenAI在内的机构的二十多位专家称,这两个问题的答案是肯定的。


在这份题为《人工智能的恶意用途:预测、预防和缓解》(The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation)的报告中,专家列出了未来5年人工智能可能给人类带来问题的一些途径,以及人类的应对之道。报告联合作者迈尔斯·布伦戴奇(Miles Brundage)向The Verge表示,虽然人工智能可以被用来发动恶意攻击,但我们没有必要谈人工智能色变,或者绝望。


布伦戴奇表示,“我喜欢积极的态度,也就是说我们还大有可为。报告的本意不是描述悲观的未来——人类可以采取诸多预防措施,我们还有许多东西需要学习。我并不认为我们已经陷入绝境,但我把这份报告看作是行动的倡议书。”



报告的内容很广泛,但重点介绍了人工智能加剧实体和数字安全系统面临威胁和制造全新威胁的几种主要方式。它还提出了应对这些问题的5点建议,其中包括使人工智能工程师提前告知他们的研究被用于恶意目的;启动政界和学术界之间对话,避免政府和立法机关对此一无所知。


人工智能最大的威胁之一是,通过使原本要求人工完成的任务实现自动化,人工智能可以大幅度降低某些攻击的成本。


报告提出的第二个要点是,人工智能可以为现有威胁增加新维度。例如,在钓鱼攻击中,人工智能不仅能用来生成常见的电子邮件和消息,还能生成虚假音频和视频内容。


当然,人工智能还能对一些恶意行为起到“助纣为虐”的作用。例如,在政治和社会生活中左右舆论。


报告还阐述了人工智能带来的全新威胁,其中包括恐怖分子在保洁机器人中隐藏炸弹,把它送到特定场所,目标靠近后由人工智能技术自动引爆炸弹。


为了预防、减轻人工智能可能带来的危害,报告给出了5点建议:


  • 研究人员应当告知他们的研究可能的恶意使用方式。

  • 政策制定者需要向技术专家了解这些威胁。

  • 人工智能行业需要向网络安全专家学习如何更好地保护其系统。

  • 需要制定人工智能道德框架,并严格遵守。

  • 需要有更多人参与对这一问题的讨论,其中不应该仅仅局限于人工智能科学家和政策制定者,还应该包括伦理学家、企业和普通大众。


换句话说:就是更多的对话和更多的行动。



来源:凤凰网科技



往期热门内容推荐

更多安全资讯,戳左下角“阅读原文”查看!


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存