其他
智库跟踪 | 美国白宫:为人工智能的未来做好准备
当前,在自动驾驶汽车(AV)和配备人工智能的无人机系统(UAS)方面,出现了使用人工智能的产品挑战相关监管的实例。从长远来看,AV可能通过减少司机人为失误和增加个人移动性来挽救许多生命,而UAS将产生许多经济效益。然而,随着这些技术已经过测试并开始成熟,公共安全必须受到保护。交通部(DOT)正在使用一种方法来改进相关法规,该方法是基于在该部门建立专门知识、创建安全空间和试验台进行实验、与行业和民间社会合作,以制定基于绩效的法规,使得随着安全操作的案例不断累积,能有更多的使用。
此外,鉴于人工智能的战略重要性,联邦政府应监测全球范围内的AI发展情况,以便对其他重要变化进行早期预警,以防美国政策需要因这些重要变化做出改变。
人工智能的快速增长极大地增加了对有相关技能人才的需求,以支持和推进该领域发展。人工智能世界需要能够读取、使用、解释和传达数据的通晓数据的公民,并参与关于受人工智能影响的事务的政策辩论。人工智能知识和教育在联邦科学、技术、工程和数学(STEM)教育计划中日益受到重视。人工智能教育也是"全民计算机科学"的组成部分,"全民计算机科学"是总统的倡议,目的是使得所有的美国学生,从幼儿园到高中都能学习计算机科学,并赋予他们在一个技术驱动的世界所需的计算思维技能。
使用人工智能来控制物质世界的设备导致人们对安全性产生担忧,特别是当系统暴露于十分复杂的人类环境时。人工智能安全方面的一个主要挑战是建立系统,这些系统可以从实验室的"封闭世界"安全地过渡到外部"开放世界",而在外部"开放世界",可能发生不可预测的事情。恰当地适应不可预见的情况对于安全操作来说是困难的,然而却是必要的。建立其他类型的安全攸关的系统和基础设施(比如飞机、发电厂、桥梁和车辆)方面的经验可以给人工智能从业人员很多借鉴--关于确认和验证,如何为某种技术建立安全案例,如何管理风险,以及如何与利益攸关方沟通风险。
在技术层面,对公平和安全的挑战是相关的。在这两种情况下,从业人员都努力避免意外的行为,并产生所需的证据,使利益攸关方有理由相信那些不可能发生意外的失败。
人工智能从业人员和学生的伦理培训是解决方案的一个必要的部分。在理想情况下,每个学习人工智能、计算机科学或数据科学的学生都将接触到相关的伦理和安全主题的课程和讨论。然而,仅仅有伦理是不够的。伦理可以帮助从业人员了解他们对所有利益攸关方的责任,但是应当使用技术工具和方法来加强伦理培训,通过做好防止不可接受结果所需的技术工作,将善意付诸实践。
今天的人工智能在网络安全方面具有重要的应用,预计还将在防御性和攻击性网络措施方面发挥越来越大的作用。目前,设计和操作安全的系统需要专家的大量时间和关注。使这项专家工作部分或全部自动化,可以在大大降低成本的同时,在更广泛的系统和应用程序之间增加安全性,并可以提高国家网络防御的敏捷性。使用人工智能可以帮助保持所需的快速响应,以侦测不断变化的威胁并对其作出反应。
人工智能在武器系统中的使用引发潜在的挑战性问题。美国几十年来在某些武器系统中建立了自主权,允许更精确地使用武器和更安全、更人道的军事行动。然而,脱离人类对武器系统的直接控制涉及一些风险,并可能引起法律和伦理问题。
将自动和半自动武器系统纳入美国防御计划的关键是确保美国政府实体始终按照国际人道主义法行事,采取适当步骤控制扩散,并与合作伙伴和盟国共同制定与这种武器系统的开发和使用相关的标准。美国积极参加了关于致命自动武器系统的国际讨论,并预期对这些潜在武器系统的持续而强有力的国际讨论。关于自动和半自动武器,美国政府各机构正在努力根据国际人道主义法制定一项单一的政府范围的政策。
美国政府可以承担多个角色。它可以召集有关重要问题的对话,并帮助制定公开辩论的议程。它可以监控应用程序开发时的安全性和公平性,并调整监管框架以鼓励创新,同时保护公众。它可以提供公共政策工具,以确保人工智能提供的工作手段和方法的中断能提高生产率,同时避免对某些部门的劳动力造成不利的经济后果。它可以支持人工智能的基础研究和应用于公共利益。它可以支持熟练、多样化的劳动力的发展。并且,政府可以使用人工智能,以更快、更有效且更低的成本为大众服务。从教育和经济安全网,到国防、环境保护和刑事司法等许多公共政策领域,将会看到人工智能持续进步所带来的新机会和新挑战。美国政府必须继续建立其理解和适应这些变化的能力。
随着人工智能技术的继续发展,从业人员必须确保人工智能系统是可控的;它们是开放、透明和可理解的;它们可以与人一起有效地工作;它们的行动将与人类价值观和愿望保持一致。研究人员和从业人员已经增加了对这些挑战的关注,并且应当继续关注它们。
开发和研究机器智能可以帮助我们更好地理解和欣赏我们人类的智能。如果使用经过深思熟虑,人工智能可以增强我们的智力,帮助我们绘制一条更美好、更聪明的道路。