Quantcast

刘士余遭实名举报:这样的证监会主席,全世界都没有!

林彪集团后代们的现状:核心是林豆豆 依旧像公主

有些网文为啥突然就404了?不少是蛀虫受贿后所删

气质女神倪妮出道前太狂放,自慰拍揉奶照上传网络,冯绍峰已经解脱了,井柏然你心真大!

你不知道的赵家故事

Facebook Twitter

分享到微信朋友圈

点击图标下载本文截图到手机
即可分享到朋友圈。如何使用?

查看原文

未来,这3个冷门职业将变的供不应求...

点击蓝字关注→ 中信出版集团

技术的存在是为了增强和提高人类的能力——克服人体的生理局限。从电报到喷气发动机,电力到互联网,人类一直在与技术合作以取得更多的成就。


如今,这一趋势正在加速,互联互通、传感器、数据分析、人工智能(AI)、机器人技术、先进制造和虚拟现实等领域的技术正在以前所未有的速度进步着。我们正在进入一个人类和机器之间合作的新时代。



变化也带来了不安,据世界经济论坛(World Economic Forum)预计,自动化程度的提高可能导致未来5年失去700万个就业岗位。但新技术也创造了新的行业和新的就业机会。


管理咨询公司埃森哲(Accenture)通过对全球1500多家正在使用或测试人工智能和机器学习系统的公司进行研究,发现一系列全新的工作大有异军突起之势。这些新兴工作不是单纯地取代旧有工种,而是十分新颖的岗位这些岗位的技能与培训要求是前所未闻的。复杂的系统需要新的业务和技术人员来训练、解释和维系人工智能的行为,以弥补机器的不足。


未来,这三个你可能从未听说的职业将变的炙手可热。


 

训练师:

人工智能系统如何变得更加人性化

 

在过去,人们必须适应计算机的工作方式,而今情况正在发生变化——人工智能系统正在学习如何适应我们。但要做到这一点,就需要我们对人工智能系统进行大量的训练。

 

一般来说,我们倾向于使用有着类似人类行为的人工智能,因为这使我们能够更自然地与机器进行互动。但是我们也会被类人机器人的缺陷所搅扰,这种现象被称为“恐怖谷”。


恐怖谷理论是一个关于人类对机器人和非人类物体的感觉的假设。当机器人与人类相像超过了一个特定程度,人类的反应便会突然变得极之反感。人形玩具或机器人的仿真度越高人们越有好感,但当这个仿真度超过一个临界点时,这种好感度会突然降低,越像人越感到恐惧,直至谷底,称之为恐怖谷。(简单来说,人类会对特别像人类的仿真机器人感到恐怖和反感)

 

以制造业为例,新型的机器系统更加轻便、灵活,并且支持人机协作。人类需要对这些机器系统进行编程和训练,以处理不同的任务,这就要求员工具备相应的技能。

 

对汽车制造商而言,高度自动化的工厂会因设备故障造成巨大的经济损失。如果一条自动化生产线每分钟能制造一辆价值5万美元的汽车,那么一场突发的6小时的故障就会造成约 1800 万美元的损失。因此,预计未来几年中与制造工业相关的工作岗位还将出现 200 万名员工的短缺。

 

物理机器人并不是唯一需要接受训练的人工智能系统,人工智能软件同样需要接受训练,我们要做的一项重要工作就是把机器训练得更像人类。训练过程涉及方方面面的工作和人员。

 


从简单方面来说,训练师可以帮助自然语言处理程序和语言翻译程序降低错误率。从复杂方面来说,人工智能算法必须经过训练才能模仿人类行为。

 

例如,客服聊天机器人需要经过人员调试才能探知人类交流的复杂和微妙之处。在雅虎,训练师正在尝试训练公司人工智能的语言处理系统,使其能够认识到人们字面意思以外的表意。到目前为止,他们已经开发了一种算法,该算法可以在社交媒体和网站上探测到带有讽刺和挖苦性的语言,且准确率至少达到80%。

 

随着人工智能逐渐渗透到各行各业,越来越多的企业需要训练师来完善它们的物理和软件系统。

 

对企业而言,训练有素的人工智能程序是其领先对手的关键。除了学习如何具备共情能力之外,先进的人工智能系统还会从人性特征训练师那里学习如何变得更加人性化。

 

举个例子,Cortana (微软小娜)是微软发布的全球第一款个人智能助理。Cortana 自信、出色和充满关爱的风格就受到了用户的喜爱。在微软的高强度训练下,Cortana 既能为用户提供帮助,又不会颐指气使,所有这些都使微软品牌更加受到用户信赖。

 

人性特征训练师可以有不同的背景。例如,萝宾·尤英曾经是好莱坞的一个编剧,专门负责编写电视脚本。目前,尤英正在施展她的创意才能,帮助工程师开发一个保健领域的人工智能程序Sophie (索菲)的人性特征。


在其任务中,Sophie 会提醒消费者服用药物,并定时对他们进行检查。当然,像尤英这样的人性特征训练师,通常都没有高科技背景。在微软,负责训练Cortana 人性特征的团队就是由一个诗人、一个小说家和一个剧作家组成的。


 

解释员:

分析算法找出机器的可解释性

 

第二类新型工作岗位是解释员,工作任务是弥合技术人员和企业领导者之间的距离。

 

随着人工智能系统越来越不透明,解释员的角色将变得愈加重要。许多管理者已经对复杂的机器学习算法的黑箱属性感到不安,特别是当这些系统给出的建议可能会违背传统思维或引发争议的时候。

 

以 ZestFinance(泽斯塔金融公司)为例,该公司可以帮助贷款人更好地预测信用风险,并为传统意义上不符合资格的借款人提供融资。公司允许贷款人分析申请人的数千个数据点(远胜于传统的信用评分系统和信用历史记录),并利用尖端的人工智能技术得出是否借款的决定。



这些申请人的平均年收入约为 3 万美元,其中许多人都有违约记录。这类申请人的贷款额度通常很小,平均为 600 美元,但利率很高。鉴于其业务的性质,ZestFinance 需要能够向客户解释它们用于批准贷款的人工智能系统的内部运作模式。


然后有一整套算法来分析所有的数据,每个算法都在执行不同的分析任务。所有的分析结果都会换算成 0~100 的 ZestFinance 的信用分数。

 

这些复杂的算法使ZestFinance 能够发现许多有趣的相关性。例如,公司发现,全部使用大写字母填写贷款申请的人往往是风险较高的借款人。这样的发现使公司持续将违约率降低了几个百分点。重点是,ZestFinance 在批准借款申请的同时还能够解释它是如何做出贷款决策的。

 

当越来越多的公司利用人工智能系统来决定它们的行动,尤其是那些影响到客户的行动时,它们需要能够解释并证明这些决定的合理性。



事实上,政府已经开始考虑在这方面制定规则。例如,定于2018 年生效的欧盟《通用数据保护条例》有效地确立了“解释权”,即允许用户质疑和反对任何影响他们的决定以及纯粹基于算法做出的决策。

 

应用高级人工智能系统的公司需要专业的员工来解释复杂算法的内部运作情况。与此相关的专业人员之一就是“算法取证分析师”,他们的职责是让所有算法对其结果负责。


当系统出现错误或其决策导致了意想不到的负面后果时,算法取证分析师必须能够解剖问题,找出原因并予以纠正。


 

维系者:

确保人工智能得到正确利用

 

2015 年,德国大众汽车工厂的一个机器人抓住了一名技术工人并对其造成了意外伤害,最终导致其死亡。这是一个悲惨的事件,它加重了社会对人类日益依赖的自动化工具的担忧。自从电脑承担了越来越复杂的任务,人们就越发担心机器可能会带来灾难。

 

《2001:太空漫游》《终结者》等系列电影中所展现的情景都只是在以流行文化的形式引发大众的焦虑。事实证明,德国大众汽车工厂的这个机器人并不是恶意地转向并袭击那名工人。初期报告指出,该事件的起因是编程错误——换句话说,是人为失误。

 


虽然这个可怕的事故是一个极端的例子,但确保人工智能得到正确利用是最后一类新工作的主要职责,这个岗位就是“维系者”。

 

他们必须不断地确保人工智能系统有益无害,以及其存在的意义是让人们的生活变得更加轻松。通过这项工作,维系者将帮助人们消除对机器人的恐惧,不再害怕它们有朝一日会拥有自我意识并统治人类,也不再担心这种反乌托邦的未来会降临在我们头上。

 

因此,公司需要具备专业知识且经验丰富的“环境设计师”。在开发新系统时,环境设计师会考虑到各种背景因素,包括商业环境、流程任务、个人用户、文化问题等,即使看似微不足道的细节也非常重要。


当通用汽车公司和Fanuc公司在设计一种应用于制造业的新型灵活的协作机器人时,它们曾经纠结于给该机器人使用什么颜色的涂料。橙色似乎暗示着危险,黄色通常具有警示作用。最后,工程师最终决定使用一种他们称之为“安全绿色”的石灰色调。

 

当然,即使设计良好的系统也会出现问题,有时候技术运行得太好也会导致意想不到的伤害。


例如,当无人驾驶车辆发现一个孩子跑到了街上,它是否应该避开孩子而撞到旁边的行人呢?鉴于这些问题,设计和应用复杂人工智能技术的公司需要雇用“人工智能安全工程师”。他们必须尝试预测人工智能系统的意外后果,并避免紧急情况可能会造成的任何伤害性事件。


 

一般而言,性能良好的人工智能系统应该得到推广,其变通版本可以应用到企业的其他部门。另一方面,性能较差的人工智能系统应该被降级,如果无法改进,就应当停止使用。

 

这些任务都是“机器关系经理”的职责,这个工作有点像人力资源经理,只不过他们监督的是人工智能系统,而不是人类员工。他们将在“机器关系部门”工作,并定期对企业部署的所有人工智能系统进行性能评估。


 

未来,

可能会有“无领”阶级兴起

 

随着企业与其人机团队一起成长,它们必然会发展出自己独有的训练师、解释员和维系者。这些新型工作岗位要求领导者换一个角度来思考人机团队。

 

例如,这些新型工作岗位都有各自的教育背景、培训和经验要求。共情能力训练师可能不需要传统意义上的大学学位,只要接受过高中教育并能够以同理心待人待物,他们就可以通过内部培训课程来学习必要的技能。许多新型岗位的出现可能会引领“无领”阶级的兴起,他们会从制造业和其他行业的传统蓝领工作中逐渐演变而来。

 


另一方面,像“道德合规经理”这样的岗位则需要员工具备高等教育背景和专业技能。前沿公司已经通过借鉴儿童发展心理学领域的技术对训练过程进行了适当调整。

 

作为最低要求,部署人工智能系统的公司需要重新思考它们的人才和学习策略,以便更好地吸引、培训、管理和保留这些人才。显然,人工智能将对企业的能力、策略和流程提出新的要求——不仅仅是在IT 部门,而是贯穿整个企业部门。

 

毕竟,和许多新兴技术一样,来自人的挑战往往超过来自技术性的挑战。

 

本文摘自《机器与人:埃森哲论新人工智能》第五章关键企业流程中出现的新岗位



相关书籍推荐


机器与人

保罗·多尔蒂 著丨2018.10



近期好文推荐


[书单]11月新书推荐 | 40本中信好书 陪你过冬

[历史]这可能是人类历史上挖到的最值钱宝贝

[话题]纪念斯坦·李的最好方式,就是在他的书上印上你的名字

[活动]那群搞创作的人办了个大集市,简直酷炸了!

[人物]95岁的基辛格再次访华,他对中国到底有多重要?

[荐书]这本书只有一页,却能带你上天下海

[书单]双11期间,10万读者都囤了这些书...

[重磅]这书不安利,我们还做什么公众号

[话题]现在的年轻人为什么这么丧?


-End-

编辑:Yoyo 责编:YQ

2018.11.21

更多经典书单和深度好文

欢迎关注中信出版集团」公众号

近期新书一览,点击书封即可看到有关内容!






    Read more

    发送中

    文章有问题?点此查看未经处理的缓存