查看原文
其他

人工智能的“红”与“黑”

九万里 九万里 2023-08-13

7月8日,在上海举办的2023世界人工智能大会(WAIC2023)圆满落下帷幕。本次大会以“智联世界、生成未来”为主题,围绕技术、产业、人文三大话题,重点关注人工智能大模型、智能芯片、科学智能等十大前沿风向。
大会的成功举办,也再次将人工智能(AI)迅猛发展的“红”与相关治理迫在眉睫的“黑”摆在世人面前。
2023世界人工智能大会在上海举办

为AI发展与治理

贡献中国智慧

大咖云集。参会者既有联合国教科文组织国际人工智能联合会等权威组织,又有特斯拉、微软、苹果、华为、阿里等50余家海内外人工智能领军企业,还有80余位诺奖、图灵奖得主与国内外院士,共有1400余位国内外领军学者、知名企业家和国际组织代表齐聚一堂。
大会成果丰硕。会上共有32个重大产业项目签约,总额288亿元;发布基础大模型、垂直大模型共计30余款;成立大模型测试验证与协同创新中心,联合发起大模型语料数据联盟,启动大模型语料数据生态创新合作伙伴。大会还发布了大模型伦理操作、风险评估、自动驾驶法律治理、生成式人工智能倡议书等一批研究成果,助力为技术创新和产业落地营造安全、稳健、规范的发展环境。
中国作为人工智能研发与应用大国,通过这次会议,再次展现了对全球人工智能企业与组织的吸引力、影响力。
大咖云集 成果丰硕

人工智能之“红”

2022年11月30日,美国人工智能企业OpenAI发布AI聊天机器人ChatGPT。该应用一经推出便风靡全球,一举打破了此前由脸书和TikTok把持的记录,成为史上增长最快的消费级应用
由此而来的,便是新一轮人工智能发展的时代大潮。
在AI发展方面,各国纷纷斥巨资上马研发项目
不仅英、法、俄等主要国家宣布加码投资研发人工智能,甚至连阿联酋和新加坡也声称开发出了比肩甚至超越ChatGPT的人工智能。可以说,只要有人工智能研发能力的国家,都在争当人工智能领域的领导者,至少都不希望自己在新一轮科技发展大潮中掉队。
美国的态度如何?今年3月,特斯拉总裁马斯克曾联合近千名人工智能研究者发布“暂停巨型人工智能实验”的公开信,呼吁暂停研发比GPT-4更先进的人工智能,为期6个月;但时隔2个月后,美国又突然“反悔”。5月3日,五角大楼首席信息官约翰·谢尔曼明确表态反对ChatGPT等人工智能开发暂停六个月,其毫不掩饰地表示:“即使我们停下来,海外的潜在对手也不会,所以我们必须继续前进。”
AI研发你追我赶
在AI治理方面,围绕个人数据、算法安全、透明度在内的配套规则建设也已被提上日程。人工智能到底能干什么?不能干什么?国际辩论如火如荼
2023年6月14日,欧洲议会表决通过了《人工智能法案》“授权法案”,划分人工智能应用的风险等级并拟定监管措施。这部“标杆性”法律若能在欧盟这一世界最大经济体得以通过,无疑将加速国际AI治理规则的制定进程。
更为重要的是,除了技术研发、产业推进与规则制定之争,还呈现出一些新型、影响深远的竞争维度。
比如,由于训练大模型依赖海量的人类对话数据与知识库,多语种人工智能迅速成为各国的主要研发方向,这也意味着优质语种数据的争夺将更趋激烈
有媒体分析称,一旦他国AI成为“最懂本国语言”的应用,不仅威胁本国对社会舆论的掌控权,甚至对本民族文化的解释权也有可能遭受侵蚀。
人工智能之“黑”
新一轮人工智能发展高歌猛进之余,国际社会也出现一些警示甚至反对的声音。
就在ChatGPT上线半年之际,非盈利机构人工智能安全中心发表了一份“关于人工智能风险的声明”,包括OpenAI首席执行官山姆·奥尔特曼在内的300位各界人士在声明中将人工智能灭绝人类与流行病、核战争等风险并列,呼吁全球高度关注。
人工智能潜存风险
联合国秘书长古特雷斯6月13日也就此发声,示人工智能对人类构成与核战争风险同等的生存威胁,呼吁各方认真对待。同时,他还明确表示支持以国际原子能机构的模式建立一个全球性人工智能监管机构,并将任命一个由人工智能专家和联合国机构首席科学家组成的科学顾问委员会。
事实上,这些担忧绝非空穴来风。一些专家已经描绘了诸多可能的极端场景。
美人工智能安全委员会主席埃里克·施密特此前曾表示,现在的核导弹太快了,以至于必须有一个自动反应,“可万一给出了错误信号该怎么办?”
美智库“安全与新兴技术中心”也曾在报告中做过类似场景想定,假定美军人工智能系统将白令海峡上空的眩光识别为敌国核弹发射信号并误射核弹反击,推演事态会如何发展。

人工智能之“黑”

但也要看到,有些反对声其实没那么“给力”,甚至透着些许虚伪。
比如奥尔特曼有关“AI可能灭绝人类所以应当加强国际监管”的言论,似乎更像是“逢场作戏”。从他近期参加美国会听证会的发言不难看出,尽管他从创立OpenAI开始便倡导就人工智能安全风险展开讨论,但也仅仅止步于“鼓励讨论”的层面。当议员触及实质性监管措施时,奥尔特曼除了同意成立国际监管机构外,更具体的则语焉不详。
人们不禁要问,若奥尔特曼真的认为AI有脱离控制甚至毁灭人类的风险,为何不先将ChatGPT的大模型“一键删除”,从而斩草除根,以绝后患?
实际上,现阶段的AI距离拥有自主意识后脱离控制,乃至灭绝人类,还有很远。与其“杞人忧天”,不如更多关注将大规模杀伤性武器交给AI后引发误判的风险。
从这个角度看,古特雷斯的警告确有其道理,联合国也有责任发挥更大作用,切实监管好全球各国核安全领域的人工智能应用。
抓住机遇回应古特雷斯的关切,旗帜鲜明反对人工智能控制核武器、制造虚假信息和仇恨言论,应当成为引领人工智能国际规则制定的方向和重点。这次世界人工智能大会的成功举办,显示中国在倡导发展与治理并重方面迈出重要步伐
文中图片源自网络

往 期 回 顾




   扫描下方二维码关注九万里  

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存