其他
GPT-5不能停!吴恩达和 lecun:汽车都没发明要什么安全带
整理 | 朱珂欣
(图源:Twitter 截图)
(图源:Twitter 截图)
来自现实和未来的双重焦虑
来自现实和未来的双重焦虑
(图源: YouTube 截图)
打消顾虑,而并非对 AI 杞人忧天
直播中,吴恩达和 Yann LeCun 为了打消人们对 AI 不切实际的期待后产生的“焦虑”,分别做出了自己的阐述。
吴恩达举例了 1975 年的 Asilomar 会议。该会议是基于 DNA 新技术提供了相当大的机会,但存在潜在的健康和环境风险的情况下召开的。因此,通过 Asilomar 会议最终对重组 DNA 技术发展初步达成共识、确立了重组 DNA 实验研究的指导方针或准则、就一些暂缓或严令禁止的实验达成共识、提出生物科学家和科研机构的行动指南等。
但吴恩达表示,与传染病的传播不同,他没有看到人工智能逃跑的任何现实风险。如果 AGI 将带来显示的风险,至少需要几十年,甚至几个世纪。
(图源:scientificamerican 截图)
适当监管产品,但不能停止研发
基于人们对 AI 可能被滥用产生的担忧,吴恩达和 Yann LeCun 表示:一些监管是必要的,但不能以牺牲研究和创新为代价。 他们一致认为,暂停开发或部署模型是不现实的,往往最后会适得其反。同时,还呼吁研究人员、政府和企业之间加强合作和透明度,以确保人们可以使用负责任的 AI 。 Yann LeCun 坦言在看到“联名信”的第一反应是:呼吁推迟研发带有一丝蒙昧主义,也减缓了知识和科学的进步。 就产品问题而言, Yann LeCun 他赞成监管人们手中的“大模型”,但不赞成监管研发。他认为除了减少我们可以用来使技术更好、更安全的知识之外,没有任何目的。虽然 AI 有一些伤害的风险,比如偏见、公平、权力集中,但生成式人工智能在教育、医疗、教育辅导上创造的价值比比皆是。 Yann LeCun 还表示:“构建比 GPT-4 更好的模型将有助于这些应用程序帮助很多人,因此,暂停将会造成很大的伤害,组织有价值的东西产生。” 直播播出后, YouTube 的留言区也是热闹非凡,许多站“支持派”的网友纷纷表示:“这是有启发性的,感谢你们表现出勇气并分享真实的观点”;“人工智能研究需要继续不受限制地发展”;“ 6 个月 AI 暂停有点为时过早,也许不是一个好主意”。也有站“反对派”的网友称:“滥用和造成的严重社会混乱的风险很高”;“我们不能把安全放在没有保障的东西上”……对此,你怎么看,可以在评论区留言和讨论。
参考链接:
https://venturebeat.com/ai/titans-of-ai-industry-andrew-ng-and-yann-lecun-oppose-call-for-pause-on-powerful-ai-systems/
https://www.youtube.com/watch?v=BY9KV8uCtj4
https://gist.github.com/simonw/b3d48d6fcec247596fa2cca841d3fb7a