查看原文
其他

跨越AGI,Ilya官宣创业!我要的是「核安全」,SSI剑指安全超级智能

Milan写技术 AI说热点
2024-09-05

 点这里 👇 关注我,获取更多的AIGC资讯~



01
文章摘要

【关 键 词】 AI安全、超级智能、技术创新、团队招聘、伦理关注

Ilya Sutskever,OpenAI的关键人物,宣布离开并创立了一家名为Safe Superintelligence Inc(SSI)的新公司,专注于开发安全的超级智能技术。这一消息在社交媒体上迅速传播,获得了大量关注和支持。

SSI的核心理念是实现安全的超级智能,这被Ilya视为“我们这个时代最重要的技术问题”。公司的目标是构建一个能够确保安全性的超级智能系统,同时推进技术能力的发展。Ilya强调,SSI将通过革命性的工程和科学突破来解决安全性和能力的技术问题,并确保安全性始终领先。

SSI的商业模式和团队构建都围绕着实现这一目标进行。公司在美国帕洛阿尔托和特拉维夫设有办事处,正在积极招聘顶尖的技术人才。Ilya和其他联合创始人,包括Daniel Gross和Daniel Levy,邀请全球的优秀工程师和研究者加入SSI,共同解决这个时代的重要技术挑战。

Daniel Levy在2022年加入OpenAI,领导了优化团队,并在斯坦福大学获得了计算机科学博士学位,研究领域包括机器学习、优化和隐私。他的加入为SSI带来了宝贵的专业知识和经验。

SSI的成立不仅是Ilya个人职业生涯的一个重要转折点,也代表了AI领域对于安全和伦理问题日益增长的关注。随着技术的发展,如何确保AI系统的安全性和对人类社会的积极影响,成为了全球范围内亟待解决的问题。SSI的愿景和努力,有望为这一领域带来新的视角和解决方案。

02
原文信息

【原文链接】 阅读原文 [ 3538字 | 15分钟 ]
【原文作者】 新智元


推荐阅读

继续滑动看下一个
AI说热点
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存