智能周报|ChatGPT访问量首次下降;马斯克创立AI公司xAI;中国首部「生成式AI」规章来了;OpenAI或面临最强监管…
撰文 | 新皮层小组
编辑 | 王杰夫
本周智能领域的主题是群雄逐鹿。
自去年11月ChatGPT问世,成为史上用户增长速度最快的消费级应用程序,并随之开启人工智能新纪元的7个月后,这款现象级产品的访问量首次下降,6月份ChatGPT的网站流量相较上月下降了9.73%。这不难理解,市场上涌现的各种类ChatGPT竞品都在分走ChatGPT的用户,OpenAI与ChatGPT的护城河也并没有想象的深。就连马斯克都下场创立人工智能公司xAI,号称要「Understand the Universe」(理解宇宙)。
相比于其他商业化的闭源大模型,如Anthropic推出的Claude 2,GPT的网络响应速度更慢、上下文长度也更短,这都是由于AI芯片算力紧缺而无法满足迅猛增长的用户需求。更危险的竞争者来自开源产品,本周国内公司百川智能推出了参数更大的开源大模型,而Meta也发布了开源大模型LLaMA的商业版——基于它诞生了一系列表现优异的ChatGPT 「平替」 。后来者Android用户数反超先驱者苹果iOS的故事或许会再次上演。
木秀于林,风必摧之,OpenAI面对的麻烦不仅来自于竞争者。就在本周的最后一个工作日,美国联邦贸易委员会(FTC)向OpenAI发出了一份长达20页的质询函,包含大大小小200多个问题,要求披露训练模型的数据来源、内部针对模型安全性的评估报告等等。想必面对其他大模型的质询函也已经在路上。
国内监管的靴子也落地了。本周四,国家网信办等七部门联合发布《生成式人工智能服务管理暂行办法》,首次对生成式AI研发及服务作出明确规定。相较于4月的《征求意见稿》,正式版《暂行办法》首次明确了对生成式AI监管的辩证原则,要求「发展和安全并重、促进创新和依法治理相结合」,以及实行「包容审慎和分类分级监管」。
接下来,各国政府对大模型的监管会越来越严格,蜜月期结束了。
可以关注《第一财经》YiMagzine的最新IP「新皮层NewNewThing」。以下过去一周最值得关注的智能新闻,由该新IP为大家整理,请享用。
Key Points
模型篇
ChatGPT访问量6月首次下降;
百川智能发布开源大模型Baichuan-13B;
Anthropic发布第二代人工智能聊天机器人Claude 2;
马斯克创立人工智能公司xAI;
Meta发布LLaMA商业版。
监管篇
中国首部「生成式AI」规章来了;
FTC给出了20页的质询函,OpenAI或面临最强监管;
欧盟与美国达成新版数据隐私保护协议,强化对美国公司监管。
模型篇
ChatGPT访问量6月首次下降
《华盛顿邮报》7月7日报道,ChatGPT的网站访问量和应用软件下载次数在6月首次出现下降。根据SimilarWeb的数据,6月ChatGPT的网站流量达到了16亿次,相较上月下降了9.73%,但仍然是同类产品中访问量最高的。
OpenAI公司曾于5月在苹果App Store推出ChatGPT的应用软件,而Sensor Tower公布的数据显示,自6月初达到高峰以来,ChatGPT软件的下载量也开始下滑。
亮眼的「成绩单」
ChatGPT在推出两个月后月活跃用户就达到了1亿人次,成为当时用户数增长最快的互联网应用。其高速增长引发了全球技术巨头在大语言模型产品领域的「军备竞赛」。ChatGPT所属的OpenAI公司在完成103亿美元的最新一轮融资后,估值超过270亿美元。
数据下滑的原因
首先,自去年11月ChatGPT推出已经过去了8个月的时间,随着公众对ChatGPT的新鲜感逐渐消退,活跃度下降是正常现象。
其次,在ChatGPT推出之后,市场上涌现的各种类ChatGPT竞品都在分走ChatGPT的用户。例如,Google研发的Bard、初创公司Anthropic推出的Claude,以及同样基于GPT的微软New Bing。许多基于GPT API搭建的、应用场景更垂直的产品也相继推出,例如能够辅助阅读PDF的ChatPDF、协助梳理财报的FinChat等等。
最后,出于对数据泄露的担忧,许多公司禁止员工使用ChatGPT处理工作。此外,高等教育机构的学生在过去几个月里经常使用ChatGPT辅助论文写作,暑假期间这类学生的数量减少也是导致ChatGPT 6月访问量下滑的原因之一。
参考链接
https://www.washingtonpost.com/technology/2023/07/07/chatgpt-users-decline-future-ai-openai/
百川智能发布新款开源大语言模型Baichuan-13B
7月11日,百川智能发布旗下第二款通用大语言模型Baichuan-13B,参数量较上一款接近翻倍。
新模型有哪些优点?
区别于参数量在1000亿以上的ChatGPT、文心一言等大规模闭源大模型,Baichuan大模型是参数量100亿至200亿的轻量级开源大模型。百川的第一款产品Baichuan-7B拥有70亿参数,这次推出的Baichuan-13B则拥有130亿参数。新模型使用了拥有1.4万亿tokens的数据集,是130亿参数级别的大模型中使用训练数据量最大的。
根据C-Eval、MMLU、CMMLU等多种评测,Baichuan-13B在各学科领域的性能在130亿参数级别大模型中普遍领先,在人文社科领域使用汉语时的表现甚至略优于ChatGPT。
为什么要开源?
和闭源模型相比,开源模型的使用门槛大大降低,并且允许针对模型做整体、深度的二次改造,有利于激发下游产业的创新活力。手机领域的安卓系统就是一个开源的例子,发布后其用户规模很快就超过闭源的苹果系统。
如果把开源大模型比作安卓系统的话,真正发挥其价值的是小米、华为等对这个系统二次深度改造的手机厂商,以及为这个系统开发各种应用的开发者。目前开发者只要获得百川智能的商用许可,就可以在Baichuan-13B的基础上开发适用于自身业务场景的定制大模型并免费商用。
此前Meta的LLaMA开源大模型已经吸引了一大批开发者。Baichuan-13B凭借在汉语场景中的优势正试图复制这种成功。
参考链接
https://www.donews.com/news/detail/1/3590913.html
Anthropic发布第二代人工智能聊天机器人Claude 2
OpenAI前高管共同建立的AI初创公司Anthropic将正式发布新一代聊天机器人Claude 2,目前Anthropic已经在美国和英国通过网页端和付费API两种方式提供Claude 2测试版。
和旧版本相比有哪些更新?
• 生成结果的可靠性更高:和旧版本相比,Claude 2在多个领域的测试准确度有所提升。例如,Claude 2在律师考试的多项选择部分得分为76.5%,Claude 1.3为 73%。在 Codex Human Level Python编码测试中,Claude 2的成绩为71.2%,Claude 1.3的成绩为56%,编程能力提升显著。Claude 2还可以正确回答更多数学题,其GSM8K小学水平问题集的得分为88%,比Claude 1.3高出2.8个百分点。
• 数据更新:Claude 2接受了更新数据的训练,这些数据来自网站、获得第三方许可的数据集和用户自愿提供。但是Claude 2仍然无法像GPT-4一样联网。此外,Claude 2和Claude 1.3一样拥有10万 token,上下文长度没有变化。
• 危害性评估测试表现更好:在一项评估危害性的测试中,Anthropic向模型提供了328 种不同的提示,其中包括在线发布的「越狱」指示(可以理解为提供指示,诱导AI生成有害信息并绕过人类的限制)。在一个案例中,Claude 2根据指示产生的有害响应要低于Claude 1.3。在另一个指标上,Claude 2给出偏见答案的可能性比Claude 1.3更小。
• 继续为AI制定「宪法原则」:Anthropic一直警惕AI的潜在风险,部分员工甚至自比为当代的「原子弹之父」奥本海默。公司因此给AI制定了一份类似宪法的原则清单,让AI自我监管,降低行为不当的频率。这份清单借鉴了联合国的《世界人权宣言》、苹果服务条款等多种规则,争取让Claude作出「最无争议的反应」。
不足之处在哪里?
• 遭受「幻觉」困扰:再强大的模型也会遭遇幻觉困扰,AI模型会以不相关、无意义或事实上不正确的方式回答问题。
• 仍有生成恶意内容的可能:在旧版本中,用户能通过巧妙提示绕过Claude的内置安全功能,甚至可以提示Claude描述如何在家制作冰毒。Anthropic表示,根据内部评估,与Claude 1.3相比,Claude 2在给出「无害」响应方面的表现要「好两倍」。
参考链接
https://techcrunch.com/2023/07/11/anthropic-releases-claude-2-the-second-generation-of-its-ai-chatbot/
马斯克创立人工智能公司xAI
马斯克「X家族」再添新成员。当地时间7月12日,马斯克在Twitter上宣布,正式创立人工智能公司xAI。xAI官网显示,公司的宗旨是「Understand the Universe」(理解宇宙)。
关于xAI,目前我们知道什么?
• 团队
xAI官方主页列出了公司的12位主要研究人员信息,除了马斯克,其他11名团队成员此前分别就职于DeepMind、OpenAI、Google研究院、微软研究院、特斯拉等机构或公司。其中,有3位成员来自DeepMind(已并入Google),2位来自Google,1位来自OpenAI。团队成员此前已参与过AI领域的一些重点项目,包括GPT-3.5、GPT-4、AlphaStar等。此外,团队中有1/3的成员是华人研究员。
非营利组织「人工智能安全中心」的负责人Dan Hendrycks担任xAI的顾问,该组织的宗旨是「减少与AI相关的社会风险」。官网信息显示,目前xAI正在招聘工程师和AI研究员。
• 和马斯克其他公司的关系
xAI将作为马斯克的「X集团」中一个独立成员存在,但未来可能也会跟Twitter、特斯拉等公司合作。
• xAI具体要做什么事情
xAI联合创始人之一Greg Yang在Twitter上表示,公司将深入研究「深度学习的数学运算」,并开发大型神经网络的「万物理论」,希望将当前的AI提升到一个新水平。
xAI表示,更多与公司相关的信息,将在本周五(7月14日,即明天)的Twitter Space活动中公布。
马斯克要创立AI公司,此前早有端倪
• 3月,根据一份州备案文件,马斯克在内华达州注册了一家名为「X.AI Corp」的公司,马斯克为该公司唯一董事,马斯克家族办公室董事总经理Jared Birchall担任秘书。
• 4月,据路透社报道,马斯克将推出名为「TruthGPT」的人工智能平台,挑战微软与Google。当时,马斯克就表示,希望推出一种试图理解宇宙本质、能最大程度寻求真相的AI工具,这可能是通往AI安全的最佳路径。
• 4月,英国《金融时报》报道称,马斯克已为X.AI项目从英伟达购买了数千个高性能GPU处理器。
马斯克为何成立这家公司?
马斯克近来常以反对AI的姿态出现。3月29日,马斯克与1000多名业界、学界人士共同签署了一封公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统,暂停时间至少6个月。
但其实,马斯克多年来一直活跃在AI领域。他涉足AI的历史可以追溯到2011年,当时他是AI初创公司DeepMind的早期投资者;2014年,马斯克为AI领域的未来生命研究所捐款1000万美元;2015年,马斯克和山姆·奥特曼(Sam Altman)等几名技术人士共同出资10亿美元创立OpenAI,当时的定位为非营利组织。2018年,马斯克离开OpenAI;2022年11月,OpenAI刚推出ChatGPT,马斯克是最早的一批试用者,并且在Twitter上展示了与ChatGPT对话的过程,成为助推ChatGPT走红的关键人物。但今年以来,马斯克对AI的态度发生了微妙变化。
除了多次批评OpenAI,马斯克还曾表示要起诉微软。在否定这些AI领域的巨头的同时,马斯克早就打算推出竞品。4月,据路透社报道,马斯克正在从Google等公司「挖人」,希望创办一家能与OpenAI 竞争的公司。
参考链接:
https://x.ai/
Meta发布LLaMA商业版
当地时间7月14日,据英国《金融时报》报道,Meta准备发布其人工智能模型LLaMA的商业版本,初创公司和企业在该模型的基础上可以定制开发自己的软件。
什么是LLaMA?
LLaMA是Meta在2月24日推出的对标GPT的大语言模型,包括70亿、130亿、330亿、650亿4种参数规模,旨在推动LLM领域的小型化、平民化研究。
LLaMA是「大语言模型Meta AI」(Large Labguage Model Meta AI)的缩写,Meta曾对该模型开源,并多次强调只有非商业用途的开发者才能使用它。
LLaMA的商业版意味着Meta也将加入大模型商业生态的构建,与Google、有微软支持的OpenAI正面较量,后两家公司已在生成式AI领域推出过多款产品(比如Bard、Copilot,以及ChatGPT),并基于其模型搭建了庞大的云计算平台。
此时起步能否及时追上其他公司的步伐?
Meta推出商业版LLaMA的时间比OpenAI与Google两家公司推出的商用模型晚了至少半年。在如今的「硅谷AI竞赛」中,Meta似乎并不占优势。但是商用版LLaMA的以下几点特性,或将助力Meta追赶竞争对手:
• 占用更少算力:Meta称,其130亿参数的LLaMA模型的性能表现超过了拥有1750亿参数的GPT-3,而且可以跑在单个GPU上;650亿参数的LLaMA模型,性能表现甚至与拥有700亿参数的Chinchilla、拥有5400亿参数的PaLM相差无几。
• 开源模型迭代更快:与OpenAI等竞争对手不同的是,LLaMA为开源模型。Meta将其AI技术开源,即对外公开代码,可供用户自由修改和重复使用,这让个人和企业能更加方便容易地快速构建自己的聊天机器人。同时,它也让LLaMA可以更快迭代。
• 免费政策:就目前而言,商用LLaMA仍然免费。一位知情人士表示,「Meta意识到他们在当下的人工智能潮流周期中落后了,这为他们提供了一种开放生态系统的方式。」不过,未来Meta是否会对其收费尚未可知。
参考链接
https://www.ft.com/content/01fd640e-0c6b-4542-b82b-20afb203f271
监管篇
中国首部「生成式AI」规章来了
7月13日,国家网信办等七部门联合发布《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》),首次对生成式AI研发及服务作出明确规定,《暂行办法》自2023年8月15日起施行。
7月13日出台的这份《暂行办法》是基于4月发布的《生成式人工智能服务管理办法(征求意见稿)》(以下简称《征求意见稿》)调整优化而来,两者均明确要求生成式AI服务必须「遵循社会主义核心价值观」,在模型训练过程中必须「避免歧视」,必须「尊重知识产权和个人数据隐私权」,同时要尽量提高AI生成内容的准确性。两版文件均要求「对图片、视频等生成内容进行标识」,但都没有对文字生成内容作出规定。
此外,两版文件都要求,提供具有舆论属性或者社会动员能力的生成式人工智能服务的,应按照《互联网信息服务算法推荐管理规定》履行「算法备案和变更、注销备案手续」。
相较于4月的《征求意见稿》,正式版《暂行办法》首次明确了对生成式AI监管的辩证原则,要求「发展和安全并重、促进创新和依法治理相结合」,以及实行「包容审慎和分类分级监管」(第三条)。基于上述核心原则,《暂行办法》对《征求意见稿》作了多处重要调整:
首次要求生成内容「透明」和「可靠」
《暂行办法》的总则部分对于生成式AI的技术发展提出的大方向是:「提升生成式人工智能服务的透明度,提高生成内容的准确性和可靠性。」(第四条第五款)。除了在《征求意见稿》中多次出现的「准确」以外,「透明」和「可靠」都是这次出现的新提法。
拟建设「公共训练数据资源平台」
「透明」和「可靠」对生成式AI服务提出了更高要求。而为推动行业发展,《暂行办法》提出了若干支持措施,比如第六条首次新增了「促进算力资源协同共享」的内容,还提到要「建设公共训练数据资源平台」,提出「公共数据要分类分级有序开放」,要「扩展高质量的公共训练数据资源」,用于生成式AI模型的训练。
未向境内公众提供服务的生成式AI「研发」不受该规定限制
除此以外,《暂行办法》在《征求意见稿》的基础上适度放宽了若干限制,体现了「包容审慎」。
比如《征求意见稿》中,只要是向境内用户提供服务,不论是「研发」生成式AI还是「利用」生成式AI,都属于监管范围。但《暂行办法》收缩了监管范围,明确只监管「利用」生成式AI的服务,未向境内公众提供服务的生成式AI「研发」不受限制。此外,《征求意见稿》将生成「代码」也明确归入监管范围,《暂行办法》则在列举生成式内容时不再专门提及「代码」。(以上均见两版文件第二条)
不限制AI生成「虚假信息」,但要限制它生成「虚假有害信息」
对于生成内容的具体要求也有所放宽。《征求意见稿》第四条第一款要求AI生成的内容不得包含「虚假信息」,《暂行办法》中则将之进一步限定为「虚假有害信息」。可能是考虑到类似ChatGPT这样的生成式AI不可避免地会「瞎说」,《暂行办法》不再要求生成式AI服务方单独采取措施以防止AI生成虚假信息(《征求意见稿》第四条第四款)。
不再要求生成式AI的使用者实名
用户的使用门槛也有所降低。《征求意见稿》第九条要求生成式AI的使用者必须提供真实身份信息,《暂行办法》则删去了这一条款。
七部门都要参与生成式AI管理
在放宽若干限制的同时,《暂行办法》进一步压实了管理责任,将《征求意见稿》中多次提到的「网信部门和国家有关部门」明确为包括「国家网信办、发展改革委、教育部、科技部、工信部、公安部、广电总局」在内的七部门。
「新闻出版、影视制作、文艺创作」等领域可以在本规定基础上另有规定
根据《暂行办法》第十六条,上述部门需要「完善与创新发展相适应的科学监管方式,制定相应的分类分级监管规则或者指引」,而国家对利用生成式人工智能服务从事「新闻出版、影视制作、文艺创作等活动另有规定的,从其规定」。
在主管部门监管职责细化的同时,生成式AI服务的提供者需要配合主管部门提供训练模型、数据的基本信息。《征求意见稿》要求服务提供者在「发现生成违法内容时停止生成并对模型重新优化训练」(第十五条),《暂行办法》则进一步要求服务提供者在采取前述措施的同时向主管部门报告。此外,《暂行办法》还要求服务提供者对违法使用者履行监督报告义务,在采取警示、限制功能等措施之外,还需向主管部门报告(第十四条)。
最后,《征求意见稿》第二十条中对违法情节严重或拒不改正者处以1万到10万元罚款的内容则被删除。
FTC给出了20页的质询函,OpenAI或面临最强监管
据《华盛顿邮报》7月14日消息,美国联邦贸易委员会(FTC)已向OpenAI发出了一份长达20页的质询函,要求其提供有关如何解决AI模型相关风险的记录。这是迄今为止OpenAI在美国面临的最强监管。
质询函关于哪几个方面?
FTC的调查内容主要针对《联邦贸易委员会法》第5条,即OpenAI是否存在不公平或欺骗性行为。这份质询函提出了包括模型训练、隐私和提示词风险、API插件、个人信息等在内的49个问题,囊括200多个小问题。可以总结成下面几个部分:
• 公司背景:注册信息、成员构成、关联公司、财务收益等;
• 模型开发与训练:用于训练、测试、审计和监控模型的政策和程序,用于训练模型的数据来源、数据类型、数据保留和负责数据的个人或部门的详尽信息等;
• 风险评估与应对:采取降低模型输出包含非法、不安全、有偏见或误导内容风险的技术和组织安全措施等;
• 隐私和提示词风险及措施:用户投诉受到伤害的详细信息与公司回应,与AI系统的隐私、安全和伦理相关的政策和程序、内部针对模型安全性、偏见和事实正确性的沟通和评估和研究等;
• API集成及插件:与第三方就开发模型签订的所有协议等。
OpenAI对质询函的回应
接到质询函后,OpenAI首席执行官Sam Altman连夜更新了3条推文,称公司会与FTC合作,但FTC的要求从泄密开始,无助于建立信任,他感到非常失望,并声称:「我们在多年安全研究的基础上构建了GPT-4,并在完成初始培训后花了6个多月的时间使其更安全、更一致,然后才发布。我们保护用户隐私,并设计我们的系统来更了解世界,而不是(更了解)个人。」
两个月前,国会还对Sam Altman无比友好
「新皮层」曾报道,今年5月,Sam Altman曾在参议院司法委员会就隐私、技术和法律小组委员会作证。彼时参议员们提出的问题大多并不尖锐,更多时候,他们只是向Altman和其他证人就ChatGPT等生成式人工智能工具未来规则的制定寻求意见。
但两个月不到,风向似乎就变了。6月28日,北加州的一家律所对OpenAI提起集体诉讼,指控其在训练大模型时从网上抓取数据,侵犯了16位原告的著作权和隐私,要求赔偿30亿美元。随后又有几位作家分别起诉了OpenAI。
值得一提的是,3月初,OpenAI系统中的一个错误导致部分用户可以看到另一用户的姓名、电子邮件、支付地址、信用卡类型、信用卡号码的最后四位数、信用卡的过期日期,以及聊天记录的标题。虽然不久后公司回应称漏洞已修复,但本次FTC要求OpenAI对此作二次说明。
质询函原文可查看:
https://www.washingtonpost.com/documents/67a7081c-c770-4f05-a39e-9d02117e50e8.pdf?itid=lk_inline_manual_4
针对用户隐私泄露事件OpenAI的回应:
https://openai.com/blog/march-20-chatgpt-outage
欧盟与美国达成新版数据隐私保护协议,强化对美国公司监管
7月10日,欧盟常设执行机构欧盟委员会通过《欧盟-美国数据隐私框架充分性决定草案》(以下简称《决定》),要求美国对于从欧洲流向美国的个人数据采取与欧盟相当的保护标准,美国公司必须符合欧盟的标准,才能将欧洲用户的个人数据自由传递到美国。
《决定》说了啥?
《决定》的关键词是「充分性」,旨在为欧盟境内个人用户的数据隐私提供一种较之以往更充分、更完备的监管标准。
2020年7月欧盟法院裁定欧盟原来执行的欧美数据流通协议,也就是《隐私盾协议》无效,主要认为原协议对美国的约束不够充分,美国的监听计划仍可以无差别地广泛监听欧盟公民的数据隐私,原本协调美欧数据争议的机制也未促进这类问题的解决,反而使问题恶化。
有鉴于此,欧盟和美国开始一系列谈判,于去年3月达成《跨大西洋数据隐私框架》,随后欧盟在当年12月出台了《决定》草案,并于日前正式通过。
新出台的《决定》要求欧盟委员会在制定跨国数据传输规则时必须确保第三国对数据隐私的保护水平与欧盟「基本相同」,并要求第三国必须立法,不得随意侵犯欧盟境内传输数据者的基本权利,包括以国家安全为由的无差别监听。考虑到美国在去年10月已经出台相关行政命令,《决定》认为美国政府已达到相关要求,后续只要美国公司遵循《决定》的各项细节,就可以在不经额外审查的情况下重新获得欧洲用户的个人数据。
欧美的数据隐私争议到底在争什么?
欧美之间最早在2000年就签订了《安全港协议》,对数据隐私的传输作出规范。但该协议因2013年的斯诺登事件受到广泛质疑,被认为过于宽松。
所以欧盟在2016年的《隐私盾协议》中对监管措施作了许多升级,比如配套严厉的惩罚措施,并要求美国任命一个监察员,专门负责为被侵权的欧盟数据主体提供救济等。今年出台的《决定》则是在《隐私盾协议》基础上的再次升级。
这些协议一方面体现欧盟对数据主权和个人隐私的保护,另一方面也是试图遏制美国和美国公司在数字经济领域的某些垄断。比如今年5月欧盟曾以向美国违规传输欧洲用户数据为由对Facebook的母公司Meta处以13亿美元罚款。
由于Facebook等美国互联网巨头提供的服务多数在欧洲并不存在对应竞品,欧盟又是这些公司在本土以外的最大市场,所以双方无法脱钩,只能采取协商的方式解决争议。本次《决定》实际上是通过要求美方加强监管来换取美国公司在欧洲更低成本的、稳定的运营。
新版《决定》能在多大程度上解决问题?
新版《决定》自通过之日起生效,这意味着美国公司在遵守欧盟规定的前提下重新获得了自由传输欧盟用户数据的权利,像Facebook就可以暂时歇口气,不用担心再因同样理由被罚款了。
和以往的两份数据隐私协议一样,并非所有人都对《决定》满意。曾经两次上诉欧盟法院、促成《安全港协议》和《隐私盾协议》废除的奥地利隐私保护人士斯科雷姆斯已经表示,将再次提起上诉。
参考链接
https://www.secrss.com/articles/3330
https://ec.europa.eu/commission/presscorner/detail/en/ip_23_3721
我们是一个诞生于GPT浪潮、由《第一财经》YiMagazine孵化的全新内容IP。
和每一位关心技术、关注人类命运的读者一样,我们希望在这个充满不确定性的时代,更好地理解快速变化的科技世界,也更好地理解生而为「高级智能」的我们自己。
在这个目标下,我们计划从学术、商业、伦理、监管等多个角度报道和讨论与“智能”相关的议题。请注意,我们说的智能,不只是 AI。
若想了解更多本周资讯,请点击阅读往期智能周报
智能周报|蚂蚁集团被罚71.23亿元;Meta推出新社交应用Threads;美国拟限制中国AI公司使用美国云计算
与记者交流,可添加微信(请备注公司名称和姓名):
王杰夫 微信号: wjfsty
张司钰 微信号: helianthus351
吴洋洋 微信号: qitianjiuye