查看原文
其他

苹果的AI策略越来越清晰了

李木子 AI大模型实验室
2024-09-05

自从 ChatGPT、Gemini 和 Midjourney 等模型发布以来,人们一直在讨论它们是否会出现在我们的日常生活中,影响我们的生活。Apple 也在试图回答这个问题,本周他们在 WWDC 2024 上正式发布了自己的产品 Apple Intelligence。

在周一的发布会上,Apple 展示了许多令人印象深刻的内容。在高级副总裁 Craig Federighi 展示高空跳伞和跑酷(借助一些好莱坞魔法效果)时,Apple 还展示了其内部模型与竞争对手的能力不相上下。

这个问题的答案还未确定,因为测试版刚刚发布,但 Apple 已经透露了其生成式 AI 的独特之处。首先是应用范围,许多知名公司在这一领域采取 “越大越好” 的策略,目标是打造一个一站式获取信息的系统。

相比之下,Apple 的策略更加务实。Apple Intelligence 是一种量身定制的生成式 AI,专门基于公司的不同操作系统构建。这种方式非常符合 Apple 的风格,优先考虑的是无缝的用户体验。

从某种意义上说,Apple Intelligence 是一个品牌推广,但公司更希望生成式 AI 无缝地融入操作系统。用户不需要了解这些系统背后的技术,这正是 Apple 产品一贯的特点。

#01

保持模型小型化
实现这一目标的关键是创建更小的模型:在专门为其操作系统用户设计的定制数据集上训练系统。目前还不清楚这些模型的小型化如何影响黑箱问题,但 Apple 认为,至少拥有更多特定主题的模型可以增加系统决策的透明度。

由于这些模型较为有限,Apple 不期望系统在进行文本摘要等任务时表现出大量的多样性。不过,摘要结果的变化主要取决于文本的长度。操作系统还配备了反馈机制,用户可以报告生成式 AI 系统的问题。

尽管 Apple Intelligence 比更大的模型更专注,但由于包含了为不同任务和风格设计的 “适配器”,它仍然可以处理各种请求。然而,Apple 的创建模型方法并不是 “越大越好”,因为在处理设备上的模型时,需要考虑大小、速度和计算能力等因素

#02

ChatGPT、Gemini 及其他模型
考虑到 Apple 模型的应用范围有限,开放给像 OpenAI 的 ChatGPT 这样的第三方模型是有意义的。Apple 专门为 macOS 和 iOS 体验训练了其系统,因此有大量信息超出了其处理范围。在系统认为第三方应用更适合提供回应的情况下,系统会提示是否愿意分享这些信息。如果没有收到这样的提示,说明请求是由 Apple 内部模型处理的。

对于 Apple 合作的所有外部模型,包括 Google Gemini,这应该都是一样的。这种情况是系统少有地引起人们对其使用生成式 AI 注意的实例之一。部分原因是为了消除隐私方面的担忧。每家公司在收集和训练用户数据方面都有不同的标准。

每次都要求用户选择加入,尽管流程上有些繁琐,但也减轻了 Apple 的一些责任。你也可以选择系统范围内不使用第三方平台,不过这样做会限制操作系统或 Siri 可以访问的数据量。但是,你不能一次性选择退出 Apple Intelligence,而是需要逐个功能地进行设置。

#03

私有云计算
另一方面,系统是在设备上处理查询还是通过私有云计算的远程服务器处理,目前还不清楚。Apple 的理念是,这样的披露是没有必要的,因为它对服务器的隐私标准与其设备相同,包括它们运行的第一方芯片。

要确定查询是否在设备上或设备外处理的一种方法是将设备断开网络连接。如果问题需要云计算解决,但设备找不到网络,它会显示一个错误,说明无法完成请求的操作。

Apple 正在详细说明哪些操作需要基于云处理。有多种因素在起作用,这些系统的不断变化意味着今天需要云计算的操作,明天可能就可以在设备上完成。设备上的计算并不总是最快的选项,因为速度是 Apple Intelligence 在确定处理请求地点时考虑的参数之一。

然而,有些操作将始终在设备上执行。其中最值得注意的是 Image Playground,因为完整的扩散模型存储在本地。Apple 调整了模型,使其可以生成三种不同的风格:动画、插图和素描。动画风格看起来很像另一家由 Steve Jobs 创立的公司的风格。同样,文本生成目前有三种风格:友好、专业和简洁。

即使在这个早期测试阶段,Image Playground 的生成速度也非常快,通常只需几秒钟。关于生成人物图像时的包容性问题,系统需要你输入具体信息,而不是简单地猜测诸如种族之类的内容。

#04

Apple 将如何处理数据集
Apple 的模型通过组合授权的数据集和爬取公开可访问的信息进行训练。后者是通过 AppleBot 完成的。公司的网络爬虫已经存在一段时间了,为 Spotlight、Siri 和 Safari 等应用提供上下文数据。爬虫有一个现有的发布者选择退出功能。

Apple 指出,“通过 Applebot-Extended,网站发布者可以选择不将其网站内容用于训练 Apple 的基础模型,这些模型为包括 Apple Intelligence、服务和开发者工具在内的生成式 AI 功能提供支持。”

这通过在网站代码中包含一个提示来实现。随着 Apple Intelligence 的出现,公司引入了第二个提示,允许网站被包含在搜索结果中但不用于生成式 AI 模型的训练。

#05

负责任的 AI
Apple 在 WWDC 的第一天发布了一份白皮书,题为 “介绍 Apple 的设备上和服务器基础模型”。其中强调了管理公司 AI 模型的原则。特别是,Apple 强调了四点:
  • 为用户提供智能工具:我们识别 AI 可以负责任地使用的领域,以创建工具来满足特定用户需求。我们尊重用户如何选择使用这些工具来实现其目标。
  • 代表我们的用户:我们构建深度个性化的产品,旨在真实地代表全球用户。我们不断努力避免在我们的 AI 工具和模型中延续刻板印象和系统性偏见。
  • 精心设计:在我们的每一个过程阶段,包括设计、模型训练、功能开发和质量评估,我们都采取预防措施,识别 AI 工具可能被滥用或导致潜在伤害的方式。我们将不断且主动地通过用户反馈改进我们的 AI 工具。
  • 保护隐私:我们通过强大的设备上处理和突破性的基础设施(如私有云计算)来保护用户隐私。我们不会在训练我们的基础模型时使用用户的私人个人数据或用户互动数据。

Apple 对基础模型的定制方法允许系统专门针对用户体验进行调整。自从第一台 Mac 问世以来,公司一直采用这种用户体验优先的方法。尽可能提供无摩擦的体验是为了服务用户,但不应以牺牲隐私为代价。

随着当前的一批操作系统测试版在今年正式发布,这将是 Apple 需要应对的一项艰难平衡。理想的方法是根据终端用户的需求提供尽可能多或少的信息。毫无疑问,会有很多人不关心查询是否在设备上或云端执行。他们只希望系统默认选择最准确和高效的方式。

对于隐私倡导者和其他对这些细节感兴趣的人,Apple 应尽量提供用户透明性 —— 更不用说那些可能不希望其内容被用来训练这些模型的发布者的透明性了。有些方面目前不可避免地存在黑箱问题,但在可以提供透明度的情况下,应根据用户的请求提供。


AI 大模型实验室推出了《AI 大模型实战训练营》,内容涵盖大模型开发的方方面面,有基础知识,也有实战代码。课程直播 30 多个小时,有 12 个动手实战案例,讲师是公司大模型项目负责人,百度 PaddlePaddle、Scikit-learn 等项目的代码贡献者,有丰富的理论和实战经验,跟着他学,能少走很多弯路。现在优惠价报名中,点击下方图片即可了解课程内容。
继续滑动看下一个
AI大模型实验室
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存