您的位置首页 >安保产品 >

苹果的新设备模型是人工智能的未来

导读 苹果公司已经透露了其设备上人工智能的一些计划,该人工智能将在未来的 iPhone 上运行,任何人都可以使用它。我们已经习惯了在大型服务器...

苹果公司已经透露了其设备上人工智能的一些计划,该人工智能将在未来的 iPhone 上运行,任何人都可以使用它。

我们已经习惯了在大型服务器场上运行的人工智能,其消耗的电量是常规云服务器的十倍,当然,我们还面临着与云计算相关的所有常见隐私风险。但长期以来,苹果公司的做法是尽可能保留 iPhone 上的私人数据,但这往往会损害它(例如 Siri)。但通过这些新的库,Apple 向用户展示了如何两全其美。那么这一切到底意味着什么呢?

“设备上的人工智能模型通常比云端的人工智能模型要小。它们尺寸的减小需要更少的计算、更快的响应以及响应用户查询时消耗的能源更少。此外,查询及其响应不会离开设备,从而增强了用户隐私。设备上的人工智能模型避免了数据移动以及与云和数据中心服务器的通信,这应该提高性能并减少能源消耗。总而言之,设备上的人工智能可以改变消费电子产品的用户体验。”宾夕法尼亚州通过电子邮件告诉 Lifewire。

速成班

人工智能的猜测速度非常快。当你要求它写一份你打算冒充自己的读书报告时,它会逐字逐句地写,并根据它的训练猜测下一个字母应该是哪个。对于图像来说也是如此。它会猜测下一个像素,直到获得虾神的完整图片。

这看起来完全不可能,但显然事实并非如此,正如我们都看到的结果。关键部分是培训。要制作大型语言模型 (LLM),您需要训练神经网络。这意味着您向其提供无数图像(或文本片段),并且计算机可以识别源材料中的模式。人类一路提供帮助,也许是通过告诉计算机哪些图块包含桥梁或自行车的图片。

结果是代表整个训练数据的简单数学方程汤。相似的单词被组合在一起,不是二维或三维的,而是数千个,这对我们来说是令人费解的,但对计算机来说却不是。

然后,当您希望法学硕士撰写学期论文时,您需要对其进行描述。机器使用其模型来解释输入并创建输出。

这里的关键部分是训练模型需要大量的计算能力,但是一旦模型制作完成,它就可以在普通计算机上使用。如果缩小模型,它的能力可能会下降,但它可以在更小的计算机上运行,​​并且需要更少的电量。

苹果的模型

这让我们回到了 Apple 的模型,称为OpenELM,它被设计为在 iPhone 上运行。整个模型可以包含数万亿个参数,但 Apple 提供了几个较小的选项,包括 2.7 亿、4500 万、11 亿和 30 亿个参数。参数越多,模型在人工智能方面的表现就越好。

那么为什么这很重要呢?因为它让苹果可以在计算能力相对有限、电池也非常有限的设备上运行人工智能。通过针对特定目的进行优化,模型可以更小、更高效。苹果可以将其模型设计为在 Mac 和 iPhone 中多年来使用的人工智能硬件(神经引擎)上运行。

例如,神经引擎已经运行 iPhone 相机的处理。这就是为什么相机可以识别画面中的人物、模糊背景、将 HDR 和毛衣模式的图像拼接在一起等等。这就是“照片”应用程序识别您的家庭成员的方式,即使他们大部分时间都远离相机。等等。由于硬件和软件同时运行,这一切都发生在不到一秒的时间内。

在设备上本地运行优化的人工智能有几个优点。一是功耗,尽管最初训练这些模型仍然会消耗大量电力。另一个是隐私,因为许多任务可以在不联系服务器的情况下完成。另一个是自治。您不需要互联网连接即可完成许多任务。例如,再想想苹果如何处理你的照片。所有这些处理都是在设备上完成的,无需将图像发送给苹果进行人员识别等。

机器学习公司Flock.io的创始人兼首席执行官孙嘉豪通过电子邮件告诉 Lifewire: “设备上的人工智能比基于云的人工智能更加节能,因为它最大限度地减少了网络数据传输的需求。”

正如我们从本文的照片示例中看到的那样,高度集中的任务非常适合人工智能或过去所谓的机器学习。例如,您不需要整个 ChatGPT 来改进 Siri。自 iOS 17 出现以来,设备上的“AI”一直在为您的预测性拼写检查提供支持。

标签:

免责声明:本文由用户上传,如有侵权请联系删除!