爱思助手

苹果人工智能研究人员:取得重大突破,有望在 iPhone 上运行大型语言模型

苹果人工智能研究人员表示,他们已取得一项重大突破,通过一种创新的闪存利用技术,成功地在内存有限的苹果设备上部署了大型语言模型(LLM)。


这一成果有望让更强大的 Siri、实时语言翻译以及融入摄影和增强现实的尖端 AI 功能登陆未来 iPhone。


苹果人工智能研究人员:取得重大突破,有望在 iPhone 上运行大型语言模型


近年来,像 ChatGPT 和 Claude 这样的 LLM 聊天机器人风靡全球。它们能够进行流畅的对话、撰写不同风格的文本,甚至生成代码,展现出强大的语言理解和生成能力。然而,这些模型有一个致命弱点:它们极其“吃”数据和内存,普通手机根本无法满足其运行需求。


为了突破这一瓶颈,苹果研究人员开辟了一条新路,将目光投向了手机中普遍存在的闪存,也就是储存应用和照片的地方。在题为“闪存中的 LLM:利用有限内存实现高效的大型语言模型推理(LLM in a flash: Efficient Large Language Model Inference with Limited Memory)”的论文中,研究人员提出了一种巧妙的闪存利用技术,将 LLM 模型的数据存储在闪存中。作者指出,与传统用于运行 LLM 的 RAM 相比,闪存在移动设备中容量要大得多。


他们的方法巧妙地利用两种关键技术绕过限制,从而最小化数据传输并最大化闪存内存吞吐量:


窗口化(Windowing):可以将其视为一种回收利用的方法。AI 模型不会每次都加载新数据,而是会重复使用部分已处理的数据。这减少了频繁读取内存的需要,让整个过程更加流畅高效。


行-列捆绑(Row-Column Bundling): 这种技术类似于你读一本书时,不是逐字逐句地阅读,而是成段地阅读。通过更有效地分组数据,可以从闪存中更快地读取数据,从而加速 AI 理解和生成语言的能力。


论文指出,这项技术可以让 AI 模型的运行规模达到 iPhone 可用内存的两倍。在这项技术的加持之下,LLM 的推理速度在 Apple M1 Max CPU 上提高了 4-5 倍,在 GPU 上提高了 20-25 倍。“这一突破对于在资源有限的环境中部署先进的 LLM 至关重要,极大地扩展了它们的适用性和可访问性,” 研究人员写道。


更快更强的 iPhone AI


人工智能效率的突破为未来的 iPhone 开辟了新的可能性,例如更先进的 Siri 功能、实时语言翻译以及摄影和增强现实中复杂的 AI 驱动功能。该技术还为 iPhone 在设备上运行复杂的人工智能助手和聊天机器人奠定了基础,据悉苹果已经开始着手这项工作。


苹果开发的生成式 AI 最终可能被整合到其 Siri 语音助手中。2023 年 2 月,苹果举办了人工智能峰会,并向员工介绍了其大型语言模型工作。据彭博社报道,苹果的目标是打造一个更智能的 Siri,与 AI 深度集成。


苹果计划更新 Siri 与信息应用程序的交互方式,让用户能够更有效地处理复杂问题和自动完成句子。除此之外,传闻苹果还计划将 AI 添加到尽可能多的苹果应用程序中。


Apple GPT:口袋里的超级大脑


此前报道显示,苹果正在研发自己的生成式 AI 模型,代号为“Ajax”,旨在与 OpenAI 的 GPT-3 和 GPT-4 竞争,拥有 2000 亿个参数,暗示其在语言理解和生成方面具有高度复杂性和强大的能力。Ajax 在内部被称为“Apple GPT”,旨在统一苹果机器学习开发,这表明苹果将 AI 更深入地整合到其生态系统中。


据最新报道,Ajax 被认为比早期的 ChatGPT 3.5 更加强大。然而,一些消息人士也指出,OpenAI 的新模型可能已经超越了 Ajax 的能力。


The Information 和分析师 Jeff Pu 均声称,苹果将在 2024 年底左右,也就是 iOS 18 发布之时,在 iPhone 和 iPad 上提供某种形式的生成式 AI 功能。Pu 在 10 月份表示,苹果将在 2023 年建设数百台 AI 服务器,2024 年还将建设更多服务器。据报道,苹果将提供云端 AI 和设备端处理 AI 相结合的解决方案。


特别声明:本文版权归文章作者所有,仅代表作者观点,不代表爱思助手观点和立场。本文为第三方用户上传,仅用于学习和交流,不用于商业用途,如文中的内容、图片、音频、视频等存在第三方的知识产权,请及时联系我们删除。