随着OpenAI的生成式AI 模型ChatGPT的推出,微软、Google等大型科技公司都加入到了AI 竞赛中,争先推出了自己的AI 产品,然而,苹果(AAPL-US) 却一直保持沉默。
但在本周三(4/24),苹果发布了自己的生成式AI 模型——OpenELM,该模型最小尺寸可达2.7 亿,可在手机和笔记型电脑等设备上运行。此外,这些模型是开源的,可供开发人员使用。
在本篇文章中,我们将介绍有关苹果新AI OpenELM 的所有信息。
苹果新AI OpenELM
苹果公司的研究人员于4 月24 日在其开源AI 平台Hugging Face 上发布了新的人工智能模型——OpenELM,OpenELM 代表「开源高效语言模型」,该模型在诸如电子邮件编写、文字生成、摘要撰写等文字相关任务上执行得非常有效率。
据了解,OpenELM 有四种规模,分别为2.7 亿、4.5 亿、11 亿和30 亿个参数版本。参数是指模型在决策过程中从训练资料集中理解了多少变数。
例如,微软最近发布的Phi-3 模型触底于38 亿个参数,而Google 的Gemma 提供了20 亿个参数版本。
可以看出,OpenELM 比大多数轻量级AI 模型还要小,这种小型模型的运行成本更低,经过优化可以在手机和笔记型电脑等设备上运行。
此外,该模型是开源的,可在Hugging Face 库中供开发人员使用。
苹果执行长Tim Cook 开玩笑说,生成式人工智能功能将出现在该公司的设备中,并在二月份表示,苹果正在该领域花费「大量时间和精力」。然而,苹果尚未透露其人工智能应用的具体细节。
OpenELM 有哪些亮点?
据苹果官方所述,OpenELM 是一种最先进的开放语言模型。 OpenELM 使用分层缩放(layer-wise scaling)策略来有效地分配变压器模型每一层内的参数,从而提高准确性。例如,在参数预算约为10 亿个参数的情况下,OpenELM 与OLMo 相比,精度提高了2.36%,同时所需的预训练令牌减少了2 倍。
此外,「与先前仅提供模型权重和推理程式码以及在私人资料集上进行预训练的做法不同,我们的版本包括在公开资料集上训练和评估语言模型的完整框架,包括训练日志、多个检查点和预训练。我们还发布了将模型转换为MLX 库的程式码,以便在Apple 装置上进行推理和微调。这一全面的发布旨在增强和加强开放研究社区的力量,为未来的开放研究努力铺平道路。」
MLX 是去年释出的一种用于苹果晶片上运行机器学习的框架,在苹果装置本地端执行而非网络,这项功能有可能会让开发人员对OpenELM 更有兴趣。
苹果AI 最新发展进程
除了OpenELM 外,苹果公司先前曾发布其他人工智能模型,但并未像竞争对手那样发布任何用于商业用途的人工智能基础模型。
去年12 月,Apple 推出了MLX,这是一个机器学习框架,让AI 模型更轻松地在Apple Silicon 上更好地运行。它还发布了一个名为MGIE 的图像编辑模型,可以让人们根据提示修复相片。另一种AI 工具Ferret-UI 可用于导航智能手机。据传苹果正在开发一款类似GitHub 的Copilot 的程式码完成工具。
然而,尽管苹果发布了所有模型,但据报导该公司仍联系了谷歌和OpenAI,将他们的模型引入苹果产品中。
有媒体报导,苹果近来先后收购两家AI 新创公司——加拿大AI 新创公司DarwinAI 和法国AI 新创公司Datakaleb,专注于缩小大型语言模型,目标是让iPhone 顺畅运作AI,而不用靠云端运算。
此外,近期一位化名为「手机晶片专家」的微博用户爆料,苹果正在研发全新的客制化AI 伺服器,同时采用台积电3 奈米N3E 制程来设计处理器的核心晶片,并预计将于2025 下半年进入量产阶段。不过苹果官方目前并未对相关爆料消息提出回应。
本文链接地址:https://www.wwsww.cn/rgzn/25247.html
郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。