CPU资源太满塞不下,传苹果研究将LLM存入NAND

2023-12-23
阅读量 1448

为了发展自家生成式AI,苹果一直在测试大型语言模型(LLM),但苹果同时要思考的是,要如何将LLM塞进手机与笔电。现在有消息称,LLM对CPU与内存资源负荷太重,苹果正尝试将LLM存入NAND闪存,以实现多设备轻松存取的目标。

图片
一般情况LLM需要AI加速器与较高DRAM储存容量。《TechPowerUp》报道,苹果努力将LLM技术导入内存容量有限的设备;苹果发表论文,探讨如何将LLM 导入内存容量有限设备(如iPhone),苹果研究员开发用闪存储存AI模型资料的技术。
论文指出,苹果iPhone与Mac有大量可用闪存,透过称为「视窗化」技术绕过限制视窗,让资料更有效分组,使AI模型更快从闪存读取资料,并加速理解力。AI模型也会重复使用处理过数据,减少提取闪存数据的需求,让整个处理过程更快。
上述两种方法都使AI模型运行速度达iPhone可用RAM大小的两倍,使标准处理器速度提高五倍、图形处理器速度提高25倍。
有大量证据证明,苹果相当重视AI;首先是自家聊天机器人(Apple GPT)。据传明年iPhone 16系列会搭载升级麦克风,虽然对苹果成本提高不少,但可升级语音输入功能,对Siri执行多项任务非常必要。
另有传言,某种形式生成式AI明年发表时,会整合至iOS 18系统;即便现在苹果技术还落后OpenAI、Google、亚马逊等公司,但这技术差距可能会在2024年大幅缩小。

点击此处关注获取最新资讯!

f328f6db93164f84bb23c090c28e7db.png88c1a0acd98aa6023fcbfa1f2ebf421.png

1.本文整理自网络,如有侵权,请联系删除。

2.所刊内容仅代表作者观点,非闪德资讯立场。

我的评论

登录后评论

最新评论

渠道报价
查看更多

PC 2666

  • 一年
  • 半年
  • 三个月
  • 一个月

微信订阅

APP下载

存储未来,赢得先机

18126200184

Copyright©2008-2024 闪德资讯 版权所有 粤ICP备18080549号-1

粤公网安备 44030402002744号