为了发展自家生成式AI,苹果一直在测试大型语言模型(LLM),但苹果同时要思考的是,要如何将LLM塞进手机与笔电。现在有消息称,LLM对CPU与内存资源负荷太重,苹果正尝试将LLM存入NAND闪存,以实现多设备轻松存取的目标。一般情况LLM需要AI加速器与较高DRAM储存容量。《TechPowerUp》报道,苹果努力将LLM技术导入内存容量有限的设备;苹果发表论文,探讨如何将LLM 导入内存容量有限设备(如iPhone),苹果研究员开发用闪存储存AI模型资料的技术。论文指出,苹果iPhone与Mac有大量可用闪存,透过称为「视窗化」技术绕过限制视窗,让资料更有效分组,使AI模型更快从闪存读取资料,并加速理解力。AI模型也会重复使用处理过数据,减少提取闪存数据的需求,让整个处理过程更快。上述两种方法都使AI模型运行速度达iPhone可用RAM大小的两倍,使标准处理器速度提高五倍、图形处理器速度提高25倍。有大量证据证明,苹果相当重视AI;首先是自家聊天机器人(Apple GPT)。据传明年iPhone 16系列会搭载升级麦克风,虽然对苹果成本提高不少,但可升级语音输入功能,对Siri执行多项任务非常必要。另有传言,某种形式生成式AI明年发表时,会整合至iOS 18系统;即便现在苹果技术还落后OpenAI、Google、亚马逊等公司,但这技术差距可能会在2024年大幅缩小。
点击此处关注,获取最新资讯!
我的评论
最新评论