再谈苹果AI

雅识荟 2024-06-14 03:36:30

0、为什么苹果发布会当天跌2%,第二天涨7%?

因发布会前和很多投资人交流过“苹果/高通“,所以昨天发布会后给出的判断是:

“与OpenAI的合作程度,不及预期;

跨app协作、读屏、siri等功能,符合预期;

产品定义的完整程度,超预期。”

Apple Intelligence全场40多分钟,对OpenAI的介绍与描述极为克制,ChatGPT更像是给用户免费接入的一个“聊天搜索引擎”,并且发布会明确表述会考虑接入其他大模型。这种合作程度更像是APP式的合作,“按需”调用,不是“泛在”功能。

而Apple Intelligence展示出的设计理念与产品定义完整程度是超预期,永远将用户的日常使用需求与担忧放在第一位,从始至终都在强调“理解用户处境、好用、个性、隐私”,这也是拿走用户最多数据的手机形态该做的事情。OpenAI的AI追求的是scaling law与AGI;Apple Intelligence追求的是服务用户,让每一个普通用户也能拥有一位“个人助理”。

两个企业做的事情都很伟大。但苹果仍然拥有最好用的手机硬件、移动芯片和OS生态,这就是on-device AI最好的船票。

另外,关于Musk一直抨击的隐私问题,如果苹果都保护不好你的隐私,你还能相信谁能保护你的隐私?

回到最开始的问题,为什么先跌后涨?

冲OpenAI合作而来的投资者会走,合作仍比较浅层、审慎,跌这个。

认可苹果AI设计理念的投资者会留,仍然是最好且符合人性的产品定义,涨这个。

1、什么是Apple Intelligence?

Apple Intelligence的模型架构主要由3部分组成,包括苹果端侧大模型(拥有约30亿参数,其在iPhone 15 Pro上的处理速度达到每秒生成30个token,初始响应延迟仅为大约0.6毫秒)+苹果云端大模型(private cloud compute私密云计算,从苹果官方发布的测评结果看,苹果云端模型的处理能力与GPT-3.5相当)+Chat GPT(调用优先级排在苹果自研模型之后),算力足够情况下依赖于终端,更复杂的场景则使用私密云计算或Chat GPT。从具体合作形式上看,用户可以提出与文本、文档、照片、PDF 等相关的问题,Siri 会判断该查询请求是否接入ChatGPT处理。在此过程中,Siri 将免费利用 GPT-4o,用户无需创建账户且使用过程不会被记录。

2、Apple Intelligence加持下,新Siri有什么特征?

(1)跨应用的信息整合是核心亮点:在使用过程中,通过为照片、日历行程和文件等内容创建语义索引,再结合往来邮件和短信,Siri能发现并理解跨APP之间的信息(我们认为早期以原生应用为主,部分第三方亦会支持调用),具备跨平台信息处理能力:比如,当收到邮件通知会议延期,可以直接问Siri还能否赶上和朋友A之前约的电影,这个过程中Siri知道用户的朋友A是谁,电影几点开始,电影院在哪儿,到目的地所需时间,综合调用了短信、邮件、地图等工具。

(2)支持连续对话和上下文理解:支持更自然的语义理解,能联系上下文,可分析不连贯的语言或修正过的语言(这意味着Siri可以与用户连续对话,体验更为自然);

(3)具备屏幕内容理解能力:比如可以告诉Siri把朋友发来的地址信息添加到朋友的地址中。iPhone上也可以设置与Siri进行对话的方式(语音or文字),并根据情况自由在文字和语音之间进行切换。

3、以上三种特征的壁垒如何?

从难度排序上看,我们认为跨应用的信息整合要求最高,其次是屏幕内容理解,然后是联系上下文的语义理解。

(1)苹果能跨应用整合信息得益于系统+芯片+模型+终端的一体化优势,目前安卓相对落后,后面得看谷歌的优化,芯片厂商已经尽力了(去年算力已经支撑端侧70亿参数大模型,作为对比,苹果Apple Intelligence的端侧模型是30亿参数)。由于安卓手机厂商在系统(安卓)、芯片(高通、联发科)、模型(目前除三星接入Gemini外普遍采用自研或开源大模型)、终端(各家品牌)打通难度较大,导致现有安卓AI手机的AI应用局限于某个APP(比如面向录音、电话、修图),而苹果则可面向具体场景。值得一提的是,从这个逻辑上看,华为的鸿蒙(系统)+盘古(模型)+麒麟(芯片)一体化也是有前途的。作为延申,我们认为AIPC也是一个道理,即芯片的进展走在了系统前面。目前算力角度高通、AMD、Intel的新款PC处理器都已经具备45-50TOPS的NPU算力(此前的PC端处理器中NPU算力领先者是2023年10月底的高通X Elite,NPU算力达45TOS;Intel的Lunar Lake和AMD的锐龙AI 300最新处理器刚于本月COMPUTEX正式发布,NPU算力分别为48/50TOPS,前代产品则分别为11/16TOPS,参考下图),而应用端让消费者愿意为AI付费的动力还比较弱,因此微软在系统级AI应用上还有很长一段路要走。

图:主要PC处理器的NPU算力一览

(2)屏幕理解这块,苹果之前开发的ReALM和Ferret-UI、谷歌的ScreenAI视觉语言模型、Open AI的GPT-4o也具备这个能力。本质上是解决机器代人操作的需求,后面安卓端跟进是大趋势。

(3)上下文的语音理解难度主要在于NLP算法,也需要大模型加持,但难度相对前两者稍低,目前华为、小米等也具备该项技术。

图:谷歌的ScreenAI视觉语言模型

4、从产品创新到需求落地,逻辑链是什么?

复盘过去,iPhone的出货表现如何?——整体平稳。

从近三年出货角度,据GFK,2021-2023年iPhone出货量分别为2.35/2.30/2.31亿台,整体平稳。2024年一季度iPhone出货同比-9.6%至5000万部,我们预计2024Q2出货量相对稳健,或同比提升10%-20%至4500-4800万部。全年维度下我们预计出货或小幅下降。

展望未来,我们认为消费者的换机需求来自优质体验+硬件排他。目前苹果跨应用的AI体验已经实现了“不错的体验”(后续进步方向是打通更多第三方应用);而第二步的“硬件排他”也在实现。

苹果表示,Apple Intelligence 的落地仅限搭载A17 pro、M1/M2/M3/M4系列芯片及后续迭代产品的机型。现有iPhone机型中,仅有iPhone 15 Pro、iPhone 15 Pro Max支持Apple Intelligence功能。我们看到,苹果近几代的A系列处理器上,A15-A17的制程分别为5/4/3nm;NPU都是16核,算力则分别为15.8/17/35TOPS。而M1/M2/M3/M4芯片的制程分别为5/5/3/3nm;NPU都是16核,算力则分别为11/15.8/18/38TOPS。

那么,如何理解“搭载M1(11TOPS算力)的MacBook Air、MacBook Pro 、iPad Air、iPad Pro都可以支持Apple Intelligence ,而搭载A16(17TOPS算力)的iPhone 14 Pro/Pro Max反而不支持”?实际上,此处与算力关联度的关系较弱,更多受限于运行内存规格(以满足端侧模型运行需要,我们在此前AI终端大报告中有强调这一观点)。具体来看,iPhone 14 Pro/Pro Max的运行内存配置为6GB,而iPhone 15 Pro/Pro Max开始升级至8GB;同理,搭载M1芯片的MacBook Air (M1, 2020)、MacBook Pro (M1, 2020)、iPad Air(M1,2022)、iPad Pro(M1,2021)等均为8GB起步的运存配置。

因此,我们认为在Apple Intelligence对DRAM的要求下,iPhone换机需求相较于iPad、Mac端更大。

图:支持Apple Intelligence的机型

5、苹果产品创新大周期下,如何把握核心投资方向?

考虑到苹果Apple Intelligence落地仅限少数机型,叠加明年iPhone17有望在算力、大模型落地、散热、光学等方向持续创新(当然,还有27年前后潜在的折叠机型),我们认为iPhone有望迎来较强换机动能,步入出货上行通道。我们认为果链是后续消费电子核心主线,产品创新大周期下应把握核心量价逻辑。

看多果链的第一层逻辑,是量价齐升,β和α共振。在此过程中既有产品创新带来的ASP提升,也有稼动率提升带动的毛利率改善。这一逻辑核心关注鹏鼎控股(NPU升级直接受益,逻辑最稀缺;叠加稼动率提升带来的毛利率改善)。

看多果链的第二层逻辑,是量增,β是核心。关注创新周期下出货量增长、稼动率改善。这一逻辑核心关注立讯精密(苹果敞口高,β角度受益出货增长,α角度份额提升),水晶光电(苹果光学创新逻辑强,今年潜望下放,明年继续升级),高伟电子(苹果敞口最高,伴随后摄份额提升逻辑)。

此外关注:比亚迪电子(结构件)、统联精密(结构件)、领益智造(结构件)、蓝思科技(结构件)、长盈精密(结构件)、信维通信(结构件)、珠海冠宇(电池)、瑞声科技(声学)、歌尔股份(声学)、环旭电子(SIP)、赛腾股份(设备)、博众精工(设备)、奥普特(机器视觉)、长电科技(封测)。

0 阅读:0

雅识荟

简介:感谢大家的关注