早几年出现的折叠屏没能拯救颓势的手机市场,直接证据就是去年全球出货量依旧拉胯,同比下滑3.2%至11.7亿部,为近十年来最低。
好在Q4出现了些许回暖,全球和中国市场分别有8.5%和1.2%的同比增幅,尤其是后者,在连续同比下降10个季度后首次转正。
很难说这其中没有AI的功劳。
2023下半年起,以谷歌、三星、OPPO为代表的厂商将大模型内置于智能手机中,完成从云端AI向终端AI的转变,AI手机浪潮正式开启。
IDC更是预测,2024年全球新一代AI手机出货量将达1.7亿部,占智能手机总出货量的近15%。
于是,AI就成了比折叠屏更有效的“救命稻草”,但在产业链眼里,TA更像是一颗“摇钱树”。
高通曾在去年9月出过一份报告,标题言简意赅——混合AI是AI的未来。
这份报告的核心是高通借大模型云端推理的“宕机”现象,再次向市场强调终端和云端协同工作的混合AI才是真正的首选。
所谓混合AI,是在以云为中心的场景下,终端将根据自身能力,在可能的情况下从云端分担AI工作负载;而在其他场景下,计算将主要以终端为中心,必要时向云端分流任务。
高通的逻辑是,类比传统计算从大型主机和瘦客户端演变为当前云端和PC、智能手机等边缘终端相结合的模式,生成式AI也将形成云端和终端结合的形式。
但这份报告的真正意图,是高通提出的两个趋势:
AI算力将由现在的云端集中部署逐渐转变为云端与终端灵活分配;大模型将逐渐向终端渗透。
事实上,在高通拿出这份报告前,它的那些合作伙伴早就这么干了,而之所以跑的快,不仅是对未来趋势的准确预判,更重要的是省钱。
算法交易公司Deep Trading的创始人Yam Peleg曾算过一笔账,8K版本的ChatGPT云端推理成本为0.0049美分/千token(128个A100GPU)。以全球1.8亿日活跃用户、每人每天100千token推理需求测算,ChatGPT4在云端进行推理的成本约为88.2万美元/天。
如果换到用户量更大的智能手机上呢?
按照vivo副总裁周围公布的数据,vivo大模型单次对话成本约为0.012-0.015元/次,当前vivo全国用户数约为3亿。以2.5亿日活用户(假设的未来渗透率天花板)、每人每天10次对话需求测算,vivo大模型每天云端推理的成本就要3000万-3750万人民币。
假设以50%分流率计算,将一半的推理分流至端侧进行,那么vivo每年将节约55-68亿人民币的云端运算成本。
看在钱的份上,不搞端侧AI都不行。只是,手机厂商虽然目标高度一致,但在解决大模型手机内存瓶颈的问题上,却出现了分歧。
众所周知,大型语言模型的泛化能力及通用性取决于其参数量,如GPT-4拥有16个专家模型,共包含1.8万亿个参数。大多数大模型都在具有强大服务器硬件支持的云端运营,