人工智能 应用商业化落地提速
产业链需求有望打开
◎记者 王彦琳
ChatGPT的横空出世,掀起人工智能热潮。生成式人工智能有望催生和引领新一轮科技革命和产业变革,开展“人工智能+”行动,也成为加快培育和发展新质生产力的重要引擎。当前,AI大模型应用进程如何?作为底层基础设施的AI硬件端有何发展趋势?
“2024年有望成为国产大模型全面商业化落地的元年。”海通证券计算机行业分析师杨林在接受上海证券报记者采访时表示,随着国产大模型性能的全面升级,先进的大模型能力也将逐渐转化为落地实际场景的产品应用,从而带动大模型在办公、教育、医疗、工业制造等众多垂直行业的持续落地,AI to B与AI to C的需求也有望全面打开。
杨林表示,从场景应用维度看,智能化场景在行业的落地随着时间的推移,正呈现出更深入、更广泛的趋势。人工智能持续为提升用户体验作出贡献,如智能客服、智能推荐、精准营销等在各行业落地。人工智能也在公共卫生安全体系建设中承担重要角色,在病毒演变预测、疫苗药物研发、辅助诊断等维度实现广泛应用。长期来看,企业通过在数字人等数字化营销内容领域布局,创造差异化的营销体验,升级品牌形象。此外,越来越多科学家利用人工智能技术,从数据中建立模型,重点围绕新药创制、基因研究、新材料研发等领域加速对前沿科学的探索。
商业化落地是大模型发展的关键一环。杨林预计,2024年生成式AI技术有望在IP开发、互动陪伴、游戏、营销、电商、教育等方向获得广泛应用。随着AI产品逐步落地,2024年将是去伪存真的逻辑验证阶段,检验AI技术的应用能否高效产出,多模态进化之后能否在更复杂的视频、游戏等领域有所建树。一旦实现AI赋能,将会带来收入和利润的巨大增量和弹性。
一方面,AI赋能千行百业,潜力巨大。但另一方面,AI应用的推进,还需要底层技术的持续支持。算力是训练大模型的重要支撑,当前算力需求呈指数级增长,AI算力对于数据传输、通信的要求更高。从AI算力产业链来看:GPU方面,在英伟达带动下,新的AI芯片计算能力不断提升,芯片间互联速度、内存容量快速增长;交换机方面,服务器与交换机、交换机与交换机之间接口速率从100G、400G快速向800G、1.6T演进;光器件方面,光模块作为光电转换的核心器件,速率升级的同时,产品上也衍生出LPO、CPO、硅光、薄膜铌酸锂等方向,并带来光电芯片新需求。
从电子产业链来看,AI带动的下游需求有望驱动产业链回暖:
第一,存储为半导体核心受益板块,大模型迭代利好DRAM(动态随机存取内存)需求向好。未来在AI模型逐渐复杂化的趋势下,将刺激更多存储器用量,并同步带动服务器DRAM、SSD(固态硬盘)以及HBM(高带宽内存)的需求成长。
第二,AI端侧数字芯片是不可或缺的一环。到2024年,边缘AI芯片的出货量将增至15亿颗,年增长率至少为20% ,远高于全球半导体整体增长率(约9%)。
第三,Al PC、AloT能见度增强。生成式AI模型的爆发式增长,带来将专用的AI加速硬件集成到PC的需求。头部厂商正在积极布局AI PC。2024年出货的PC中,预计AI PC的占比接近20%。此外,多模态加持下,智能眼镜需求端将迎来催化,以Micro LED+光波导的光显方案为代表的AR眼镜,有望成为AI大模型的极佳载体。