cha

ChatGPT火爆全球,带火了哪些芯片?

  最近,ChatGPT热潮席卷全球。

  ChatGPT(Chat Generative Pre-trained Transformer)是美国人工智能研究实验室OpenAI于2022年12月推出的一种全新聊天机器人模型,该模型推出仅仅2个月,就达到月活过亿,成为历史上增长最快的消费者应用程序。

  与其他聊天机器人相比,ChatGPT不仅能通过学习与理解人类语言的方式,可以实现拟人化交流,而不只是像天猫精灵、小爱同学等其他AI产品的一问一答模式;而且还能协助人类完成诸如写邮件、写论文、制定方案、创作诗歌、敲代码等任务,这样的特殊优势和用户体验使得应用场景流量大幅增加。

  今年2月初OpenAI公司宣布推出付费订阅版本ChatGPT Plus,定价每月20美元。业界预估全球有超过10亿潜在用户可使用ChatGPT,如果该收费模式获得认可,ChatGPT有望带来超2000亿美元市场规模。

  ChatGPT的价值不仅于此,未来ChatGPT还有望带动芯片、HPC、云计算等多个领域腾飞。微软创始人比尔·盖茨评价表示,ChatGPT这种人工智能技术出现的重大历史意义,不亚于互联网和个人电脑的诞生。

  这些芯片将受益

  从芯片构成来看,AI服务器主要是CPU+加速芯片,通常搭载GPU、FPGA、ASIC等加速芯片,利用CPU与加速芯片的组合可以满足高吞吐量互联的需求。

  1、GPU

  作为人工智能深度发展到一定阶段的产物,ChatGPT对芯片算力需求极高,高性能GPU等产品有望从中受益。

  由于GPU具备并行计算能力,可兼容训练和推理,高度适配AI模型构建。自然语言类AI应用底层算力芯片以高性能GPU为主,在该类芯片中英伟达占据主要市场。据悉,ChatGPT已导入了至少1万颗英伟达高端GPU,以英伟达A100为例,采购一片英伟达顶级GPU成本为8万元,GPU服务器成本通常超过40万元,一次模型训练成本超过1200万美元。

  花旗银行分析,ChatGPT可能会在未来12个月内为英伟达带来30亿美元至110亿美元的销售额。从芯片市场角度出发,芯片需求的快速增加会进一步拉高芯片均价。

  2、FPGA

  从深度学习的角度来看,虽然GPU是最适合深度学习应用的芯片,但FPGA也不可忽略。FPGA芯片作为可编程芯片,具有可编程灵活性高、开发周期短、现场可重编功能、低延时、方便并行计算等特点,可以针对特定功能进行扩展,在AI模型构建第二阶段具有一定的发挥空间。而FPGA想要实现深度学习功能,需要与CPU结合,共同应用于深度学习模型,同样可以实现庞大的算力需求。

  3、CPU

  CPU作为计算机系统的运算和控制核心,是信息处理、程序运行的最终执行单元。其优势在于有大量的缓存和复杂的逻辑控制单元,擅长逻辑控制、串行的运算;劣势在于计算量较小,且不擅长复杂算法运算和处理并行重复的操作。因此,CPU在深度学习中可用于推理/预测。

  目前,服务器CPU向多核心发展,满足处理能力和速度提升需要,比如AMD EPYC 9004核心数量最多可达96个。不过,系统性能优劣不能只考虑CPU核心数量,还要考虑操作系统、调度算法、应用和驱动程序等。

  4、ASIC

  ASIC在批量生产时与通用集成电路相比具有体积更小、功耗更低、可靠性提高、性能提高、保密性增强、成本降低等优点,可进一步优化性能与功耗。随着机器学习、边缘计算、自动驾驶的发展,大量数据处理任务的产生,对于芯片计算效率、计算能力和计能耗比的要求也越来越高,ASIC通过与CPU结合的方式被广泛关注,国内外龙头厂商纷纷布局迎战AI时代的到来。

  5、光模块

  当前,AI时代模型算力需求已经远超摩尔定律的速度增长,特别是在深度学习、大模型时代之后,预计5-6个月翻倍。然而,数据传输速率成为容易被忽略的算力瓶颈。伴随数据传输量的增长,光模块作为数据中心内设备互联的载体,需求量随之增长。

  ChatGPT作为一种新兴的超智能对话AI产品,无论是从技术原理角度还是运行条件角度,ChatGPT都需要强大算力作为支撑,从而带动场景流量大幅增加。此外,ChatGPT对于高端芯片的需求增加也会拉动芯片均价,量价齐升导致芯片需求暴涨。面对指数级增长的算力和数据传输需求,可以进行提供的GPU或CPU+FPGA芯片厂商、光模块厂商即将迎来蓝海市场。


您可能还会对下面的文章感兴趣:

登录 注册 退出