cha

如何看待OpenAI开放ChatGPT商用API?|模型|蒸馏|参数

  来源:中信证券研究

  作者:陈俊云、许英博、贾凯方、刘锐

  近日OpenAI发布了Beta版本的ChatGPT API,并按照使用量收费,单次调用价格亦较前一代下降90%。我们分析认为,OpenAI将其在千亿参数模型中所学习到的能力通过类似于蒸馏(distillation)的方式浓缩进了百亿参数的模型中,并有效降低了模型在推理端成本,从而找到可以盈利的商业化途径。我们判断这一模式亦有望在未来成为各大AI公司在提供AI服务时的商业化范式,推动更多AI产品在中短期的商业化落地,从而在全球范围内加速AI产业化进程。我们持续看好ChatGPT及AI领域的相关产业投资机会,并建议持续聚焦芯片、算力设施、模型架构&工程实践、应用场景等核心环节。

  ▍事件背景:

  北京时间2023年3月2日凌晨,OpenAI发布了Beta版本的ChatGPT API,并以收费形式提供给用户使用。根据OpenAI官网介绍,本次开放的API背后模型被命名为GPT-3.5 turbo,使用了与ChatGPT相同的模型。此外,与ChatGPT API一同开放的模型还有声音转文字模型Whispe的API。根据OpenAI官网,截至北京时间3月3日,目前已经有五家公司宣布接入了ChatGPT API,分别为即时通讯软件Snapchat、学习平台Quizlet、购物网站Instacart、购物软件 shop以及教育软件speak。

  ▍OpenAI商业模式:以LLMaaS(Large Language Model as a Service)提供云端推理服务,通过用户订阅以及用量计费。

  根据openAI CEO Sam Altman在2022年12月底的采访,目前OpenAI2022年的总收入约为1亿美元,并预计在2024年达到10亿美元。目前OpenAI的主要收入来源包括订阅费、API许可费、与微软深度合作所产生的商业化收入等。在API许可费方面,OpenAI将GPT-3等模型开放给别的商业公司使用,根据用量收取费用(文字类模型按照文字生成量、图片类模型按照图片生成张数)。在调用过程中,其他公司并不会接触模型的细节与源代码,而是通过OpenAI提供的API接口进行调试以及使用。本次公布的ChatGPT API接口被OpenAI定价为0.2美分每1000tokens(约合500-600单词),相比于前一代的Davinci模型成本下降了90%。

  ▍ChatGPT成本优化:主要通过“蒸馏”提取小模型方式实现模型参数减少、计算复杂度降低等。

  从本次OpenAI对ChatGPT API的定价出发,结合我们之前对ChatGPT模型成本的测算,0.2美分每1000tokens的定价对应为百亿参数级别的模型。而ChatGPT在训练过程中所使用得Reward Model(奖励模型,记录了人类偏好)应为千亿参数级别的模型,这也意味着OpenAI将其在千亿参数模型中所学习到的能力通过类似于蒸馏(distillation)的方式浓缩进了百亿参数的模型中。根据截至目前ChatGPT API用户在推特等社交媒体的反馈结果看,这个百亿参数模型的能力以及追平甚至超越了先前的大尺寸模型。通过这种蒸馏提炼的方法,OpenAI有效降低了模型在推理端的成本,找到可以盈利的商业化途径。

  ▍未来大模型商业化范式展望:先预训练完整大模型,而后通过蒸馏提取小模型等手段降低推理成本,并服务各类细分场景需求。

  OpenAI团队本次通过开放ChatGPT API商用所展现出更加成熟的对模型成本优化的流程:即先训练千亿参数级别甚至更大的大语言模型,再通过蒸馏等技术手段将大模型学习到的能力浓缩到小模型中开放给客户商用。根据小模型所服务的垂直领域不同,也会在小模型之上再进行微调(Fine tune)。根据我们之前报告的测算,大语言模型在训练端的成本消耗远远不及推理时的消耗,训练一个千亿参数级别的大模型仅需要耗费约一个月的时间以及150万美元。通过这一流程OpenAI避免了超大语言模型在推理时成本过高的问题,我们认为这一流程也将在未来成为各大AI公司在提供AI服务时的商业化范式,模型蒸馏过程中所损失的精度对于大多数用户来说并不那么敏感。OpenAI本次在模型技术流程上的改良在中短期维度加速更多AI产品在商业化落地,并加速刺激除聊天外更多领域的AI需求。

  编辑/jayden

  特别声明:以上文章内容仅代表作者本人观点,不代表新浪网观点或立场。如有关于作品内容、版权或其它问题请于作品发表后的30日内与新浪网联系。


您可能还会对下面的文章感兴趣:

登录 注册 退出