一、GPT算法的发展历程
近日,由人工智能实验室OpenAI发布的对话式大型语言模型ChatGPT在各大中外媒体平台掀起了一阵狂热之风。短短4天时间,其用户量到达百万级,注册用户之多导致服务器一度爆满。从算法模式的版本上,ChatGPT已经经历了四个版本,未来有望生成新版本即GPT-4。GPT-4有望成为多模态的人工智能,参数预计更大,计算模型优化有望实现更优化,且GPT-4将是纯文本模型(不是多模态), GPT-4的推出潜在商业价值巨大,模型更具备“拟人化”的功能,文本生成和内容创作有望更加丰富,并有望进入文字工作的相关领域,例如新闻、金融等相关行业。
资料来源:观研天下整理
二、OpenAI的商业模式
根据观研报告网发布的《中国AI市场运营现状研究与投资战略调研报告(2023-2030年)》显示,OpenAI的商业模式即API接口收费,公司按照不同项目的AI模式和不同需求进行收费,对于AI图像系统按不同的图片分辨率定价;对于AI语言文字系统按字符单价收费,对于调整模型和嵌入模型按照文字单价收费,并根据不同的调用模型区别定价。目前DALL·E 方面,已有超过 300 万人在使用,每天生成超过 400 万张图像。其API具备快速、灵活、可拓展等性质。
OpenAI相关项目收费模式(表一)
模型名称 |
种类 |
价格(美元) |
图像模型 |
1024×1024像素 |
0.020/图 |
512×512像素 |
0.018/图 |
|
256×256像素 |
0.016/图 |
|
语言模型 |
Ada模型 |
0.0004/千字符 |
Babbage模型 |
0.0005/千字符 |
|
Curie模型 |
0.0020/千字符 |
|
Davinci模型 |
0.0200/千字符 |
数据来源:观研天下数据中心整理
OpenAI相关项目收费模式(表一)
模型名称 |
种类 |
价格(美元) |
价格(美元) |
调整模型 |
用途 |
训练 |
使用 |
Ada模型 |
0.0004/千字符 |
0.0016/千字符 |
|
Babbage模型 |
0.0006/千字符 |
0.0024/千字符 |
|
Curie模型 |
0.0030/千字符 |
0.0120/千字符 |
|
Davinci模型 |
0.0300/千字符 |
0.1200/千字符 |
|
嵌入模型 |
Ada模型 |
0.0004/千字符 |
数据来源:观研天下数据中心整理
三、我国AI 服务器用 CPU 芯片出货量及市场规模预测
算力的提升是人工智能大模型优化演进的核心因素之一,以人工智能数据中心的建设、CPU、AI 计算加速芯片、数据中心存储等硬件的性能优化为基础。2021年我国AI服务器支出规模同比增长44.5%,是近年来我国投资的重点方向,国内AI服务器的渗透率呈稳步提升趋势,会带动底层硬件产品的需求稳定增长。 2021年我国X86服务器出货量为375.1万台,年同比增长约9.1%,预计2022年销量为408.4万台,同比增长8.9%,2023年出货量增速约为9%;2021-2025年均复合增长率为8.8%。
AI 服务器用 CPU 芯片出货量预测
2022E | 2023E | 2024E | 2025E | |
X86服务器出货量(万台) | 408 | 445 | 484 | 525 |
1路服务器市场份额占比 | 6.30% | 6.00% | 5% | 5% |
1路服务器出货量(万台) | 25.7 | 26.7 | 24.19 | 26.26 |
2路服务器市场份额占比 | 89.00% | 89.3% | 90% | 90% |
2路服务器出货量(万台) | 363.12 | 397.39 | 433 | 470.05 |
4路服务器市场份额占比 | 4.60% | 4.60% | 5.30% | 5.30% |
4路服务器出货量(万台) | 18.77 | 20.47 | 25.64 | 27.84 |
8路服务器市场份额占比 | 0.10% | 0.10% | 0.20% | 0.20% |
8路服务器出货量((万台) | 0.41 | 0.45 | 0.97 | 1.05 |
x86 CPU芯片出货量(万片) | 830.28 | 906.91 | 1,000.50 | 1,086.11 |
x86 CPU芯片出货量同比 | - | 9.2% | 10.3% | 8.6% |
AⅠ服务器市场渗透率 | 6.5% | 8% | 9% | 10% |
AI服务器用CPU芯片(万片) | 53.97 | 72.55 | 90.05 | 108.61 |
数据来源:观研天下数据中心整理
基于2021年国内市场服务器的市场规模及出货量(250.9亿美元,391.1万台),结合CPU占服务器成本的1/3-1/2,则X86CPU单价分别为5000美元—6300美元。由于AI计算中心通常使用高性能的处理器,我们假设AI服务器用CPU芯片价格为6000美元/片。则2023年国内市场规模预计为43.53亿美元,年同比增长约为34.4%。
AI 服务器用 CPU 芯片市场规模预测
2023E | 2024E | 2025E | |
AI服务器用CPU 芯片(万片) | 72.55 | 90.05 | 108.61 |
CPU市场规模(6300美元/片)(亿) | 43.53 | 54.03 | 65.17 |
数据来源:观研天下数据中心整理(zppeng)
【版权提示】观研报告网倡导尊重与保护知识产权。未经许可,任何人不得复制、转载、或以其他方式使用本网站的内容。如发现本站文章存在版权问题,烦请提供版权疑问、身份证明、版权证明、联系方式等发邮件至kf@chinabaogao.com,我们将及时沟通与处理。