发布时间:2025-01-21
AI技术蓬勃发展和广泛应用,高性能计算能力芯片需求空前旺盛,带动服务器整体性能提升。ChatGPT目前在各种专业和学术基准上已经表现出人类水平,发布后推出2个月后用户量破亿。同时,国内百度“文心一言”、阿里“通义千问”等一系列中文大模型也陆续推出。人工智能架构中,芯片层为整个架构提供算力基础支撑,每一次大模型的训练和推理对芯片提供的算力基础提出要求。历代GPT的参数量呈现指数级增长,随着AI的进一步发展,算力的需求将持续扩张,将持续带动高性能的计算芯片的市场需求,根据亿欧智库预测,2025年我国AI芯片市场规模将达到1780亿元,2019-2025CAGR可达42.9%。目前服务器龙头Intel已经逐步出货针对HPC和人工智能领域的服务器产品,在AI方面即可实现高达30倍的性能提升,并且在内存和接口标准上进一步过渡到DDR5和PCIe 5.0等行业领先水平。
海量算力需求依托AI服务器,增配高算力GPU芯片。由于GPU可兼容训练和推理,与CPU相比可以实现10-100倍的吞吐量,更加适配AI模型训练和推理。2021年中国AI芯片市场中,GPU占比达到91.9%,华经产业研究院预测全球GPU行业市场规模将保持高速增长态势,预计2027年将达到1853.1亿美元,复合年均增长率32.82%。目前,GPU芯片以英伟达为行业龙头,搭载8片英伟达最新GPU H100SXM芯片的服务器相较于搭载其上一代GPU产品A100的服务器,算力可达50倍。一般AI服务器会增配4-8颗GPGPU形成GPU模组,与通用服务器相比将在基础上增加GPU板用量,一般是6层或4层PCB板。