当前位置:首页>AI前沿 >

英伟达:AIGC算力基础设施的全球布局

发布时间:2025-06-04源自:融质(上海)科技有限公司作者:融质科技编辑部

一、基础设施战略转型:从芯片商到AI运营商 英伟达CEO黄仁勋在COMPUTEX 明确提出,公司已从“科技公司”转型为“AI基建企业”,致力于成为全球AI基础设施运营商。其核心逻辑是将传统数据中心升级为“AI工厂”,通过输入能源产出AI模型生成的Token(如文本、图像等),类比工业时代的工厂产能逻辑。黄仁勋预测,AI基础设施市场规模将达数万亿美元。 二、技术产品布局:多元化算力架构 半定制化硬件生态 推出NVLink Fusion半定制AI基础设施,支持与高通、联发科等厂商的定制CPU、AI加速芯片协同,打破GPU垄断格局,覆盖ASIC(专用集成电路)数据中心市场。此举旨在应对推理算力需求激增(占AI总算力30%以上)。 超级计算系统迭代 基于Blackwell架构的GB系统实现全液冷机架设计,整合个Blackwell Ultra GPU和个Grace CPU,推理效能对比前代提升30%,已于2025年Q量产。 全球供应链适配 针对中国市场受限问题,推出特供版H芯片(后遭禁售),并加强与阿里、腾讯、百度等云服务商的定制合作。黄仁勋承认中国AI人才占比达30%,强调开源模型(如DeepSeek-R)的竞争力。 三、全球合作生态:构建全栈式服务 云服务商深度绑定 与微软、亚马逊等合作Quantum-X InfiniBand网络方案,优化全球智算集群的通信效率。 区域算力中心布局 在北美、欧洲及亚洲(如新加坡超算中心)部署超大规模智算集群,支持跨国企业模型训练与推理。 四、应对行业趋势:从训练到推理的算力需求迁移 推理算力需求崛起:随着开源模型成熟(如DeepSeek-R/V)及AI应用普及,推理算力消耗占比提升,ASIC芯片因性价比优势抢占市场。英伟达通过混合架构兼容ASIC,巩固市场地位。 能耗优化技术:液冷机架、NVLink高速互联及智能能耗治理方案降低PUE(数据中心能效比),符合欧盟及北美碳中和政策。 五、挑战与竞争 地缘政治风险:美国对华芯片出口限制倒逼本土替代(如华为昇腾、寒武纪),英伟达需平衡技术开放与合规。 开源模型冲击:DeepSeek等模型降低对单一硬件依赖,推动算力基础设施向异构化、标准化演进。 如需进一步了解具体技术参数或区域部署案例,可参考等来源。

欢迎分享转载→ https://www.shrzkj.com.cn/aiqianyan/38602.html

Copyright © 2025 融质(上海)科技有限公司 All Rights Reserved. 本站部分资源来自互联网收集,如有侵权请联系我们删除。沪ICP备2024065424号-2XML地图