OpenAI 联手博通搞大事:拿下10GW算力、用AI设计AI芯片
AI 行业的 “军备竞赛” 已进入新阶段
当地时间 10 月 13 日,一则合作消息让半导体巨头博通的股价单日大涨近10%,市值飙升超 1500 亿美元。
AI 巨头 OpenAI 宣布,将与博通共同开发部署规模达 10 GW 的定制化 AI 芯片及网络系统机架,按照 OpenAI 对外D 表态说法,目前已经正式下场造芯、迈出了加码算力竞赛的关键一步。
18 个月的“秘密”研发
虽然直接本月才正式官宣,但这场合作早有伏笔。
早在去年,博通 CEO 陈福阳就透露 2026 财年 AI 业务将因 “重要新客户” 爆发,尽管 9 月那笔 100 亿美元的匿名芯片订单与 OpenAI 无关,但双方的合作已悄然推进 18 个月。根据联合声明,此次合作分工明确:OpenAI 主导芯片架构与系统设计,把开发 GPT 模型积累的经验直接融入硬件底层;博通则负责芯片的具体开发、生产,甚至延伸到服务器机架和网络设备的部署。整个项目将于 2026 年下半年启动,2029 年底前全部建成,覆盖 OpenAI 自有设施和合作方数据中心。
最让人眼前一亮的是,OpenAI会让 GPT 模型亲自下场参与芯片设计。
OpenAI联合创始人格雷格・布罗克曼在官宣节目里分享了一个细节:AI 提出的芯片优化方案,人类顶尖工程师最终也能想到,但会多花一个月时间。
“有次面临交付期限,我们果断让 AI 持续运行优化,最后不仅缩短了开发进度,还实现了芯片面积大幅缩减。”
在OpenAI 的设想里,当AI 能辅助设计支撑自身运行的硬件,OpenAI 的迭代速度会远超竞争对手,甚至可能冲击传统半导体设计行业
毕竟没有谁比 AI 更清楚 “自己需要什么样的芯片”。
26GW算力:不止是数字
除了与博通合作以外,此前一个月内,OpenAI 已先后与英伟达达成 10 GW算力合作、与 AMD 签署 6GW设备协议。
三笔交易叠加,OpenAI 的总算力储备达到 26GW,这个数字相当于 26 座常规核电厂的供电规模,比纽约市夏季用电高峰还多两倍。
为什么要如此庞大的算力?
格雷格·布罗克曼表示:“理想情况下,每个人都该有一个 24 小时运行的‘个人代理’,帮你处理工作、规划生活,但现在我们只能向 Pro 用户开放部分功能,核心瓶颈就是算力。”
而OpenAI CEO 萨姆・奥特曼则用 ChatGPT 的演进举例:最初它只能写一点代码,用户要痛苦地粘贴等待;后来有了 Codex,能处理几小时的工程任务,需求就疯狂增长;未来,Codex 或许能完成几天的顶级工程师工作,甚至覆盖所有知识工作行业。
“每当模型优化 10 倍,需求就会增长 20 倍,26 GW只是起步,离‘计算不再稀缺’的目标还太远。”
一场漫长的豪赌
OpenAI 的野心不止于当下。
萨姆・奥特曼近期向员工透露,公司计划到 2033 年将算力扩展至 250 吉瓦 —— 按当前英伟达芯片价格估算,这需要投入约 10 万亿美元。要支撑这样的 “天价计划”,OpenAI 面临两大考验:
首先是技术突破的压力,博通半导体解决方案总裁 Charlie Kawwas 透露了未来的硬件演进路径:从二维空间堆叠芯片,到向三维拓展,再到集成 100 太字节的光学交换技术。“每 6-12 个月,计算性能和功耗效率就要翻倍,这需要持续突破物理极限。”
而布罗克曼也承认:“设计全新芯片并规模交付,端到端打通系统,这是天文数字级的工作量。”
其次是财务平衡的难题,目前 OpenAI 预计今年收入 130 亿美元,虽不算少,但与数百亿美元的算力投入相比仍是 “杯水车薪”,公司甚至预计还需 4 年才能实现正向现金流。
不过,OpenAI 也有自己的 “小心思”:通过让英伟达、AMD 等供应商以投资或股权形式深度参与,它把关键伙伴绑上了 “战车”—— 供应商投入越多,就越希望 OpenAI 成功,从而保障自身回报。
更聪明的是,此次与博通的合作没有涉及股权投资,是纯粹的商业合作。这让 OpenAI 既能借助博通的定制化方案降低成本,又保留了战略灵活性,减少对单一供应商的依赖。
在此之前,Google、亚马逊等科技巨头早已通过自研芯片掌握算力自主权,OpenAI要做的就是跟上节奏,然后用激进的规模拉开差距。
可以肯定的是,AI 行业的 “军备竞赛” 已进入新阶段,而全人类,都是这场史无前例赌注的见证者。
最后,记得关注微信公众号:镁客网(im2maker),更多干货在等你!
硬科技产业媒体
关注技术驱动创新
