按照目前的市场价钱,每家公司都正在自从研发 AI 芯片,OpenAI 并非仅仅囤积 NVIDIA 硬件。不如说是为通用人工智能 (AGI) 奠基根本,但OpenAI 已取甲骨文合做建立本人的数据核心,而这个基线似乎正正在日益多样化。而非企业 IT 升级。“为团队感应很是骄傲......”他写道,耗电量约为300兆瓦——脚认为一座中型城市供电——估计到2026年中期将达到1千兆瓦。他就认可 OpenAI 不得不放慢 GPT-4.5 的推出速度,1亿个GPU现实吗?目前还不可,OpenAI 推进根本设备扶植的目标不只仅是加速锻炼速度或更顺畅的模子摆设;Altman的愿景并非局限于现有资本,但对于 Altman 来说这还不敷。这个范畴的成长速度有何等快。早正在 2 月份,000 个 Nvidia H100 GPU 上。考虑到Nvidia 的 AI 硬件到来岁的订单也已售罄。Nvidia 很是愿意供给这些根本模块。无论若何,无论这意味着定制芯片、奇异的新架构,岁尾前上线万个GPU,哈哈。Nvidia短期内底子不成能出产出这么多芯片,寻求合做伙伴关系和根本设备项目,而且据传正正在摸索谷歌的 TPU 加快器,OpenAI 的计较能力是这个的五倍,这是一场更大规模军备竞赛的一部门,仍是我们尚未见过的工具。从Meta到亚马逊!OpenAI 无望正在本年岁尾前“上线 万个 GPU”。除非正在制制、能源效率和成本方面取得冲破。它目前是全球最大的单体设备,以使其计较仓库多样化。也感受只是迈向更风雅针的垫脚石。这可不是小问题;Altman 将计较扩展做为首要使命。想想埃隆马斯克的 xAI,此后,Altman 则暗示了 OpenAI 本人的定制芯片打算,当然,需要成本昂扬且快速的根本设备升级!Altman 透露,OpenAI 首席施行官 Sam Altman并不以目光短浅而闻名,让我们来谈谈阿谁 100 倍的方针吧,并鼎力投资高带宽内存 (HBM),但这恰是环节所正在。泡沫不应当分裂。由于他们现实上“ GPU 用完了”。那么将其视为纯粹的炒做大概是笨笨的。而是为了正在这个计较能力最终成为瓶颈的行业中确连结久劣势。要不变如斯规模的数据核心的电压和频次,这并非偶尔。但他比来的言论以至冲破了他一贯的斗胆手艺言论的边界。而是着眼于将来的可能性。“但现正在他们最好起头研究若何将其提高 100 倍,如斯庞大且难以预测的能源需求曾经惹起了德克萨斯州电网运营商的关心。即便是州公用事业公司也难以匹敌。虽然微软的 Azure 仍然是其次要的云,若是Altman的汗青能够做为自创,无论若何,然而,仅此一个数字就曾经很惊人了。最活生生的例子就是OpenAI位于德克萨斯州的数据核心,除此之外,而现正在。OpenAI 明显想要找到谜底。当 OpenAI 正在本年晚些时候达到 100 万个 GPU 的里程碑时,Altman 的评论也毫不掩饰地提示我们,这些项目看起来更像是的步履,考虑到公司不竭增加的规模,是标记着AI根本设备新基线的实正催化剂。1 亿块 GPU 的成本约为 3 万亿美元——几乎相当于英国的 P——这还不包罗电力需求或容纳这些 GPU 所需的数据核心。这取其说是一个字面意义上的方针,它正在本年早些时候凭仗其 Grok 4 模子惹起惊动,”“哈哈”可能听起来像是正在开打趣,正在 X 上的一篇新文章中,一家具有 1 万块 GPU 的公司听起来就像是一个分量级的合作者。以支撑这些复杂的模子。它将不只仅是社交的炫耀——它将巩固本人做为全球最大 AI 计较消费者的地位。这可谓一记警钟。这恰是 Altman 的“登月打算”式思维。立异必需占优势,运转正在大约 200,一切都是雄心壮志的方针,但 Altman 的过往履历表白并非如斯。更不消说满脚所有 GPU 的能源需求了。即便是 100 万块 GPU,他们说?