谷歌希望通过与 Marvell 合作来扩大 AI 芯片生态系统规模,以应对英伟达竞争加剧

据报道,Alphabet Inc. 的 Google 正在与 Marvell Technology 洽谈,拟开发两款新芯片,旨在提升人工智能模型的运行方式。
概要

  • Google 正在与 Marvell 洽谈开发两款面向 AI 的芯片,包括内存处理单元以及新一代 TPU,以提升模型效率。
  • 这项推动是 Google 努力将其 TPU 定位为 Nvidia GPU 的替代方案的一部分,同时扩大与 Intel 和 Broadcom 的合作伙伴关系。
  • 该举措与 Gemma 4 的推出同步进行,随着 AI 计算领域竞争加剧,Google 正在对齐其 AI 模型与硬件栈。

据《The Information》的一份报道称,援引知情人士的话说,所提议的其中一款芯片可能是一款内存处理单元,旨在与 Google 的张量处理单元(TPU)协同工作。第二款芯片预计是一款新的 TPU,将专门针对更高效地运行 AI 工作负载进行定制。

该举措是 Google 努力将其自研芯片定位为 Nvidia 的 GPU 替代品的一部分。TPU 的采用已在推动 Google Cloud 的收入增长,因为该公司希望在其 AI 基础设施的支出上看到回报。

报道称,Google 计划在明年之前完成面向内存芯片的设计,然后再转入测试量产。同时,它已扩大与 Intel 和 Broadcom 等芯片制造商的合作,以支撑不断增长的 AI 基础设施需求。

AI 硬件竞争加剧

随着 Google 加大对其 AI 加速器的开发力度,它可能开始挑战 Nvidia 在高性能计算领域长期占据的领先地位。

例如,NVIDIA 正在推进自身的 AI 推理芯片阵容,其中包含融合 Groq 技术的设计。又一位大型竞争对手的进入,可能会加剧 AI 硬件领域的竞赛,并重塑公司为模型采购算力的方式。

当 Google 于 4 月 29 日公布其第一季度业绩时,投资者大概率会期待更多明确的信息。预计这次财报发布将提供关于云端表现、广告趋势,以及公司在未来几个季度将如何激进地投资 AI 和半导体的信号。

AI 模型进展助推硬件攻势

Google 最新的芯片讨论之际,公司仍在持续扩展其 AI 模型能力。此前这个月,该公司推出了 Gemma 4,这是一款为高级推理和代理式工作流打造的新的开源模型家族。

Gemma 4 提供四种规模,并旨在更有效地处理多步骤逻辑和结构化问题求解。它还在与数学以及遵循指令任务相关的基准测试中带来了改进的结果。

这些模型包含原生函数调用、结构化 JSON 输出以及系统级指令等功能,使开发者能够构建能够连接 API 和外部工具的自主系统。它们还可以在离线环境中生成代码,从而让本地机器成为具备能力的 AI 编程助手。

模型升级与芯片开发计划的结合,显示出随着 AI 领域竞争持续加剧,Google 正在将其软件与硬件栈进行对齐。

免责声明:以上内容(如有图片或视频亦包括在内)均为平台用户上传并发布,本平台仅提供信息存储服务,对本页面内容所引致的错误、不确或遗漏,概不负任何法律责任,相关信息仅供参考。

本站尊重他人的知识产权、名誉权等法律法规所规定的合法权益!如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到qklwk88@163.com,本站相关工作人员将会进行核查处理回复

(0)
Kelp DAO 反驳 LayerZero 批评,Aave 坏账最高达 2.3 亿美元
上一篇 2026年4月21日 下午12:12
下一篇 2026年4月21日 下午12:52

相关推荐

风险提示:理性看待区块链,提高风险意识!