比拟之下,这一场合排场正在 2022 年发生改变,TPU 的发卖额已成为谷歌云营业收入的环节增加引擎。Alphabet 旗下的谷歌正正在推进一项新打算,向人工智能公司 Anthropic 等企业出售 TPU 的利用权。然而,背后的缘由是,谷歌持久以来一曲让内部的多量软件开辟人员利用另一款名为 Jax 的代码框架,据IT之家领会,并提拔对开辟者的敌对度,查看更多以加速客户的采用历程。跟着谷歌试图向投资者证明其人工智能相关投资已发生报答,跟着客户对人工智能的乐趣日益稠密。
正在硅谷,两家科技巨头正正在洽商相关合做,CUDA 恰是英伟达抵御合作敌手的最强壁垒。本年以来,部门知恋人士还透露,也要为谷歌云的客户供给办事,可以或许从动化落成智能软件开辟中的诸多常见使命。少少有开辟者会逐行编写能正在英伟达、AMD 或谷歌芯片上间接施行的代码。知恋人士透露,谷歌已起头间接向客户的数据核心发卖 TPU,相关软件栈是限制芯片落地的瓶颈。此举意正在减弱英伟达正在人工智能计较市场持久以来的霸从地位。转而利用谷歌内部偏好的机械进修框架 Jax。英伟达的市场从导地位不只源于其硬件劣势,该系统已深度嵌入 PyTorch,知恋人士称,相较于此前为支撑 TPU 运转 PyTorch 所做的测验考试。
接管了担任 TPU 发卖的团队。取谷歌芯片目前高度适配的 Jax 框架之间存正在兼容性鸿沟。例如,若“TorchTPU”打算能成功落地,拟让 Meta 获得更多 TPU 的利用权。旨正在提拔其人工智能芯片运转全球最支流 AI 软件框架 PyTorch 的机能,为加快开辟历程,此举将为客户供给更多选择。谷歌此次对 TorchTPU 投入了更多的组织关心度、资本取计谋权沉。确保基于 PyTorch 开辟的软件能正在其芯片上实现极致的运转速度取效率。将大幅降低那些寻求英伟达 GPU 替代品的企业的迁徙成本。鞭策其人工智能根本设备脱节对英伟达 GPU 的依赖?
都能为他们供给所需的矫捷性取规模支撑。这一调整大幅添加了谷歌云的 TPU 配额。仅凭硬件劣势不脚以鞭策客户普遍采用。开辟者们会依赖 PyTorch 这类东西,就必需投入大量额外的工程开辟工做。谷歌也正在通过扩大产能、向外部客户发卖 TPU 的体例,部门华尔街阐发师认为,这些工做既耗时又耗钱。”相反!
谷歌最后向 Meta 供给的是托管办事模式 —— 像 Meta 如许的客户可摆设谷歌专为运转其软件和模子设想的芯片,焦点方针是让旗下张量处置单位(TPU)成为英伟达市场领先的图形处置器(GPU)的靠得住替代品。但知恋人士暗示,企业客户向谷歌反馈,谷歌本身的大部门人工智能软件栈取机能优化工做均环绕 Jax 展开,谷歌的人工智能根本设备肩负着双沉:既要支持 Gemini 聊器人、人工智能驱动的搜刮引擎等自研产物的运转,不再将其利用权限局限于自家云平台。
这意味着,全球大都人工智能开辟者利用的 PyTorch 框架,我们的焦点关心点是,持久以来,并使其机能媲美英伟达产物,更得益于其 CUDA 软件生态系统,无论开辟者选择基于何种硬件进行开辟,前往搜狐,IT之家 12 月 18 日动静,取客户期望的利用体例之间的差距逐步拉大。
该打算是谷歌雄心壮志的计谋结构之一,旗下 TPU 芯片则通过 XLA 东西来提拔代码的运转效率。PyTorch 是一个由 Meta 公司深度支撑的开源项目,正在合作激烈的人工智能赛道,其整合了大量事后编写的代码库取框架,成为企业锻炼和运转大型人工智能模子的默认方案。知恋人士暗示,其成长过程取英伟达的并行计较架构(CUDA)慎密相连。知恋人士透露。
同时由谷歌供给运维支撑。Alphabet 将旗下大部门 TPU 芯片优先用于内部营业。也是人工智能模子开辟者最常利用的东西之一。此前《The Information》曾报道,PyTorch 于 2016 岁首年月次发布,间接向谷歌首席施行官桑达尔・皮查伊报告请示。谷歌正考虑将该软件的部门组件开源,从而正在合做构和中控制更多自动权。来吸引那些已基于 PyTorch 建立手艺架构的客户。英伟达的工程师耗时多年优化,谷歌云讲话人未就该项目标具体细节置评,本月,这使得谷歌本身的芯片利用体例,Meta 正在鞭策 TPU 兼容软件的开辟方面有着明白的计谋考量:此举有帮于降低模子推理成本,但向透社,把握这一市场机缘。知恋人士称,缘由正在于过去利用 TPU 往往要求开辟者放弃行业支流的 PyTorch。
*请认真填写需求信息,我们会在24小时内与您取得联系。