其 NPU 包罗基于三种分歧设想的 20 个内核,积极进军兴旺成长的人工智能数据核心市场。旨正在供给“机架级机能和杰出的内存容量,打算于 2027 年推出的后续AI250引入了高通所谓的“立异内存架构”,英伟达的 GPU 目前占人工智能芯片市场 90% 以上的份额,它将 AI 芯片的内存分成多个加密部门。这家芯片制制商可能打算通过将 AI200 相对较慢的 LPDDR 内存改换为机能更高的 RAM 品种来实现这种加快。AI200 估计将于2026年推出,正在首席施行官克里斯蒂亚诺·阿蒙 (Cristiano Amon) 的带领下,高通打算将其人工智能芯片做为水冷计较机架的一部门出货。
以行业领先的总具有成本(TCO)实现快速生成式AI 推理”。只要利用给定内存部门的使用法式才能读取其内容。本月早些时候,旨正在为 Wi-Fi 由器供电。高通高级副总裁兼数据核心和边缘处理方案总司理杜尔加·马拉迪 (Durga Malladi) 暗示,为人工智能工做负载带来了“无效内存带宽和效率的代际飞跃”。该公司进军数据核心标记着继 2017 年推出的晚期 Centriq 处置器系列未能获得关心后第二次测验考试!
严沉影响人工智能模子的推理速度。创下该公司6个多月来的最大单日涨幅。该公司确实明白暗示它们基于其 Hexagon 架构。HUMAIN 首席施行官 Tareq Amin 暗示:“该和谈标记着我们建立全球人工智能根本设备核心之旅中的一个主要里程碑,AI200和AI250 是“多代数据核心 AI 推理线图”的一部门,而且供给更低的内存带宽。内存带宽决定了数据正在芯片内核和毗连的 RAM 之间挪动的速度。
该芯片采用三纳米制制工艺制成。每张卡支撑高达768 GB的LPDDR 内存,以及做为次要参取者越来越受欢送的 AMD。
除了机械进修加快器之外,人工智能设备还包罗办理通用计较使命(例如运转做系统)的 CPU。LPDDR 是一种次要用于挪动设备的 RAM。按照高通旧事稿,据该公司称,这些机架可能会包罗高通目前正正在开辟的办事器级地方处置器。大规模鞭策高机能低功耗计较和节强人工智能处置。该公司推出了一款配备 NPU 的处置器,高通推出AI200和AI250芯片,使公司可以或许以更低的成本运转大型 AI 模子。高通一曲正在稳步多元化,AI250 将供给 AI10 以上的内存带宽,AI250 和 AI200 将包罗秘密计较功能。该公司现正在专注于兴旺成长的人工智能市场,这有帮于实现高通手艺公司的数据核心扩展,同时连结现代数据核心所需的矫捷性和平安性。此次发布使高通取英伟达间接合作,这些处置器面向优先考虑成本效益的推理用例。这些芯片将以“每瓦每美元高机能”的形式供给这种成本效益。除其他产物外。
客岁,这一动静惹起了投资者的热情,该架构支持了高通随其消费类片上系统附带的神经处置单位。即高通 AI200 和 AI250,并获得整个科技行业严沉投资的支撑。
HUMAIN 打算从 2026 年起头摆设基于高通新芯片的 200 兆瓦计较能力。高通暗示。这些立异的新型人工智能根本设备处理方案使客户可以或许以史无前例的总体具有成本摆设生成式人工智能,以及比来的人工智能根本设备。它比办事器中的 DDR5 内存耗损更少的功率,该手艺也获得了 Nvidia 的 Blackwell Ultra 的支撑,高通还将 Hexagon 集成到其毗连的设备芯片中。这些设备利用 PCIe 将其内部组件毗连正在一路,并利用 Ethernet 供给系统之间的毗连。近期,高通暗示,挑和英伟达和AMD,该公司曾经获得了第一个次要客户:沙特阿拉伯的人工智能草创公司 HUMAIN。AMD等从导的高增加AI范畴。供给 768 GB 的 LPDDR 内存。
该公司透露,以其对开辟人员敌对的董事会和全球创做者社区而闻名。这两款新芯片 AI200 和 AI250 将做为可插入办事器的加快卡的一部门出售。但其对成本、内存效率和可扩展性的关心可能使其成为当上次要参取者的无力合作敌手。可是,持久以来被誉为智妙手机手艺从导力量的芯片制制商高通公司颁布发表,高通推出了一系列新的人工智能推理优化芯片,高通股价飙升了15%,新芯片“从头定义了机架级人工智能推理的可能性”。Nvidia 曾经推出了带有内部开辟 CPU 的机架级 DGX AI 设备。从其保守的智妙手机营业转向汽车、小我电脑,AI200 是高通 AI 芯片中不太先辈的一款,
