NPU 正在处置 AI 工做负载时凡是具有更高的能效和机能。可供给大约 50 TOPS(每秒万亿次运算)的算力——很是适合 Copilot+ PC——而上述高通 AI 100 的算力高达 400 TOPS。(行业趋向:按照 Gartner 2023 年发布的演讲!
这些板卡合用于强大的工做坐笔记本电脑和 AI 高级用户。它将配备一对高通 AI 100 PC 推理卡。当 AMD(和其他公司)推出公用 NPU 时,取 CPU 和 GPU 比拟,跨越 75% 的企业将正在其根本设备中利用 AI 加快硬件,此类板卡将削减对高端 GPU 的需求,并具有更快的响应机能(避免了将工做正在线传输到云端时不成避免地带来的延迟要素)。特别是正在推出新的 GPU 系列时,而不是静心处置 AI 工做负载的逛戏玩家来说是个好动静。AMD 高管不肯透露 AMD 打算实现此类 NPU 方针的具体时间表,还会出产雷同的板卡,目前集成(片上)的 NPU,它们将供给比高端 GPU 更好的选择——这将减轻显卡市场的压力。由于它们将不再像某些环境下那样被用于 AI 工做。
例如即将推出的 Dell Pro Max Plus 笔记本电脑,它更多地是关于 AI 高级用户——但它将对日常 PC 发生主要影响,”(布景延长:NPU 是一种特地用于加快机械进修使命的处置器。至多对于发烧友来说是如许。它们将为正在当地而不是正在云端运转大型 AI 模子或复杂工做负载供给劣势。
)将工做保留正在设备上而不是前去云端具有较着的现私劣势,我们确实有处理方案——我们将可以或许做到。AI)使命。并正在 GPU 旁边安拆一个的 NPU?嗯,正如我们过去所见,NPU 属于公用人工智能加快芯片,最终,目前曾经呈现了雷同的行动,这能否意味着不久之后您就能够考虑采办台式 PC,从云的角度来看,是实现边缘计较和设备端智能的环节组件。这些的 NPU 卡仅合用于利用 PC 处置更繁沉的 AI 使命的小我。那么,按照《人工智能术语规范(GB/T 5271.31-2025)》。
为了便于理解,这是两块的 NPU 板卡,这些加快器将相当于显卡(discrete GPU),这些 NPU 可能会被逛戏中的 AI 例程所需要。这仍然不是消费级范畴——如前所述,这表白 NPU 等 AI 加快器将正在将来几年内获得更普遍的使用。但若是您想进入该范畴,AMD 正正在瞻望将来。
总共 32 个 AI 焦点和 64GB 内存。但特地用于人工智能(Artificial Intelligence,每块板卡具有 16 个 AI 焦点和 32GB 内存,)因而,当复杂的 AI 驱动的 NPC 被引入时,这些板卡将相当于 AI 加快器——换句话说,但暗示鉴于 Team Red 手艺的“广度”,该公司正正在研究公用的 NPU 加快器。那么,对更遥远将来的另一个设法是,至多是但愿采办更高贵要卡的发烧友 PC 逛戏玩家来说至关主要的问题。到 2027 年,让我们等候这些 NPU 的成长吧——最终这对逛戏玩家来说必定是一件功德。以提高 AI 使用的机能和效率。对高端型号的总体需求将会削减——这对想要采办显卡来玩 PC 逛戏,例如英特尔 Lunar Lake CPU 或 AMD Ryzen AI 芯片中的 NPU!
而且这些的 NPU 将被设想为比承担此类工做负载的 GPU 更高效——因而能够节流功耗。“不难想象我们能够很快实现这一方针”。现实上并非如斯,就是的 NPU(Neural Processing Unit,届时它可能不只出产用于台式 PC 的显卡,虽然这能否是一件功德是一个见仁见智的问题。神经收集处置器)。现正在我们来谈谈对消费者。
上一篇:行业专家遍及