随着芯片制造商开始向本地处理的生成式人工智能广泛过渡,某些用户仍在质疑这项技术的必要性。NPU 已成为硬件供应商推出"AI PC"概念的新流行语,但它们的出现却引发了人们的猜测:它们占用的宝贵芯片空间是否可以分配给更有益的用途。
据 Anandtech 论坛成员称,AMD 已大幅减少了缓存大小,以便在即将推出的 Strix Point 硬件上容纳大型人工智能芯片。如果报道属实,那么这将表明 AMD 和其他处理器供应商正把相当大的赌注押在一个尚未得到证实的趋势上。
用户"uzzi38"称,AMD 最初打算为 Strix Point APU 配备系统级缓存,这将大幅提高 CPU 和集成显卡的性能。然而,这一计划被增强型神经处理单元(NPU)所取代,后者被定位为推动新一轮人工智能增强型 PC 的核心功能。
另一位论坛成员"adroc_thurston"补充说,Strix Point 最初打算配备 16MB 的 MALL 缓存。
英特尔(Intel)、AMD 和高通(Qualcomm)正在大力推广人工智能,将其作为下一代 CPU 不可或缺的功能。它们计划利用神经处理单元(NPU)来本地处理生成式人工智能工作负载,这些任务通常由 ChatGPT 等云服务处理。
英特尔去年底推出的 Meteor Lake 引领了这一趋势。英特尔的目标是通过随后发布的 Arrow Lake、Lunar Lake 和 Panther Lake 等产品提升NPU 性能。AMD 的 Strix Point 也将在今年晚些时候推出,以增强其 Zen 5 CPU 和 RDNA 3.5 图形芯片的人工智能功能。这些芯片制造商正在与微软的人工智能驱动 PC 计划保持一致,其中包括对专用人工智能密钥和至少能达到 40 TOPs 的 NPU 的要求。
然而,硬件制造商和软件开发商尚未充分探索生成式人工智能如何造福最终用户。虽然文本和图像生成是目前的主要应用,但它们面临着版权和可靠性方面的争议。微软的设想是,通过自动执行文件检索或设置调整等任务,人工智能生成技术将彻底改变用户与 Windows 的交互方式,但这些概念仍未得到验证。
论坛帖子中的许多参与者认为,生成式人工智能是一个潜在的泡沫,一旦破裂,可能会对人工智能 PC 和多代 SoC 产生负面影响。如果该技术无法吸引主流用户,那么配备 NPU 的众多产品的实用性可能会受到限制。