英特尔酷睿i910980XE让AI的进步其他一切的退步

低小调
阅读

英特尔酷睿i910980XE让AI的进步其他一切的退步

英特尔的新款 i9-10980XE 与 AMD 的新 Threadripper 系列在同一天亮相,占据了一个奇怪的细分市场:“预算高端台式机”。与英特尔的顶级游戏 CPU i9-9900KS 相比,它的 18 核和 36 线程听起来非常令人兴奋,但与Threadripper 3970x的 32 核和 64 线程相比,它们相形见绌。更糟糕的是,尽管 i9-10980XE 的核心数增加了一倍以上,但在许多基准测试中,即使与价格便宜得多的 i9-9900KS 也难以区分。

这叶子是什么新的零件回落 确实有去为它成本,初始和运营。如果您无法使用 Threadripper 的全部性能输出,i9-10980XE 将以大约一半的成本为您提供大约一半的性能,并将节省的成本扩展到持续的电力成本中。

力量

与竞争对手的 Threadripper 3970x 设备相比,我们的 i9-10980XE 测试设备更容易与他人共享办公室。它的 EVGA X399 Dark 主板并没有让它看起来像是在办公室里上演的Poltergeist场景,而且它消耗的电力少得多,散发的热量也少得多。

公平地说,Threadripper 设备的一些令人讨厌的问题可能可以通过主板设置来减轻——我们的 NZXT Kraken x62 冷却器的风扇在 Threadripper 运行的整个时间内都处于全开吹叶机模式,即使在空闲时也是如此。虽然Threadripper系统 没有 空闲的眼浇水163W到i9-10980XE系统的69W,这还不足以解释风扇转速的差异。即使在其完整的 257W 基准测试负载下,i9-10980XE 系统也没有将风扇旋转到令人讨厌的水平。

不管我们基于 ROG 主板激进的默认风扇设置为 Threadripper 找了多少借口,我们仍然在关注桌面空闲时 69W 与 163W 系统功耗以及满载时 257W 与 403W 系统功耗。在当前的 HEDT 细分市场中,i9-10980XE 绝对是更省钱的部分——尤其是对于我们这些生活在南方地区的人来说,7 月在 4 月的某个时候开始,直到 10 月下旬才结束。

表现

如果您还没有度过整个 2019 年,那么与本周一发布的 AMD Threadripper 3970x 相比,英特尔 i9-10980XE 的表现不足也就不足为奇了。i9-10980XE 是 Threadripper 32 核 64 线程的 18 核 36 线程部分,而 AMD 的 7nm 工艺已经结束了英特尔曾经拥有的每核性能优势。

更令人惊讶的是,i9-10980XE 普遍落后于去年的 i9-9980XE。其最佳通用基准测试结果——Cinebench R20——使其在旧部件的误差范围内。更糟糕的是,单线程和多线程 Passmark 评级都强烈支持旧芯片。

我们还将 i9-10980XE 与其游戏兄弟 i9-9900KS 进行了比较。尽管 i9-10980XE 在 Cinebench R20 中的得分明显更高,但它在更通用的 Passmark 测试中的得分并没有显着提高,尽管它的核心数量是其两倍多,而且成本也是后者的两倍。同时,在单线程 Passmark 中,9900KS 的速度提高了 39%,而 i9-10980XE 再次落后于其老兄弟 i9-9980XE。

再说一次——遵循我们都在学习识别的模式——i9-10980XE 的成本是 i9-9980XE 的一半,它与更强大的 Threadripper 3970x 一起处于 2,000 美元的范围内。我们对任何持有现有购买的 i9-9980XE 库存的零售商感到抱歉,因为虽然较旧的部分对于通用工作负载的性能略高,但差异肯定不值得两倍的成本。

AI 推理工作负载

人工智能工作负载是 i9-10980XE 的一大亮点。英特尔一直在 AI 工作负载优化方面投入大量工程精力,i9-10980XE 具有 Deep Learning Boost x86 扩展指令。借助可以利用新指令集的编译器,英特尔一直在告诉我们,人工智能工作负载可以轻松地将其吞吐量翻倍。

我们运行 AIXPRT的参考基准测试工作负载来测试这一说法。果然,在 OpenVINO 图像识别工作中,i9-10980 的吞吐量比原本性能更高的 i9-9980 的吞吐量增加了一倍多。值得注意的是,OpenVINO 本身是英特尔的一项举措,它不太可能像英特尔那样针对 AMD 处理器进行优化。缺乏优化可以解释 Threadripper 3970x 和 i9-10980XE 之间的一些性能差异,但除了Deep Learning Boost之外,很难想出其他任何东西 作为关闭英特尔自己的 i9-9980XE 的理由。

是的,CPU 上的推理工作负载性能确实很重要。为了解释原因,让我们首先确保我们清楚一些基本术语。神经网络可以以两种模式之一运行——训练或推理。在训练模式下,神经网络本质上是在问题空间中进行酒鬼行走,调整值和权重,直到它“学习”了导航该问题空间的最佳方法。推理模式的重量要轻得多;神经网络不必反复遍历整个空间,它只检查空间中的一个问题,并根据它在训练中学到的知识,给出最佳答案。

在进行大量训练时,您需要一个高端 GPU(或一组高端 GPU),句号。它们可以轻松超越通用 CPU 一个数量级或更多,从而节省训练时间和运行能力。然而,推理则是另一回事——尽管 GPU 的性能可能仍明显优于 CPU,但如果 CPU 的操作吞吐量和延迟足以进行实时交互,那么让它完成工作会方便得多。

在通用 CPU 上运行推理工作负载可以将它们广泛部署为可在现场使用的工具,在相对通用的硬件上,无需始终在线的互联网连接。这还可以缓解将数据发送到云进行远程推理处理所涉及的隐私和延迟问题。

现实世界中现代 AI 推理处理的一些示例包括语音识别、图像识别和模式分析。虽然目前大部分工作都是在云中完成的,但我们预计对本地处理能力的需求会增加。Cortana 等数字个人助理是一种明显的应用,但人工智能可以走得更远。

现在,Office365 的 Insider 版允许您输入“Q4 最畅销的产品是什么?” 进入一个文本框,并立即为您生成适当的图表...但前提是您愿意将数据卸载到云中。如果没有本地推理处理印章,处理无法离开产生数据的站点的机密数据将越来越受到限制。英特尔将其未来的大部分赌注押在认识到这一事实上——并且在我们其他人也这样做时处于领先地位。

阅读
本文由用户上传,如有侵权请联系删除!

撰写回复
更多知识