加入收藏 | 设为首页 | 会员中心 | 我要投稿 应用网_丽江站长网 (http://www.0888zz.com/)- 科技、建站、数据工具、云上网络、机器学习!
当前位置: 首页 > 站长资讯 > 动态 > 正文

Tachyum 发布 Prodigy 通用 128 核 CPU 规格

发布时间:2022-06-20 21:43:25 所属栏目:动态 来源:互联网
导读:据 tomshardware 报道,当 Tachyum 在 Hot Chips 18 上推出其 Prodigy 通用处理器的概念时,它的芯片设计允许使用动态二进制转换器运行任何代码,这引起了轰动。它在执行本机代码和翻译代码时表现出了高性能。Tachyum 公司花了一段时间来设计实际的硬件,
  据 tomshardware 报道,当 Tachyum 在 Hot Chips 18 上推出其 Prodigy 通用处理器的概念时,它的芯片设计允许使用动态二进制转换器运行任何代码,这引起了轰动。它在执行本机代码和翻译代码时表现出了高性能。Tachyum 公司花了一段时间来设计实际的硬件,接受评估套件的预订;该公司还披露了其 Prodigy 确切规格。它们看起来确实令人印象深刻,但每个芯片 950W 的散热设计功率(TDP)也令人恐惧。
 
  在性能方面,Tachyum 预计其旗舰 Prodigy T16128-AIX 处理器可为 HPC 提供高达 90 FP64 TFLOPS 以及高达 12 “AI PetaFLOPS”用于推理和训练,(大概是在运行本机代码时)根据发布的规格功耗高达 950W(并使用液体冷却)。同时,Tachyum 的 Prodigy 处理器可以在 2 路和 4 路配置下工作。作为对比,AMD 的 Instinct MI250X 在大约 560W 的 HPC 中具有 96 FP64 TFLOPS 的峰值吞吐量。相比之下,Nvidia 的 H100 SXM5 可以在 700W 下为 AI 提供高达 20 INT8 / FP8 PetaOPS / PetaFLOPS(稀疏时高达 40 PetaOPS / PetaFLOPS)。然而,计算 GPU 都不能用于通用工作负载。这正是它变得有趣的时候。
 
  Tachyum 的 Prodigy 是一款通用同质处理器,最多可容纳 128 个专有的 64 位 VLIW 内核,每个内核具有两个 1024 位矢量单元和一个 4096 位矩阵单元。此外,每个内核都有一个 64KB 指令缓存、一个 64KB 数据缓存、1MB L2 缓存,并且可以利用其他内核未使用的 L2 缓存作为 L3 缓存。
 
  Tachyum 首席执行官兼联合创始人 Radoslav Danilak 与 Golem.de 交谈时表示,Tachyum 的 VLIW 内核是有序内核,但当编译器制造商进行适当优化时,它们可以支持 4 路无序。他还再次强调,Prodigy 指令集架构可以通过使用所谓的 poison bits 软件实现非常高的指令级并行性。
 
  据该公司称,这些内核运行为 Prodigy(VLIW 架构有望大放异彩)以及 x86、Arm 和 RISC-V 二进制文件编写并明确优化的本机代码,使用软件仿真并且不会降低性能。从历史上看,所有让 VLIW 处理器执行 x86 代码的尝试都失败了(例如,Transmeta 的 Crusoe、Intel 的 Itanium),主要是因为特定的 CPU 架构和仿真效率低下。Tachyum 负责人承认,Qemu 二进制翻译将性能降低了 30% 到 40%(没有透露任何基准),但希望现实世界的性能仍然足够高以具有竞争力。同时,一些程序已经原生支持。
 
  “我们原生支持 GCC 和 Linux,而且 FreeBSD 现在也可以在 Prodigy 上运行,”Danilak 说。“Apache、MongoDB 或 Python 已经原生运行,Pytorch 和 Tensorflow 框架也可用。”
 
  Tachyum 强调,Prodigy 不是加速器,而是真正的 CPU,将与 AMD、Intel 和其他公司竞争。为确保该处理器能够在通用和 AI 工作负载中提供具有竞争力的性能,该公司自 2018 年首次推出以来对其设计实施进行了大量更改。
 
  “我们是 CPU 替代品,而不是 AI 加速器公司,我们的目标是云 / 超大规模和电信公司,”Danilak 说。“随着时间的推移,我们计划赢得一些超级计算机客户,因此我们将向量 / MAC 单元的宽度从 512 位增加到 1024 位(这也为人工智能的 4096 位矩阵运算带来了必要的数据路径)。”
 
  事实上,Tachyum 的 Prodigy 承诺的特别优势是它能够执行不同类型的代码。假设它可以在执行通用工作负载(即时 ces),它可能会为亚马逊 AWS、微软 Azure 等提供一些额外的灵活性,因为如果需要的话,它们将能够为 AI、HPC 和通用实例使用相同的机器。当然,它需要来自不同方的一些实际软件工作,这可能会奏效,至少在理论上可以。

(编辑:应用网_丽江站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读