Intel 14nm 末代服务器增加新指令 10nm 又砍掉_1

未知 2019-04-21 12:48

Intel 近日发布了第二代可扩展至强处理器,代号为 Cascade Lake,工艺还是 14nm,架构还是 Skylake-SP,而接下来在明年,Intel 还将再拿出一代 14nm 服务器平台,代号为 Cooper Lake,而且很可能更换接口和主板,再往后才轮到 10nm Ice Lake。

Cascade Lake 在机器学习、人工智能方面做了显着增强,Cooper Lake 则会继续改进。根据 Intel 发布的最新版开发者文档,Cooper Lake 会引入新的 AVX512_BF16 适量神经网络指令,也就是支持 bfloat16 ( BF16 ) 格式。

bfloat16 ( BF16 ) 浮点格式介于标准化的半精度 FP16、单精度 FP32 之间,指数位和 FP32 一样而多于 FP16,但是小数位比 FP16 更少。

它能让开发者在 16 位空间内通过降低精度来获取更大的数值空间,在内存中存放更多数据,减少数据进出空间的时间,还能降低电路复杂度,最终带来计算速度的提升。

这种格式已经成为深度学习事实上的标准,Google TPU、Intel 未来的 FPGA 及其 Nervan 神经网络处理器都会支持,Xeon 至强家族支持也在情理之中。

Cooper Lake 支持的 AVX512-BF16 指令包括 VCVTNE2PS2BF16、VCVTNEPS2BF16、VDPBF16PS,而且都有 128 位、256 位、512 位三种模式,因此开发者可以根据需要选择九种不同版本。

不过奇怪的是,Intel 每次公布新指令的时候,都会确认支持的首个架构以及此后支持的架构,比如最初的 AVX 指令集,支持的架构就标注为 "Sandy Bridge and later"。

但这次,AVX512-BF16 指令的支持架构却只写着 "Future Cooper Lake",并没有看到惯例的 "and later"。

这似乎意味着,只有 14nm Cooper Lake 才会支持 AVX512-BF16,而接下来的 10nm Ice Lake 反而会砍掉。

Intel 对此回应称:" 目前,Cooper Lake 会为机器学习加速 ( DLBoost ) 加入 Bfloat16 指令。除此之外在路线图内没有可分享的。"

标签