【ZD Research】在以往,Tick-Tock钟摆策略让Intel(英特尔)的处理器每两年更换一次工艺制程(Tick)、每两年更新一次微架构(Tock),最终就是每年换一次制程或微架构,从而每年都能有新产品推出。现在,这个摆动的变慢我们已经用肉眼就可以看到,大致上,在微架构更换之后,还可能会接着推出一个同制程同微架构的改进版本,这样微架构周期就变成了约三年,例子就是桌面端的Broadwell-Skylake-Kaby Lake以及下一个循环中的Cannonlake-Ice Lake-Tiger Lake。
从Tick-Tock变为Process-Architecture-Optimization,笔者将其称为“Tick-Tock-Tock”(非官方)
新的策略称为“Process-Architecture-Optimization”——“制程-架构-优化”,导致这个变长的周期的原因就是临近10nm之后,新工艺制程的开发难度加大。上一代的企业级处理器产品线——代号Haswell-EP的企业级第三代至强E5处理器(Xeon E5 v3)在2014年9月发布,到现在代号Broadwell-EP的企业级第四代至强E5处理器(Xeon E5 v4),中间的跨度超过了一年半。相比消费级,企业级处理器具有很多额外的特性,从而需要额外的开发时间,导致了其周期变长,这种与消费级处理器的不匹配以后还可能会导致一些问题。
2016年4月,Intel Xeon E5-2600 v4处理器,代号Broadwell-EP(14nm,Broadwell微架构)
上图是我们拿到的Broadwell-EP——Xeon E5-2600 v4的实物。大约在发布前一个月,我们拿到了样品。在收到处理器(以及搭配的DDR4内存)的同时,笔者身处Oregon的Hillsboro,同时见到了Xeon E5 v4处理器、Xeon E7 v4处理器以及Xeon E5 v4的晶圆,其时Intel对晶圆的官方图片三缄其口,事实证明之后的发布会Intel再也没有提供详细的晶圆照片。幸运的是,在某Workshop上,笔者拍摄了一些晶圆照片,它们经过了Intel人员的审核,在后面我们会看到。
一颗Intel Xeon E5 v4和两颗Intel Xeon E7 v4(正面)
一颗Intel Xeon E5 v4和两颗Intel Xeon E7 v4(背面)
Process-Architecture-Optimization策略中包含了Broadwell,按照设计,Broadwell-EP和所有的Broadwell一样,都基于新的14nm工艺。这个新工艺带来了更多的晶体管,从而达到了更多的核心数量。除此之外,一如既往地,Broadwell-EP在Uncore区域做了很多的改变,有一些非常激动人心,就如我们接下来会看到的一样。
Intel Broadwell-EP处理器评测 by ZD Research 盘骏/Lucifer
首先,我们会先对Broadwell-EP的架构进行一个概述,然后是对Broadwell-EP的微架构改进进行解析,然后着重对Broadwell-EP的Uncore区域——内联架构——当中的上面提到的激动人心的改进进行介绍,然后是一些杂项Uncore改进,最后是平台方面的变化,然后就是性能测试并与前几代理器进行性能对比。
前两代处理器Ivy Bridge-EP和Haswell-EP的评测:
好文章,需要你的鼓励
这项研究提出了ORV(占用中心机器人视频生成)框架,利用4D语义占用作为中间表示来生成高质量的机器人操作视频。与传统方法相比,ORV能提供更精确的语义和几何指导,实现更高的时间一致性和控制精度。该框架还支持多视角视频生成(ORV-MV)和模拟到真实的转换(ORV-S2R),有效弥合了虚拟与现实之间的差距。实验结果表明,ORV在多个数据集上的表现始终优于现有方法,为机器人学习和模拟提供了强大工具。
这项研究由Writer公司团队开发的"反思、重试、奖励"机制,通过强化学习教导大型语言模型生成更有效的自我反思内容。当模型回答错误时,它会生成反思并二次尝试,若成功则奖励反思过程。实验表明,该方法在函数调用和数学方程解题上带来显著提升,最高分别改善18.1%和34.7%。令人惊讶的是,经训练的小模型甚至超越了同家族10倍大的模型,且几乎不存在灾难性遗忘问题。这种自我改进技术为资源受限环境下的AI应用开辟了新方向。
FuseLIP是一项突破性研究,提出了通过早期融合离散标记实现多模态嵌入的新方法。与传统CLIP模型使用独立编码器不同,FuseLIP采用单一编码器同时处理图像和文本标记,实现了更自然的模态交互。研究证明,这种早期融合方法在多种多模态任务上表现优异,特别是在需要理解图像结构而非仅语义内容的任务上。研究还开发了创新的数据集和评估任务,为多模态嵌入研究提供了宝贵资源。
ByteDance与浙江大学合作开发的MERIT是首个专为多语言多条件语义检索设计的基准数据集,包含320,000条跨5种语言的查询和135,000个产品。研究发现现有模型在处理多条件查询时过度关注全局语义而忽略特定条件元素,为此提出CORAL框架,通过嵌入重建和对比学习相结合的方式,使检索性能提升45.9%。这项研究不仅识别了现有方法的关键局限性,还为多条件交错语义检索领域的未来研究奠定了基础。