Intel Haswell-EP和其上一代Ivy Bridge-EP基于相同的22nm工艺,然而在微架构上得到了很大的进步,其架构变化也很大,相对来说,在整个系统平台的范围,变化要小上一点。包含Haswell-EP处理器以及Wellsburg PCH芯片在内的整个平台被称之为Grantley。其中,Wellsburg PCH(C610芯片组)是上一代Patsburg PCH(C600芯片组)的继任者,整个平台的更新如下:
Intel Xeon E5-2600 v3处理器平台又被称为Grantley平台
Grantley平台当中最重要的自然就是Haswell-EP处理器了,Wellsburg芯片组的更新再稍后面会提及,我们下面将会花较大篇幅介绍Haswell-EP:
Intel Xeon E5-2600 v3 Processor Overview,概览
上面列表当中黄色的部分表明了相对上一代Ivy Bridge-EP的改进,包括多达18个CPU核心、集成电压调制器、AVX 2.0指令集,以及更好的电源管理和内存技术,这个概览可以大略展示出架构层次上的改进,没有提及微架构的改进,下表亦然:
Xeon E5-2600 v2对比Xeon E5-2600 v3
每一代处理器Intel都会带来一些指令集更新,但Haswell带来的尤其多,所以前面的图当中还提出了Haswell New Instruction(HNI)的概念,其包括了AVX 2.0、FMA等一系列的新指令,这些指令对X86架构来说很重要,后面我们也会对AVX 2.0进行介绍。
最后我们来看看当前Haswell-EP具有的型号:
Haswell-EP分成了很多个分段,核心数量从6核到18核不等,一共具有22个型号
大略了解Xeon E5-2600 v3/Haswell-EP之后,接下来我们先详细介绍一下,Haswell的微架构相对上一代Sandy Bridge微架构具有哪些改进。
好文章,需要你的鼓励
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。
这项由中国人民大学高瓴人工智能学院研究团队发表的研究解决了大语言模型评判中的自我偏好问题。研究提出了DBG分数,通过比较模型给自身回答的分数与黄金判断的差异来测量偏好度,有效分离了回答质量与自我偏好偏差。实验发现,预训练和后训练模型都存在自我偏好,但大模型比小模型偏好度更低;调整回答风格和使用相同数据训练不同模型可减轻偏好。研究还从注意力分析角度揭示了自我偏好的潜在机制,为提高AI评判客观性提供了重要指导。
这篇研究提出了DenseDPO,一种改进视频生成模型的新方法,通过三大创新解决了传统方法中的"静态偏好"问题:使用结构相似的视频对进行比较,采集细粒度的时序偏好标注,并利用现有视觉语言模型自动标注。实验表明,DenseDPO不仅保留了视频的动态性,还在视觉质量方面与传统方法相当,同时大大提高了数据效率。这项技术有望推动AI生成更加自然、动态的视频内容。