【ZDNet企业解决方案中心】在使用AVX编译代码的情况下,Haswell-EP/Xeon E5-2699 v3相对Ivy Bridge-EP/Xeon E5-2697 v2具有37.1%(SPECint_rate_base2006,整数)和30.0%(SPECfp_rate_base2006,浮点)的综合性能/吞吐量提升,在满负荷测试时,Intel Xeon E5-2699 v3工作在2.8GHz,Intel Xeon E5-2697 v2工作在3.0GHz,后者要高出7%(或前者要低6.7%),因此Haswell-EP的总体提升幅度是值得肯定的。
2014年9月,Intel Haswell-EP处理器评测 by ZDNet企业解决方案中心 Lucifer
在SPEC CPU的RATE测试当中看不到,而在SPEED测试当中看到的是处理器微架构的提升,例如,462.libquantum 物理:量子计算就达到了122%的提升幅度,完全超过了核心数量的提升(462.libquantum 物理:量子计算是少数可以利用到多核的SPEED测试),可见Haswell的微架构改变确实有用。
Haswell-EP核心内部互联的进化,当然,这个进化只有十核心或十二核心数量的型号才具有
除了性能的提升之外,Haswell-EP还通过集成电压调制器实现了Per Core P-States(PCPS)和Uncroe Voltage/Frequency Scaling(UFS),可以降低整个平台的使用功耗,提升性能功耗比值,Haswell-EP将会是一款很绿色的Xeon处理器。
如何看出晶圆上是Intel Xeon E5-2699 v3?将上图向右旋转90度,从左到右一共有四列规整的处理器核心+L3缓存,数量分别是4、4、4和6,刚好和前面的核心配置图一致
由于时间关系,测试中并没有使用AVX2编码,也没有用到FMA,并未有完全发挥Haswell处理器的实力。更进一步的测试我们还在进行当中,另外还有虚拟化等方面的测试,请继续期待我们的相关评测文章。
上一代处理器Ivy Bridge-EP的评测:
好文章,需要你的鼓励
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。
这项由中国人民大学高瓴人工智能学院研究团队发表的研究解决了大语言模型评判中的自我偏好问题。研究提出了DBG分数,通过比较模型给自身回答的分数与黄金判断的差异来测量偏好度,有效分离了回答质量与自我偏好偏差。实验发现,预训练和后训练模型都存在自我偏好,但大模型比小模型偏好度更低;调整回答风格和使用相同数据训练不同模型可减轻偏好。研究还从注意力分析角度揭示了自我偏好的潜在机制,为提高AI评判客观性提供了重要指导。
这篇研究提出了DenseDPO,一种改进视频生成模型的新方法,通过三大创新解决了传统方法中的"静态偏好"问题:使用结构相似的视频对进行比较,采集细粒度的时序偏好标注,并利用现有视觉语言模型自动标注。实验表明,DenseDPO不仅保留了视频的动态性,还在视觉质量方面与传统方法相当,同时大大提高了数据效率。这项技术有望推动AI生成更加自然、动态的视频内容。