拆下一个铜底散热器就可以看到CPU,尽管Haswell-EP的插槽仍然为LGA2011,然而由于内存架构的改变,和之前的插槽无法通用,实际上新平台的插槽叫做Socket B3,以和上一代的Socket B2做区分。
Socket B3的Intel Xeon E5-2699 v3处理器看起来有些Xeon E7的风格,看起来有一股高大上的气息。
Intel Xeon E5-2699 v3长的是长方形是因为18个核心的排布
Intel Xeon E5-2699 v3,最高端的18核心型号,目前18个核心也只有2699一个型号。Intel Xeon E5-2699 v3采用四环形总线+双Buffered Switch布局,具有45MiB的L3 Cache,TDP是145W,主频2.3GHz,比上一代E5-2697 v2的2.7GHz要低,不过其最大睿频可以达到3.6GHz(两个核心时),所有核心睿频可以达到2.8GHz,整体效能也不算低了;Xeon E5-2697 v2最大睿频是3.5GHz(双核心时)。
Intel Hashwell-EP——Xeon E5-2699 v3处理器
上一代的Ivy Bridge-EP——Intel Xeon E5-2697 v2处理器正面+背面
每个Intel Xeon E5-2699 v3具有18个核心和36个线程,双路配置就能达到36核心72线程。
顺便提一下,Grantley平台不再支持使用普通的Unbuffered内存,上一代的平台是支持的,这个改动对笔者这样的边缘用户影响略大。
好文章,需要你的鼓励
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。
这项由中国人民大学高瓴人工智能学院研究团队发表的研究解决了大语言模型评判中的自我偏好问题。研究提出了DBG分数,通过比较模型给自身回答的分数与黄金判断的差异来测量偏好度,有效分离了回答质量与自我偏好偏差。实验发现,预训练和后训练模型都存在自我偏好,但大模型比小模型偏好度更低;调整回答风格和使用相同数据训练不同模型可减轻偏好。研究还从注意力分析角度揭示了自我偏好的潜在机制,为提高AI评判客观性提供了重要指导。
这篇研究提出了DenseDPO,一种改进视频生成模型的新方法,通过三大创新解决了传统方法中的"静态偏好"问题:使用结构相似的视频对进行比较,采集细粒度的时序偏好标注,并利用现有视觉语言模型自动标注。实验表明,DenseDPO不仅保留了视频的动态性,还在视觉质量方面与传统方法相当,同时大大提高了数据效率。这项技术有望推动AI生成更加自然、动态的视频内容。