看完Core核内的改进之后,我们再来看看Uncore核外的改动,首先是核心互联架构的改进:
我们已经知道Haswell-EP具有18个核心,那么,这18个核心的互联就是一个挑战,它会影响到Uncore的设计。上一代的12个核心就已经迫使Ivy Bridge-EP采用了三环形总线的设计,那么Haswell-EP呢?
Haswell-EP核心内部互联的进化,这个进化只有十核心及以上核心数量的型号才具有
答案果然是四环形总线,不过是环形总线并不是重点,最主要的地方在于,Haswell将核心分为两组,每组通过一对环形总线连接,就如同低核心数量时一样,并且——Haswell在两组核心之间加入了Buffered Switch(缓冲交换机),这才是重点。根据核心数量的不同,Haswell-EP和上一代一样具有三种不同的晶圆布局,其中HCC(High Core Count)和MCC(Medium Core Count)两种具有Buffered Switch设计。
显然,Buffered Switch将CPU分为了两个区域,从而让处理器可以容纳更多的CPU核心,不过,Buffered Switch会引入延迟,根据笔者的问询,Intel方回答是,Buffered是FIFO的设计,并具有4~5个时钟周期的延迟,这样的延迟并非刻意忽略,实际上,Intel针对Haswell-EP的状况还准备了一个新的Cluster-on-Die的工作方式:
在具有2个Home Agent的SKU才具有Cluster-on-Die特性
Buffered Switch的存在让两个不同的CPU组/分区对其它不同的部件有着不同的延迟,这实际上就和NUMA架构一样,因此Cluster-on-Die显的做法就是在CPU里面实现NUMA——每个CPU组各自拥有各自的内存控制器、Home Agent等,L3 Cache也同时进行分割,整体来说,Cluster-on-Die模式用于降低两个CPU分区之间的通信,从而提升性能,因此,Cluster-on-Die也是一种Snoop模式:
Cluster-on-Die也是一种Snoop模式,因为它影响到了L3 Cache的工作方式
对于系统来说,打开Cluster-on-Die模式实际上就是让一个处理器被认为了两个处理器,如此,支持的OS/VMM就可以对应用进行本地调度,尽量降低CPU分区之间的通信。
Intel Xeon E5 2600 v3的晶圆,仔细看的话,是可以看出这块晶圆里面是其最顶级的型号E5-2699 v3
先不说E5-2699 v3是什么,要认出这块晶圆里面是E5-2699 v3,显然需要一些知识点,看完本文就能明白
如何看出晶圆上是Intel Xeon E5-2699 v3?将上图向右旋转90度,从左到右一共有四列规整的处理器核心+L3缓存,数量分别是4、4、4和6,刚好和前面的核心配置图一致
通过Buffered Switch的设计,Haswell-EP实现了18个处理器核心,这一点是比较让人惊奇的,因为包括Nehalem、Sandy Bridge这样的处于Tock阶段的处理器,都不会对处理器核心做出如此之多的增加。
好文章,需要你的鼓励
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。
这项由中国人民大学高瓴人工智能学院研究团队发表的研究解决了大语言模型评判中的自我偏好问题。研究提出了DBG分数,通过比较模型给自身回答的分数与黄金判断的差异来测量偏好度,有效分离了回答质量与自我偏好偏差。实验发现,预训练和后训练模型都存在自我偏好,但大模型比小模型偏好度更低;调整回答风格和使用相同数据训练不同模型可减轻偏好。研究还从注意力分析角度揭示了自我偏好的潜在机制,为提高AI评判客观性提供了重要指导。
这篇研究提出了DenseDPO,一种改进视频生成模型的新方法,通过三大创新解决了传统方法中的"静态偏好"问题:使用结构相似的视频对进行比较,采集细粒度的时序偏好标注,并利用现有视觉语言模型自动标注。实验表明,DenseDPO不仅保留了视频的动态性,还在视觉质量方面与传统方法相当,同时大大提高了数据效率。这项技术有望推动AI生成更加自然、动态的视频内容。