从Nehalem开始,Intel的处理器就可以分为Core和Uncore两大部分,其中,同一微架构的处理器,其Core部分是一致的,根据消费端、企业端的需求不同,使用不同的Core数量以及Uncore部分搭配组合,就得到了整个家族不同的处理器。其中,Core,核心或者核内,属于微架构的范畴。Intel将Haswell的Core改进划分为三个方面:
1.面向提升IPC(Instruction Per Cycle,每周期指令数)的微架构改进
2.供给运算单元的核心微架构改进
3.提升性能的指令集
如下图所示,Haswell号称IPC比Ivy Bridge提升17%:
我们介绍的顺序大抵和上面一致,接下来先介绍的是面向提升IPC的微架构改进。
微架构的改进设计方方面面,不过大致上就是上面列出的5点:
1. 更好的分支预测
2. 更深的缓冲区
3. 更大的TLB(Translation Lookaside Buffer,旁路翻译缓冲)
4. 更多的执行单元
5. 改进的前端单元
首先我们来看Haswell的微架构图示:
Haswell Core at a Glance,Haswell核心一目了然
At a Glance,一目了然的意思,果然可以很直观地看到Haswell微架构上重点在于改进的前端部分(包括改进分支预测)以及执行单元的改进。下图是上一代微架构Sandy Bridge:
实际上,在Intel的NDA会议上并没有介绍到微架构的层次,因此也没有更多的资料可以介绍更进一步的细节。相对来说,缓冲区以及执行单元的改进倒是可以一说:
Haswell在各种硬件缓冲资源上得到了改进,提升幅度大约在5~15%左右,可谓颇为明显
从Nehalem以来,Intel除了如Atom、Quark之外的处理器均一直具有6个执行端口,每个端口具有不同的执行单元但共享相同的入口,这样每个时钟周期前端可以Issued(发射)6条μop。在Haswell当中,执行端口的数量增加到了8个,新增加的端口6是整数ALU、Shift,以及分支单元;端口7这是Store Address。在以往的微架构当中,整数ALU在端口0和端口1和端口5各有一个,然而在端口0和1的任务十分繁重,各种SIMD操作都要占用,因此增加的ALU有利于解放端口0和1,同样地,分支单元一直以来只有端口0具有,端口7新增的分支单元让分支能力倍增,并减少了对端口0的依赖。端口7的Store Address功能以往由端口2和端口3来实现,而在上一代微架构当中,端口2和端口3的宽度为128位,意味着256位的AVX操作需要同时占用两个端口,也就是占用了端口当中的AGU地址生成单元,现在通过额外的端口7,可以允许更多的操作并行运行,同时,端口2和3的宽度也从以往的128位提升到256位,也就是每端口每个时钟周期可以Load多达32字节的数据,同样,端口4(Store Data)的宽度也得到了翻倍,总的来说,笔者认为,Haswell微架构当中,端口数量的增加——最明显的就是Load/Store能力的增加,对于IPC的提升有着显著的影响,因为L1缓存带宽的翻倍对大量的数据处理作用是很明显的,Haswell在L2带宽上也同时得到了倍增:
除了Load/Store能力的明显改进之外,Haswell的端口2额外增加了FMA FP Mult(融合乘加、浮点乘)的能力,FMA性能翻倍。
总的来说,Haswell更进一步地发掘了处理器的ILP(Instruction Level Parallelism,指令集并行度)能力,在各个方面增加并行运算资源,预计除了IPC,超线程的表现也会得到提升。
好文章,需要你的鼓励
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。
这项由中国人民大学高瓴人工智能学院研究团队发表的研究解决了大语言模型评判中的自我偏好问题。研究提出了DBG分数,通过比较模型给自身回答的分数与黄金判断的差异来测量偏好度,有效分离了回答质量与自我偏好偏差。实验发现,预训练和后训练模型都存在自我偏好,但大模型比小模型偏好度更低;调整回答风格和使用相同数据训练不同模型可减轻偏好。研究还从注意力分析角度揭示了自我偏好的潜在机制,为提高AI评判客观性提供了重要指导。
这篇研究提出了DenseDPO,一种改进视频生成模型的新方法,通过三大创新解决了传统方法中的"静态偏好"问题:使用结构相似的视频对进行比较,采集细粒度的时序偏好标注,并利用现有视觉语言模型自动标注。实验表明,DenseDPO不仅保留了视频的动态性,还在视觉质量方面与传统方法相当,同时大大提高了数据效率。这项技术有望推动AI生成更加自然、动态的视频内容。