除了前面比较成体系的改进之外,Broadwell的Uncore还有一些杂项提升:
1.Opportunistic Snoop Broadcast,机遇性侦听广播
2.Hardware Controlled Power Management,硬件控制电源管理
3.Intel Processor Trace,Intel处理器追踪
4.DDR4 Write CRC,DDR4写CRC
5.ECRC(End to End CRC Protection) for PCIe IO Subsystems,PCIe IO子系统端到端CRC
杂项改进中笔者最关注的是Hardware Controlled Power Management
其中DDR4写CRC和PCIe IO子系统端到端CRC用来提升内存子系统和PCIe IO子系统的鲁棒性,进一步提升X86系统的可靠性。
这里还给出了不同模式下Broadwell-EP的内存读取延迟和带宽
Hardware Controlled Power Management,缩写是HWPM而不是HCPM,则是笔者最关注部分:
为什么觉得HWPM重要?因为在HWPM之前,CPU的工作状态(C0~C6)是由操作系统控制,一方面,工作有延迟,不能及时反映负载变化,Turbo频率也不够迅速,另一方面,操作系统的软件实现也给系统带来一些负载。遗憾的是,经过测试,这个特性暂时还未能发挥想象中的性能,不过其作用是值得期待的。
Intel Processor Trace,进一步提升对CPU的debug能力
这是一个与编程/调试有关的特性,基本上笔者很少接触。可以肯定的是,和著名的PMU(以及前面的RDT)一样,IPT将会进一步提升开发者对系统的控制能力。
Broadwell-EP Summary:新的Broadwell微架构和架构很好很强大
经过对Core和Uncore的解析,我们对Broadwell-EP的设计实现细节有了一个初步的了解,接下来就是我们的测试环节。
好文章,需要你的鼓励
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。
这项由中国人民大学高瓴人工智能学院研究团队发表的研究解决了大语言模型评判中的自我偏好问题。研究提出了DBG分数,通过比较模型给自身回答的分数与黄金判断的差异来测量偏好度,有效分离了回答质量与自我偏好偏差。实验发现,预训练和后训练模型都存在自我偏好,但大模型比小模型偏好度更低;调整回答风格和使用相同数据训练不同模型可减轻偏好。研究还从注意力分析角度揭示了自我偏好的潜在机制,为提高AI评判客观性提供了重要指导。
这篇研究提出了DenseDPO,一种改进视频生成模型的新方法,通过三大创新解决了传统方法中的"静态偏好"问题:使用结构相似的视频对进行比较,采集细粒度的时序偏好标注,并利用现有视觉语言模型自动标注。实验表明,DenseDPO不仅保留了视频的动态性,还在视觉质量方面与传统方法相当,同时大大提高了数据效率。这项技术有望推动AI生成更加自然、动态的视频内容。