看完Core核内的改进之后,我们再来看看Uncore核外的改动,首先是核心互联架构的改进:
我们已经知道Haswell-EP具有18个核心,那么,这18个核心的互联就是一个挑战,它会影响到Uncore的设计。上一代的12个核心就已经迫使Ivy Bridge-EP采用了三环形总线的设计,那么Haswell-EP呢?
Haswell-EP核心内部互联的进化,这个进化只有十核心及以上核心数量的型号才具有
答案果然是四环形总线,不过是环形总线并不是重点,最主要的地方在于,Haswell将核心分为两组,每组通过一对环形总线连接,就如同低核心数量时一样,并且——Haswell在两组核心之间加入了Buffered Switch(缓冲交换机),这才是重点。根据核心数量的不同,Haswell-EP和上一代一样具有三种不同的晶圆布局,其中HCC(High Core Count)和MCC(Medium Core Count)两种具有Buffered Switch设计。
显然,Buffered Switch将CPU分为了两个区域,从而让处理器可以容纳更多的CPU核心,不过,Buffered Switch会引入延迟,根据笔者的问询,Intel方回答是,Buffered是FIFO的设计,并具有4~5个时钟周期的延迟,这样的延迟并非刻意忽略,实际上,Intel针对Haswell-EP的状况还准备了一个新的Cluster-on-Die的工作方式:
在具有2个Home Agent的SKU才具有Cluster-on-Die特性
Buffered Switch的存在让两个不同的CPU组/分区对其它不同的部件有着不同的延迟,这实际上就和NUMA架构一样,因此Cluster-on-Die显的做法就是在CPU里面实现NUMA——每个CPU组各自拥有各自的内存控制器、Home Agent等,L3 Cache也同时进行分割,整体来说,Cluster-on-Die模式用于降低两个CPU分区之间的通信,从而提升性能,因此,Cluster-on-Die也是一种Snoop模式:
Cluster-on-Die也是一种Snoop模式,因为它影响到了L3 Cache的工作方式
对于系统来说,打开Cluster-on-Die模式实际上就是让一个处理器被认为了两个处理器,如此,支持的OS/VMM就可以对应用进行本地调度,尽量降低CPU分区之间的通信。
Intel Xeon E5 2600 v3的晶圆,仔细看的话,是可以看出这块晶圆里面是其最顶级的型号E5-2699 v3
先不说E5-2699 v3是什么,要认出这块晶圆里面是E5-2699 v3,显然需要一些知识点,看完本文就能明白
如何看出晶圆上是Intel Xeon E5-2699 v3?将上图向右旋转90度,从左到右一共有四列规整的处理器核心+L3缓存,数量分别是4、4、4和6,刚好和前面的核心配置图一致
通过Buffered Switch的设计,Haswell-EP实现了18个处理器核心,这一点是比较让人惊奇的,因为包括Nehalem、Sandy Bridge这样的处于Tock阶段的处理器,都不会对处理器核心做出如此之多的增加。
好文章,需要你的鼓励
Salesforce研究团队发布开源工具包MCPEval,基于模型上下文协议(MCP)架构评估AI智能体工具使用性能。该工具突破传统静态测试局限,通过全自动化流程收集详细任务轨迹和协议交互数据,为智能体行为提供前所未有的可视化分析。MCPEval能快速评估MCP工具和服务器,生成综合评估报告,为企业智能体部署提供可操作的改进建议。
清华大学团队推出AnyCap项目,通过轻量级"即插即用"框架解决多模态AI字幕生成缺乏个性化控制的问题。该项目包含模型、数据集和评估基准,能让现有AI系统根据用户需求生成定制化字幕,在不重训基础模型的情况下显著提升控制能力,为AI内容创作的个性化发展奠定基础。
月之暗面Kimi K2技术报告:解读万亿参数的智能体模型(含K2与DeepSeek R1对比)
耶鲁大学团队开发了全球首个AI科学实验设计评估系统ABGEN,测试了18个先进AI模型设计消融实验的能力。研究发现最好的AI系统得分4.11分,仍低于人类专家的4.80分,但在人机协作模式下表现显著改善。研究还发现现有自动评估系统可靠性不足,建立了元评估基准ABGEN-EVAL。这项研究为AI在科学研究中的应用提供了重要评估框架。