看完Core核内的改进之后,我们再来看看Uncore核外的改动,首先是核心互联架构的改进,大致上,下面这张图表格里面的内容都属于Uncore领域:
基于最新的14nm制程,Broadwell-EP现在具有22个核心,数量上,比上一代Haswell的18个核心增加并不是太多,实际上,同期推出的Broadwell-EX最多有24个核心。我们咨询了Intel,回答是:“我们认为22个核心数量对用户是最合适的”,听起来非常官方。当然,缘由我们也可以理解,那就是:功耗,Broadwell-EX的TDP要高那么一些,而其降低的频率被附加的额外线路(用于更多路CPU系统)抵消,因此,Broadwell-EP的核心数量要少那么两个。这可以理解。
Intel Xeon E5-2600 v4 HCC,High Core Count,高核心数量
Intel Xeon E5-2600 v4 MCC/LCC,Medium/Low Core Count,中/低核心数量
可见,与上一代Haswell-EP其实非常相像:
Haswell-EP核心内部互联,这个进化只有十核心及以上核心数量的型号(HCC)才具有
Broadwell-EP和Haswell-EP一样,只有在HCC和MCC上才有四环形总线设计,LCC只有两条环形总线。HCC/MCC中,CPU核心被分为了两组,每组通过一对环形总线连接,然后在两组核心之间通过Buffered Switch(缓冲交换机)互联,Buffered Switch会引入延迟,根据Haswell-EP Workshop上笔者的问询,Intel方回答是,Buffered是FIFO的设计,并具有4~5个时钟周期的延迟。在这次笔者重新确认了一下,Intel的回答改为了3~4个时钟周期,并再次重复了这个确认。这种延迟天生将CPU分为了两个略有距离的两个部分,一般情况下用户可以忽略这个不同,但对于延迟极为敏感的应用,Intel从Haswell-EP开始还准备了一个新的Cluster-on-Die的工作方式:
在具有2个Home Agent的SKU(HCC与MCC)才具有Cluster-on-Die特性
Buffered Switch的存在让两个不同的CPU组/分区对其它不同的部件有着不同的延迟,这实际上就和NUMA架构一样,因此Cluster-on-Die显的做法就是在CPU里面实现NUMA——每个CPU组各自拥有各自的内存控制器、Home Agent等,L3 Cache也同时进行分割,整体来说,Cluster-on-Die模式用于降低两个CPU分区之间的通信,从而提升性能,因此,Cluster-on-Die也是一种Snoop模式:
Cluster-on-Die也是一种Snoop模式,因为它影响到了L3 Cache的工作方式
Broadwell-EP Workshop上再次重申了各种Snoop方式的不同
对于系统来说,打开Cluster-on-Die模式实际上就是让一个处理器被认为了两个处理器,如此,支持的OS/VMM就可以对应用进行本地调度,尽量降低CPU分区之间的通信。根据上图,COD模式可以提供最低的LLC和本地内存延迟以及最高的本地内存带宽,但远程内存延迟不太稳定,而内存带宽这比较适中,因此,这是一个需要操作系统和应用优化支持的特性。
接下来就是晶圆图片,以下图片经过了Intel的审核:
Intel官方“模特”手持Intel Xeon E5 v4晶圆
Intel Broadwell-EP处理器评测 by ZD Research 盘骏/Lucifer
本文头条图用的就是Broadwell晶圆图片,可以对比Haswell-EP晶圆:
最后我们来看看当前Broadwell-EP具有的型号:
Broadwell-EP型号一览,具有很多的型号和很多的划分,分成了很多个分段
接下来我们将介绍Broadwell-EP上最激动人心的新特性集合:Intel RDT(Resource Director Technology,资源管理技术)。
好文章,需要你的鼓励
Salesforce研究团队发布开源工具包MCPEval,基于模型上下文协议(MCP)架构评估AI智能体工具使用性能。该工具突破传统静态测试局限,通过全自动化流程收集详细任务轨迹和协议交互数据,为智能体行为提供前所未有的可视化分析。MCPEval能快速评估MCP工具和服务器,生成综合评估报告,为企业智能体部署提供可操作的改进建议。
清华大学团队推出AnyCap项目,通过轻量级"即插即用"框架解决多模态AI字幕生成缺乏个性化控制的问题。该项目包含模型、数据集和评估基准,能让现有AI系统根据用户需求生成定制化字幕,在不重训基础模型的情况下显著提升控制能力,为AI内容创作的个性化发展奠定基础。
月之暗面Kimi K2技术报告:解读万亿参数的智能体模型(含K2与DeepSeek R1对比)
耶鲁大学团队开发了全球首个AI科学实验设计评估系统ABGEN,测试了18个先进AI模型设计消融实验的能力。研究发现最好的AI系统得分4.11分,仍低于人类专家的4.80分,但在人机协作模式下表现显著改善。研究还发现现有自动评估系统可靠性不足,建立了元评估基准ABGEN-EVAL。这项研究为AI在科学研究中的应用提供了重要评估框架。