看完Core核内的改进之后,我们再来看看Uncore核外的改动,首先是核心互联架构的改进:
我们已经知道Haswell-EP具有18个核心,那么,这18个核心的互联就是一个挑战,它会影响到Uncore的设计。上一代的12个核心就已经迫使Ivy Bridge-EP采用了三环形总线的设计,那么Haswell-EP呢?
Haswell-EP核心内部互联的进化,这个进化只有十核心及以上核心数量的型号才具有
答案果然是四环形总线,不过是环形总线并不是重点,最主要的地方在于,Haswell将核心分为两组,每组通过一对环形总线连接,就如同低核心数量时一样,并且——Haswell在两组核心之间加入了Buffered Switch(缓冲交换机),这才是重点。根据核心数量的不同,Haswell-EP和上一代一样具有三种不同的晶圆布局,其中HCC(High Core Count)和MCC(Medium Core Count)两种具有Buffered Switch设计。
显然,Buffered Switch将CPU分为了两个区域,从而让处理器可以容纳更多的CPU核心,不过,Buffered Switch会引入延迟,根据笔者的问询,Intel方回答是,Buffered是FIFO的设计,并具有4~5个时钟周期的延迟,这样的延迟并非刻意忽略,实际上,Intel针对Haswell-EP的状况还准备了一个新的Cluster-on-Die的工作方式:
在具有2个Home Agent的SKU才具有Cluster-on-Die特性
Buffered Switch的存在让两个不同的CPU组/分区对其它不同的部件有着不同的延迟,这实际上就和NUMA架构一样,因此Cluster-on-Die显的做法就是在CPU里面实现NUMA——每个CPU组各自拥有各自的内存控制器、Home Agent等,L3 Cache也同时进行分割,整体来说,Cluster-on-Die模式用于降低两个CPU分区之间的通信,从而提升性能,因此,Cluster-on-Die也是一种Snoop模式:
Cluster-on-Die也是一种Snoop模式,因为它影响到了L3 Cache的工作方式
对于系统来说,打开Cluster-on-Die模式实际上就是让一个处理器被认为了两个处理器,如此,支持的OS/VMM就可以对应用进行本地调度,尽量降低CPU分区之间的通信。
Intel Xeon E5 2600 v3的晶圆,仔细看的话,是可以看出这块晶圆里面是其最顶级的型号E5-2699 v3
先不说E5-2699 v3是什么,要认出这块晶圆里面是E5-2699 v3,显然需要一些知识点,看完本文就能明白
如何看出晶圆上是Intel Xeon E5-2699 v3?将上图向右旋转90度,从左到右一共有四列规整的处理器核心+L3缓存,数量分别是4、4、4和6,刚好和前面的核心配置图一致
通过Buffered Switch的设计,Haswell-EP实现了18个处理器核心,这一点是比较让人惊奇的,因为包括Nehalem、Sandy Bridge这样的处于Tock阶段的处理器,都不会对处理器核心做出如此之多的增加。
好文章,需要你的鼓励
思科与英伟达、VAST Data合作推出安全AI工厂,整合服务器、GPU和存储设备为企业提供一体化AI基础设施。该方案采用融合基础设施形式,以AI POD作为核心组件,搭载英伟达RTX PRO 6000 Blackwell GPU和思科UCS服务器。存储方面支持NetApp、Pure Storage或VAST Data产品。VAST声称其InsightEngine能够加速RAG管道,将响应延迟从分钟级降至秒级,支持企业级智能体AI应用。
浙江大学等联合研究发现,AI强化学习效果取决于"模型-任务对齐"程度。当AI擅长某任务时,单样本训练、错误奖励等非常规方法也有效;但面对陌生任务时,这些方法失效,只有标准训练有用。研究团队通过大量实验证实,这种"舒适圈"现象比数据污染更能解释训练差异,为AI训练策略优化提供了新思路。
随着人工智能深度融入商业文化,97%的高管认为生成式AI将改变其公司和行业。然而,当人们越来越依赖AI处理记忆、推理和创造性任务时,认知外包现象悄然兴起。研究表明,数字依赖正在重塑记忆模式,可能削弱问题解决能力和批判性思维。组织需要在效率与能力保持之间找到平衡,通过认知训练、批判性参与等方式,将AI视为增强工具而非替代品。
巴赫切希尔大学研究团队通过对五种不同规模YOLO模型的量化鲁棒性测试发现,静态INT8量化虽能带来1.5-3.3倍速度提升,但会显著降低模型对噪音等图像损伤的抵抗能力。他们提出的混合校准策略仅在大型模型处理噪音时有限改善,揭示了效率与鲁棒性平衡的复杂挑战。