前面我们说过,新华三H3C UniServer R4700 G3可以最高支持至TDP 205W的Xeon SP Platium 8180M,双路配置下最多可以提供56个硬件核心和112个硬件线程,最多3.0TiB DDR4-2666内存支持能力,我们可以看到一共具有24个DDR4 DIMM,合12个内存通道:
中央即为处理器与内存区域,来源:H3C
我们收到的机器搭配的是12条SK. Hynix的16GiB DDR4-2666内存;银白色散热器下方就是CPU
需要特别指出的是,由于散热能力的差别,不是所有的1U服务器都能支持最顶级的处理器以及最大容量的内存,H3C R4700 G3可以支持Xeon Platium 8180M和128GiB单条的LR DIMM,这是一些其他1U服务器所不具备的。
在扩展性上,H3C R4700 G3也有其特别之处:
H3C R4700 G3提供了两个全高全长(FHFL)的PCIe 3.0 x16插槽,除了可以连接高速IO设备之外,它还能支持企业级的GPU:
H3C R4700 G3的PCIe Riser上具有一个8PIN的PCIe电源插座,猜测其为输出电能到GPU加速卡
EPP 8PIN PCIe电源提供的功率为可达150W,在这里似乎有些大材小用,因为H3C谦逊地标注R4700 G3支持最大功率120W的GPU加速卡,目前可以选择的型号有NVIDIA的M4和M4000。很多1U机架服务器并不能支持企业级GPU,或者说,功耗比较高的GPU。
除了两个自由的PCIe x16扩展槽之外,前面介绍过R4700 G3还提供了一个专用于板载阵列卡的PCIe x8界面,至于网络,R4700 G3和其他的服务器有些不太一样:
蓝色表示这个可以安全免工具维护操作,意味着这个4口RJ45网络接口单元是可以拆卸的
首先特别的一点是,R4700 G3的板载网络可以非常方便地进行更换和重新配置,它采用了一种很少见的子卡设计:
不知道原名的我们将其称为网卡笼,大量的空间以及孔洞可以提供充足的散热能力
这个网络子卡+网卡笼的设计不仅仅可以免工具维护——它还是服务器免抽取的,只要在后面板拧螺丝就可以了。
第二点特别的地方在于,这个部件是可以带电热插拔的,我不清楚是否很多人都清楚这一点,但按照网卡芯片的设计,它是具有这个特性的。
Marvell 88E1543芯片,这其实只是一个不太重要的四口1Gb以太网PHY芯片……
第三点特别之处在于,这个网络子卡实际上只是一个PHY芯片,网卡实际上是包含在主板的Intel PCH芯片上,学名Intel Ethernet Connection X722,它其实是一块基于Intel X710独立40Gb以太网卡改良的片内网卡,具有相似的规格和一致的驱动:
BIOS里显示为四个Intel Ehternet Connection X722 for 1GbE,这是因为插入的是四口RJ45 1Gb模块
这个网卡具有多种接口配置,H3C目前提供的有三种:四口千兆铜口、双口万兆光口、双口万兆电口。原则上,系统可以支持最多四口万兆。通过切换不同的模块,系统就可以方便地实现不同的接口形式和传输速率。
最后是两点R4700网络配置的特质:一点是这个网卡通过专用的PCIe界面与CPU直连,而不是与以前的板载网卡一样连载延迟更高的PCH芯片组上,另一点是这个新网卡可以支持iWARP(Internet Wide Area RDMA Protocol) RDMA功能,提供了一种极为快速的互联能力,并且不管使用什么样的接口子卡都具备。遗憾的是,本次我们不对其进行测试。关于H3C R4700 G3的内部设计我们就介绍到这里,下面我们将开始介绍我们进行的测试。
好文章,需要你的鼓励
在迪拜Gitex 2025大会上,阿联酋成为全球AI领导者的雄心备受关注。微软正帮助该地区组织从AI实验阶段转向实际应用,通过三重方法提供AI助手、协同AI代理和AI战略顾问。微软已在阿联酋大举投资数据中心,去年培训了10万名政府员工,计划到2027年培训100万学习者。阿联酋任命了全球首位AI部长,各部门都配备了首席AI官。微软与政府机构和企业合作,在公民服务和金融流程等领域实现AI的实际应用,构建全面的AI生态系统。
北航团队开发的GeoSVR技术突破了传统3D重建方法的局限,采用稀疏体素表示和体素不确定性评估,无需依赖初始点云即可实现高精度表面重建。该方法通过智能的深度约束和体素协同优化策略,在DTU等标准数据集上取得了最佳性能,为VR/AR、文物保护、影视制作等领域提供了新的技术选择。
苹果与俄亥俄州立大学研究人员发布名为FS-DFM的新模型,采用少步离散流匹配技术,仅需8轮快速优化即可生成完整长文本,效果媲美需要上千步骤的扩散模型。该模型通过三步训练法:处理不同优化预算、使用教师模型指导、调整迭代机制来实现突破。测试显示,参数量仅1.7亿至17亿的FS-DFM变体在困惑度和熵值指标上均优于70-80亿参数的大型扩散模型。
Google DeepMind团队发布了EmbeddingGemma,这是一个仅有3.08亿参数的轻量级文本理解模型,却能达到7亿参数模型的性能水平。该模型在权威的多语言文本嵌入基准测试中排名第一,支持250多种语言,特别适合移动设备部署。研究团队通过创新的编码器-解码器初始化、三重损失函数训练和模型融合技术,实现了性能与效率的完美平衡,为AI技术普及化开辟了新路径。