【ZDNet企业解决方案中心】作为Primergy家族的高端机型,富士通Primergy RX4770 M1机架服务器采用的是高端的Xeon E7 v2处理器,也就是为人熟知的Ivy Bridge-EX处理器,后缀EX意思是Expandable,可扩展。和EP系列不同,EX系列处理器可以扩展至最多256路多处理器系统,额外地,EX系列处理器在IA架构中具有除了IA64之外的最为强大的RAS(Reliability, Availability, Serviceability,可靠性、可用性和可服务性)特性,主打的就是企业级关键业务市场。
在Primergy系列当中,RX4770 M1是属于中端的型号,不过我们收到的RX4770 M1服务器算是高配置,颇具看头:四路Xeon E7-4850 v2,然后满配一共96条8GiB内存,总共768GiB,SAS HDD也配备了8个,另外万兆网卡、8Gb FC卡若干……Xeon E7-4850 v2在Xeon E7 v2当中不算高端,但也拥有着十二核心的配置,搭配超线程技术,我们手上的RX4770 M1一共提供了96个硬件线程:
RX4770 M1服务器采用的CPU:Intel Xeon E7-4850 v2,FC LGA2011封装,12个核心,基础频率2.30GHz,最大可以睿频至2.8GHz,E7-4850 v2最多支持四路配置
RX4770 M1服务器的热插拔内存模块,每模块12个DIMM,支持最大64GiB内存条(使用LR内存),每模块可达768GiB,支持DDR3-1066/1333/1600,在3DPC的配置下是运行在DDR3-1066
一共8个内存模块,合计最多6TiB内存容量,我们收到的服务器配置的是8GiB的内存条,总容量768GiB,就送测的来说,是笔者接触过的最大内存的机器
可以看到,我们收到的富士通Primergy RX4770 M1配置非常强悍,特别是在CPU和内存方面,关于它的详细配置还可以看这里:
只为关键业务 富士通Primergy RX4770 M1服务器解析
接下来我们将会对它进行多种针对性的测试,下面先进行的是SPEC CPU2006,主要考察的是其CPU和内存子系统的能力。
好文章,需要你的鼓励
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。
这项由中国人民大学高瓴人工智能学院研究团队发表的研究解决了大语言模型评判中的自我偏好问题。研究提出了DBG分数,通过比较模型给自身回答的分数与黄金判断的差异来测量偏好度,有效分离了回答质量与自我偏好偏差。实验发现,预训练和后训练模型都存在自我偏好,但大模型比小模型偏好度更低;调整回答风格和使用相同数据训练不同模型可减轻偏好。研究还从注意力分析角度揭示了自我偏好的潜在机制,为提高AI评判客观性提供了重要指导。
这篇研究提出了DenseDPO,一种改进视频生成模型的新方法,通过三大创新解决了传统方法中的"静态偏好"问题:使用结构相似的视频对进行比较,采集细粒度的时序偏好标注,并利用现有视觉语言模型自动标注。实验表明,DenseDPO不仅保留了视频的动态性,还在视觉质量方面与传统方法相当,同时大大提高了数据效率。这项技术有望推动AI生成更加自然、动态的视频内容。