实际上,我们为测试机器试验了两种操作系统:一种是Debian GNU/Linux 9.3.0 Stretch x64,并搭载了其时最新的Linux Kernel 4.14.6-041406-lowlatency #201712140930 x64内核,但它略微有些不太稳定;第二种是SuSE Linux Enterprise Server 12 SP3 x64(简称SLES12 SP3),基于SUSE当时最新的Linux Kernel 4.4.92-6.30-default x64内核,提供了非常稳定的体验,但内核并没有那么新,最终我们发现它们的性能各有千秋。我们给出的是SLES12 SP3下的数据。
H3C UniServer R4700 G3测试平台与测试环境
测试平台基于双路Intel Xeon SP Gold 6142处理器,主频2.6GHz,最高可以Turbo到3.7GHz(但运行AVX2代码的时候会降低一些),Gold 6142核心数量为16,硬件线程32,整台双路机器就具有32个核心和64个线程。Gold 6142提供了3个10.4GT/s的UPI界面,提供了很高的性能,内存方面,H3C UniServer R4700 G3总共提供24个DDR4 DIMM,合12个内存通道,H3C为我们配置了12条16GiB的SK. Hynix R-ECC DDR4-2666内存以最大化内存性能。H3C UniServer R4700 G3搭载的是Intel Lewisburg C622芯片组,不过它和本文测试的计算性能基本上没有关联,同理,存储子系统也没有产生什么影响。但关于它们还有不少值得称道的地方,我们计划在后面的文章中进行介绍。
好文章,需要你的鼓励
微软研究院推出VIBEVOICE,这是一种革命性的AI语音合成技术,能够一次性生成长达90分钟的多人对话音频。
成均馆大学团队开发出选择性对比学习新方法,让机器通过观察人类交互场景学会识别物体功能部位。该技术突破传统局限,采用动态学习策略,能根据信息质量调整学习方式,在多个数据集上显著超越现有方法,为机器人、自动驾驶等领域的智能交互应用奠定重要基础。
微软与三星达成合作,将Copilot人工智能助手集成到三星的智能电视和显示器产品中。用户可以通过语音或遥控器直接与Copilot交互,获得智能问答、内容推荐、设备控制等服务。这一合作标志着AI助手从传统计算设备向家庭娱乐设备的进一步扩展,为用户提供更加智能化的观看体验。
新加坡南洋理工大学研究团队开发出EgoTwin系统,这是首个能够根据文字描述同时生成第一人称视频和匹配人体动作的AI框架。该系统通过创新的头部中心动作表示方法和因果交互机制,解决了视角对齐和动作画面同步的核心难题,在17万样本的真实数据集上实现了显著性能提升,为VR内容创作、影视制作等领域提供了新的技术可能。