现在真的是群雄乱战云计算啊,今天又有一些关于云的新鲜事儿。
红帽(Red Hat)宣布其PaaS(Platform-as-a-Service)云平台OpenShift开始支持微软的.NET和SQL Server,原因很简单,因为红帽发现几乎每一个企业级用户环境里或多或少都存在一些.NET。
在这之前,OpenShift的主要竞争对手是Pivotal的Cloud Foundry和Rackspace的Solum,但就在前几日IBM、HP、SAP以及Rackspace都加入了Cloud Foundry的基金会,再加上Pivotal的母公司VMware和EMC,羽翼已丰。看着昔日差不多处于同一起跑线的对手开始慢慢朝前远去,这让红帽情何以堪?
当然OpenShift支持.NET和SQL Server也许是逼不得已,因为Cloud Foundry早在几年前就已经开始支持。这不管是对红帽还是其用户而言,都显得意义重大。而对于微软而言,可能其更加想要的是红帽的RHEL认证,可惜……不过微软最近似乎没空想这事儿,因为其正在英国大张旗鼓地宣传Cloud OS。
Cloud OS尽管名字不那么“高大上”,其功能还是比较丰富的,也比较接地气。至少看起来比SAP最新推出的“HANA云平台”更容易获得。HANA云平台号称拥有10PB RAM,怎么看都觉得很“高帅富”,其价格自然也不菲。
据称,HANA云平台提供四种硬件配置,最低配置128GB RAM和1.28TB存储空间,每月费用1595美元。最高可配置1TB内存,但价格也水涨船高——每月6495美元。这其中不包括软件的授权费用。如果已经购买了软件许可,可直接在HANA云平台使用。
再来看看另外一个销售“高帅富”产品的公司——VCE,据国外同行报道,VCE未来将添加全闪存阵列Whiptail、Nexus 9000和EMC ViPR到vBlock产品中去。不过VMware、EMC和思科这三家公司的关系就有点乱了……
在软件定义存储方面,EMC有ViPR,VMware有vSAN;在软件定义网络方面,VMware有NSX,思科有ACI;在全闪存方面,思科有自己的全闪存阵列供应商Whiptail,EMC有XtremIO;在服务器闪存卡方面,思科和EMC都有各自产品线……贵圈真的很乱!
看来闪存确实是大势所趋,进入数据中心指日可待。最近东芝就宣布,已经开始试水全闪存数据中心,并在日本三鹰市构建了一个中等规模的数据中心,全部180个机架,共73PB存储容量转换为闪存。据称节省了近一半的物理空间,并降低了40%的能耗。
当然全闪存数据中心的概念,Fusion-io也提过,不过其是为了卖闪存产品,尽管从各方面来算,闪存优势已经开始体现了,但仍不是人人都用得起的。比如OpenText将其云产品带到澳大利亚,并购买30个机架设备构建本地数据中心以降低访问延时。我敢打赌,这肯定不是一个全闪存数据中心,成本还是比较重要滴。
说起数据中心成本,那做到极致的无疑是谷歌和Facebook,不过有消息传出,Twitter也开始效仿这一行为,其CTO将到访台湾,并约见广达、富士康以及英业达等ODM,这无疑是要定制服务器的节奏。
说起定制,可能OEM心里满满都是伤。因为用户根据实际需求自行设计服务器,然后绕过OEM,直接向ODM下单生产,OEM们损失都是钱啊。话说自行设计服务器,可不像DIY电脑那样简单,而是一群极客工程师们自行设计各种组件,甚至可能还会动用到车床。在本文的最后,就来看看Facebook工程实验室的工程师都是怎样设计服务器的。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。