如果用一个字来概括本周的IT界的话,那就非“战”字莫属,如果要在前面加一个形容词的话,那就是“乱”。公有云之间的混战持续升级,桌面云之战起苗头,沉寂多时的HPC不甘寂寞,也跳了出来……
AWS挑战传统企业级技术 微软觊觎Vmware
尽管面对Google的发起的“价格战”,AWS处之泰然,但其仍不得不有一丝危机,尤其是面对老牌软件巨头微软Azure。尽管在短期内,这还不足以对AWS带来太大的影响,但未雨绸缪总是要有的。
在这周,AWS又推出了一项新的服务内容——R3实例,面向有内存计算需求的用户,从15GB起步,其最大可提供244GB的内存,和640GB的SSD存储。Google和Azure也有类似的服务,但Google最大提供104GB内存,而Azure则为56GB。从这一点上来看,AWS R3实例拥有更大的选择空间。
正如上期《今日至顶》中所说的那样,传统的企业级技术未必能引起互联网用户的兴趣,而基于互联网的技术正在改变传统的企业级市场。诸如AWS R3之类的云服务可看做互联网技术“侵蚀”传统企业级市场的代表。不仅止于此,AWS CTO Werner Vogels还公开表示,正考虑ARM CPU,或将提供RISC-as-a-service,以帮助那么有遗产的用户享受云的弹性优势。
当然,这还只是“考虑”阶段,但谁敢怀疑互联网巨头们的“实力”?譬如IBM,这个被AWS“击败”而在云市场暂时落后的“蓝色巨人”也不得不痛定思痛,收购SoftLayer,扩建其数据中心,以“金钱换时间”,但“云”之功非一朝一夕之事。本周,“蓝巨人”再次祭起“收购”法宝,收购Silverpop,以加快自己的云进程。
相对而言,似乎微软就有觉悟多了,虽然在公有云和私有云方面,其不如AWS和VMware完善,却又分别有AWS和VMware不具有的优势,并有“将公有云与私有云两线整合为一线作战”的感觉。这不,微软刚宣布与英国电信(BT)合作,为那些担忧公有云安全的用户,提供一种绕开互联网的私有连接方式,可在198个国家或地区使用。这可谓借势。
同时,在私有云领域,微软又觊觎VMware庞大用户群,同是本周,微软发布了一项新的技术,用户可将虚拟机从ESXi迁移到Hyper-v环境,将VMDK文件转换成VHD文件,颇有“釜底抽薪”的味道。
尽管VMware目前还没有反应,但这并没有太多可担心的,技术上能解决问题,但用户未必会买账。但似乎VMware也在干同样的事情,这周,VMware推出了Horizon 6产品,目标很明确——思杰。并且,VMware的决心很大,除了从思杰公司挖来两位重要的工程师之外,甚至将自己的对手——微软都拉上了一辆战车,尽管微软与思杰有多年的紧密合作关系。
思杰作何感想暂且不表,而其他几家公司都在有条不紊地布局,以扩大战果。相比于这几家“巨头”,同样是提供企业级云服务的Dropbox似乎就有点“病急乱投医”的感觉,继上次Dropbox因为“哈希”技术引起用户质疑其侵犯隐私之后,Dropbox将前美国国务卿赖斯请进了董事会,担任用户隐私方面的顾问。而赖斯素以支持窃听闻名,这可能会让Dropbox用户产生较大反弹。
HPC功耗技术更新 俄印欲夺HPC之冠
据《经济时报》消息,俄罗斯科学院(简称RAS)已经邀请了印度科学研究院,以共同探讨建设一座超级计算机中心的可行性。尽管这项计划还处于起步阶段,但俄罗斯超级计算机厂商RSC已经开始介入其中。目标直指中国的天河二号。
目前俄罗斯的Lomonosov超级计算机排名第三十七、而印度的Param Yuva-II更是仅仅位居全球第八十三位。在IT计算发展迅猛的当下,两者都有必要向“尖端”靠拢。当然,尽管俄罗斯素有活儿糙之弊端,但实力是有的。至于印度,那更不用说,君不见“印度高管”身影已经遍布各大IT公司。Intel自不必说,纳德拉更是坐上了微软CEO的宝座。窥豹一斑,可见印度IT实力之强。
这并非不可能,虽然这几年与HPC相关的技术离大众的视野有些远,但其仍随着IT技术的进步而进步,最显而易见的就是CPU与GPU技术。而现在,富士通又宣称将在两台超级计算机上使用System-on-Chip(SoC)设计方案,并称这将提升40%的处理能力,同时功耗降低一半。
果真如此的话,这将是一项了不起的技术。在一定程度上,HPC与互联网巨头们的超大规模数据中心有些类似,任何一个小的设计都会引发“蝴蝶效应”,功耗是其中最为重要的制约因素之一。这一点在我们的报告《数据中心2013:硬件重构与软件定义》中有详细论述。
除了富士通的这种降低功耗的技术之外,英特尔与SGI也开始利用3M公司提供的Novec冷却液来降低超级计算机的散热成本,以此达到提升功率密度的目的。据称,英特尔与SGI构建的这套系统每平方米能容纳的处理芯片功耗能达到100千瓦。
从技术角度考虑,这种方案也应该可用于互联网巨头们的超大规模数据中心,OCP提出的Open Rack,英特尔提出的RSA,以及BAT的“天蝎项目”,不都是为了提升计算密度,同时降低散热成本么?
而对于崇尚开源的互联网巨头们,本周还有一个好消息,戴尔推出了一系列针对OpenStack云的大型交换设备,可用于SDN和大型数据中心交换环境。据称,其最高可扩展至528个10/40GbE端口,总体数据吞吐能力达到10Tbps,延迟仅为前代产品的一半。
好文章,需要你的鼓励
这篇研究论文介绍了"Speechless",一种创新方法,可以在不使用实际语音数据的情况下训练语音指令模型,特别适用于越南语等低资源语言。研究团队通过将文本指令转换为语义表示,绕过了对高质量文本转语音(TTS)系统的依赖。该方法分三个阶段:首先训练量化器将语音转为语义标记;然后训练Speechless模型将文本转为这些标记;最后用生成的合成数据微调大型语言模型。实验表明,该方法在越南语ASR任务中表现出色,为低资源语言的语音助手开发提供了经济高效的解决方案。
《Transformer Copilot》论文提出了一种革命性的大语言模型微调框架,通过系统记录和利用模型训练过程中的"错误日志"来提升推理性能。研究团队受人类学习者记录和反思错误的启发,设计了一个"副驾驶"模型来辅助原始"驾驶员"模型,通过学习错误模式并在推理时校正输出。这一方法在12个基准测试上使模型性能提升高达34.5%,同时保持计算开销最小,展现了强大的可扩展性和可迁移性,为大语言模型的优化提供了全新思路。
德克萨斯大学Austin分校的研究团队提出了RIPT-VLA,一种创新的视觉-语言-动作模型后训练范式。该方法通过让AI模型与环境互动并仅接收简单的成功/失败反馈来学习,无需复杂的奖励函数或价值模型。实验证明,RIPT-VLA能显著提升现有模型性能,在轻量级QueST模型上平均提升21.2%,将大型OpenVLA-OFT模型推至97.5%的前所未有成功率。最令人惊叹的是,仅用一个示范样本,它就能将几乎不可用的模型在15次迭代内从4%提升至97%的成功率,展现出卓越的数据效率和适应能力。
北京大学与华为诺亚方舟实验室研究团队共同开发了TIME基准,这是首个专为评估大语言模型在真实世界场景中的时间推理能力而设计的多层级基准。该研究提出了三个层级的时间推理框架,包含11个细粒度任务,并构建了涵盖38,522个问答对的数据集,针对知识密集型信息、快速变化的事件动态和社交互动中的复杂时间依赖性三大现实挑战。实验结果表明,即使是先进模型在构建时间线和理解复杂时间关系方面仍面临显著挑战,而测试时扩展技术可明显提升时间逻辑推理能力。