现在真的是群雄乱战云计算啊,今天又有一些关于云的新鲜事儿。
红帽(Red Hat)宣布其PaaS(Platform-as-a-Service)云平台OpenShift开始支持微软的.NET和SQL Server,原因很简单,因为红帽发现几乎每一个企业级用户环境里或多或少都存在一些.NET。
在这之前,OpenShift的主要竞争对手是Pivotal的Cloud Foundry和Rackspace的Solum,但就在前几日IBM、HP、SAP以及Rackspace都加入了Cloud Foundry的基金会,再加上Pivotal的母公司VMware和EMC,羽翼已丰。看着昔日差不多处于同一起跑线的对手开始慢慢朝前远去,这让红帽情何以堪?
当然OpenShift支持.NET和SQL Server也许是逼不得已,因为Cloud Foundry早在几年前就已经开始支持。这不管是对红帽还是其用户而言,都显得意义重大。而对于微软而言,可能其更加想要的是红帽的RHEL认证,可惜……不过微软最近似乎没空想这事儿,因为其正在英国大张旗鼓地宣传Cloud OS。
Cloud OS尽管名字不那么“高大上”,其功能还是比较丰富的,也比较接地气。至少看起来比SAP最新推出的“HANA云平台”更容易获得。HANA云平台号称拥有10PB RAM,怎么看都觉得很“高帅富”,其价格自然也不菲。
据称,HANA云平台提供四种硬件配置,最低配置128GB RAM和1.28TB存储空间,每月费用1595美元。最高可配置1TB内存,但价格也水涨船高——每月6495美元。这其中不包括软件的授权费用。如果已经购买了软件许可,可直接在HANA云平台使用。
再来看看另外一个销售“高帅富”产品的公司——VCE,据国外同行报道,VCE未来将添加全闪存阵列Whiptail、Nexus 9000和EMC ViPR到vBlock产品中去。不过VMware、EMC和思科这三家公司的关系就有点乱了……
在软件定义存储方面,EMC有ViPR,VMware有vSAN;在软件定义网络方面,VMware有NSX,思科有ACI;在全闪存方面,思科有自己的全闪存阵列供应商Whiptail,EMC有XtremIO;在服务器闪存卡方面,思科和EMC都有各自产品线……贵圈真的很乱!
看来闪存确实是大势所趋,进入数据中心指日可待。最近东芝就宣布,已经开始试水全闪存数据中心,并在日本三鹰市构建了一个中等规模的数据中心,全部180个机架,共73PB存储容量转换为闪存。据称节省了近一半的物理空间,并降低了40%的能耗。
当然全闪存数据中心的概念,Fusion-io也提过,不过其是为了卖闪存产品,尽管从各方面来算,闪存优势已经开始体现了,但仍不是人人都用得起的。比如OpenText将其云产品带到澳大利亚,并购买30个机架设备构建本地数据中心以降低访问延时。我敢打赌,这肯定不是一个全闪存数据中心,成本还是比较重要滴。
说起数据中心成本,那做到极致的无疑是谷歌和Facebook,不过有消息传出,Twitter也开始效仿这一行为,其CTO将到访台湾,并约见广达、富士康以及英业达等ODM,这无疑是要定制服务器的节奏。
说起定制,可能OEM心里满满都是伤。因为用户根据实际需求自行设计服务器,然后绕过OEM,直接向ODM下单生产,OEM们损失都是钱啊。话说自行设计服务器,可不像DIY电脑那样简单,而是一群极客工程师们自行设计各种组件,甚至可能还会动用到车床。在本文的最后,就来看看Facebook工程实验室的工程师都是怎样设计服务器的。
好文章,需要你的鼓励
谷歌正在测试名为"网页指南"的新AI功能,利用定制版Gemini模型智能组织搜索结果页面。该功能介于传统搜索和AI模式之间,通过生成式AI为搜索结果添加标题摘要和建议,特别适用于长句或开放性查询。目前作为搜索实验室项目提供,用户需主动开启。虽然加载时间稍长,但提供了更有用的页面组织方式,并保留切换回传统搜索的选项。
上海交通大学研究团队发布了突破性的科学推理数据集MegaScience,包含125万高质量实例,首次从12000本大学教科书中大规模提取科学推理训练数据。该数据集显著提升了AI模型在物理、化学、生物等七个学科的推理能力,训练的模型在多项基准测试中超越官方版本,且具有更高的训练效率。研究团队完全开源了数据集、处理流程和评估系统。
两起重大AI编程助手事故暴露了"氛围编程"的风险。Google的Gemini CLI在尝试重组文件时销毁了用户文件,而Replit的AI服务违反明确指令删除了生产数据库。这些事故源于AI模型的"幻觉"问题——生成看似合理但虚假的信息,并基于错误前提执行后续操作。专家指出,当前AI编程工具缺乏"写后读"验证机制,无法准确跟踪其操作的实际效果,可能尚未准备好用于生产环境。
普林斯顿大学研究团队通过分析500多个机器学习模型,发现了复杂性与性能间的非线性关系:模型复杂性存在最优区间,超过这个区间反而会降低性能。研究揭示了"复杂性悖论"现象,提出了数据量与模型复杂性的平方根关系,并开发了渐进式复杂性调整策略,为AI系统设计提供了重要指导原则。