今天首先聊聊网络方面的趣闻,MWC2014举办,展示了很多让人叹为观止的物联网(Internet of Things)新技术。
当然物联网已经不是一个新鲜的话题了,老早之前就在不断地各种“炒”,一些产品也陆续问世,例如可穿戴设备、智能电器以及家庭监控等等。也就是说,只要你能使用的设备几乎都可以连接到互联网。用一个词来形容就是“万物互联”。
这不是我杜撰的,思科CEO钱伯斯在MWC上就引用了这句话。并称,现在已经有100亿的设备连接到互联网,而到2020年,这个数字将增加到5000亿。真的是万物互联了,在现场的展示中,连纸、玻璃都可以连接到以太网,甚至人体直接可以充当线路。真让人憧憬了,好基友要传个电影啥的,摸摸手就行了,什么蓝牙、WiFi都弱爆了。
但是,网络厂商们做好准备了么?这么多设备接入互联网,每时每刻的数据传输量肯定大得惊人,链路结构也将会非常复杂,至少传统的网络技术有点心有余而力不足。在《数据中心2013:硬件重构与软件定义》中分析了一些传统网络技术的弊端。从目前看来,SDN在管理大量网络设备、网络链路的时候具有很不错的效果,至少谷歌这么干了。
除了同时作为用户和并自己打造SDN设备的谷歌之外,网络设备厂商们也在继续推进SDN。在本周的Open Networking Summit(开放网络峰会)上,博科(Brocade)、博通(Broadcom)和飞思卡尔(Freescale)唱响“三重奏”,宣布其全线产品将支持OpenFlow 1.3标准,以符合未来SDN发展的需求。ONF(Open Networking Foundation,开放网络基金会)是SDN概念和OpenFlow标准的主要推动者,其宣布以后的发展将以OpenFlow 1.3作为基准,因为OpenFlow 1.2需求硬件变动,它将流表数量大为增加,一些早期的OpenFlow 1.0、1.1设备很可能无法扩展到1.2乃至1.3,因此将无法适应OpenFlow的继续演化。
也是因为这个原因,包括Brocade在内的很多厂商甚至跳过了OpenFlow 1.1以及1.2,实际上,它们直接跳到了OpenFlow 1.3版本,我们将会在今年Q2、Q3看到大量的OpenFlow 1.3产品。OpenFlow 1.3在2012年末发布,其主要新增特性包括IPv6、QoS、组表、冗余控制器以及Q-in-Q。
再来说说存储方面的事儿,英特尔最近发布了面向高玩及专业级市场的SSD产品——730系列。绝对是亲生,据好事者称,这款脱胎于英特尔数据中心级产品的SSD,连PCB都与DC S3500神似。并且其实测的连续写性能居然比官方公布的数字还高,这只能说英特尔实在太“实诚”了。
在年前英特尔就解释了其SSD三大战略,除消费级产品(如520、330)会与其他厂商合作外,专业级和数据中心级SSD产品基本都会采用英特尔自家的技术。730系列很好地体现了这一战略——全部采用英特尔自家的技术,除了两颗512MB、用作缓存的Micron产DRAM。至于英特尔与Micron这对好基友…你懂的!
英特尔在闪存行业积累了足够多的优势,但态度一直暧昧,且对手追得很紧。按照某业内人士的“戏言”:英特尔除了x86,其他的都不重要。尽管英特尔一直在正式场合重申闪存战略,但单一个730也许还不足以消除“误解”,后续面向数据中心市场的SSD产品或许更能体现英特尔的决心。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。