在文章撰写的时候,iBIG Stor的移动客户端App最新版本标称为3.1.1,不过下不到,下面是下载二维码(或使用网址www.ibigstor.cn):
我们测试时使用的是能下到的最新的版本:3.0.8,在使用之前,首先是使用安装了iBIG OS管理App的设备连接到iBIG Stor/Lite,下图是上一篇文章中的链接界面:
老版iBS,注意显示的速率:72Mbps,这是一个802.11n的WiFi AP,20MHz频宽、Short GI设置
但是,新版iBSL本有些不同:
新版iBSL,65Mbps,802.11n WiFi,20MHz频宽、Long GI设置
我确信这是一个Firmware上的设置问题,Long GI/Shor GI中的GI(Guard Interval)指的是WiFi无线通信中等待标志帧的时间,Long GI为800ns,Short GI为400ns,反映到吞吐量上,Long GI只能达到65Mbps,Short GI可以达到72Mbps(确切数字是72.2Mbps)。Short GI是802.11n规范新增加的内容,当然802.11n规范本身已经非常老了。
目前,iBSL最新Firmware是IBSL-0.1.03
连接后最优先的一件事是:升级,测试时,固件的最新版本是IBSL-0.1.03,但就在发布时,最新的IBSL-1.0.00出现了。
总的来说,设置上出现了些小问题,不过和上一代相比,问题不算太大,基本流程上它们没有太大变化,iBIG Stor自带路由器的架构也没有改动:手机可以先连接到iBIG Stor/Lite,然后通过iBIG Stor/Lite再连接到外网,只是,新的iBIG Stor Lite的LAN侧网段从iBIG Stor的192.168.220.x地址段变成了192.168.222.x。
好文章,需要你的鼓励
新加坡国立大学研究人员开发出名为AiSee的可穿戴辅助设备,利用Meta的Llama模型帮助视障人士"看见"周围世界。该设备采用耳机形态,配备摄像头作为AI伴侣处理视觉信息。通过集成大语言模型,设备从简单物体识别升级为对话助手,用户可进行追问。设备运行代理AI框架,使用量化技术将Llama模型压缩至10-30亿参数在安卓设备上高效运行,支持离线处理敏感文档,保护用户隐私。
阿里达摩院联合浙江大学推出VideoRefer套件,这是首个能够精确理解视频中特定物体的AI系统。该系统不仅能识别整体场景,更能针对用户指定的任何物体进行详细分析和跨时间追踪。研究团队构建了包含70万样本的高质量数据集VideoRefer-700K,并设计了全面的评估体系VideoRefer-Bench。实验显示该技术在专业视频理解任务中显著超越现有方法,在安防监控、自动驾驶、视频编辑等领域具有广阔应用前景。
OpenAI推出新AI模型GPT-5-Codex,能够在无用户协助下完成数小时的编程任务。该模型是GPT-5的改进版本,使用额外编码数据训练。测试显示,GPT-5-Codex可独立工作超过7小时,能自动发现并修复编码错误。在重构基准测试中得分51.3%,比GPT高出17%以上。模型可根据任务难度调整处理时间,简单请求处理速度显著提升。目前已在ChatGPT付费计划中提供。
Sa2VA是由UC默塞德等高校联合开发的突破性AI系统,首次实现图像视频的统一理解与精确分割。通过巧妙融合SAM-2视频分割技术和LLaVA多模态对话能力,Sa2VA能够同时进行自然对话和像素级物体标注。研究团队还构建了包含7万多个复杂视频表达式的Ref-SAV数据集,显著提升了AI在长文本描述和复杂场景下的表现。实验显示,Sa2VA在多个基准测试中达到业界领先水平,为视频编辑、医疗诊断、智能监控等领域带来新的应用可能性。