如果要用一句话来对过去的 2019 年进行概括的话,我想借用狄更斯《双城记》中的一句话:“这是一个最好的时代,也是一个最坏的时代;这是一个智慧的年代,这是一个愚蠢的年代;这是一个信任的时期,这是一个怀疑的时期。”
好,云计算、大数据、人工智能、区块链和 5G 这些技术相继开始成熟落地,未来企业数字化转型应用前景无限;
坏,技术的发展方向出现迷茫,资本的大潮开始落下,裸泳者已经显现;
智慧,有更多的人工智能、大数据分析技术在被企业进行运用;
愚蠢,人工智能是否会引发大规模失业还无法确认,但是盲目进行人工智能扩张者首先要面对是否会失业的问题;
在信任就可以获取金钱的时候,有人肆意滥用信任,当信任变成怀疑后,才发现本身一无所有。企业宣传就靠一张 PPT,真与假无法进行判断。
在2019年,SAP严重漏洞使5万家企业关键业务易受网络攻击、Azure云宕机3个小时破坏了全球各地由微软托管的各种系统、起亚发现一个软件错误宣布召回11423辆2019款Optima轿车,还有每次升级都会导致一群用户不是数据丢失就是系统故障的Windows 10……。
那么,在 2020 年如何才能去伪存真,让真正好的企业在市场中发展壮大,好的产品进入用户的眼帘呢?从作者长期进行产品评测的角度来看,就是通过第三方测试,来对企业产品进行公开的展示。
这里所说的第三方,不是随便雇佣一批水军,铺天盖地的去进行一味的追捧。而是要言之有物的从“产品”、“技术”、“质量”、“服务”这些维度,真实的去对企业、对产品过行评估。
“产品”、“技术”、“质量”、“服务”,这几个词作者已经提了至少 5、6 年了,还记得第一次和一个国外著名网络厂商提这个东西时候的明确拒绝——“我们可以和你谈产品、谈技术,但不会谈质量与服务,因为我们的名字就带表者我们的质量与服务”。
在和其他国内外厂商进行接触的时候,也是差不多的情况,产品的功能测试可以做,技术的性能评测也 OK,服务的流程体系评估有些也没什么问题。但是,如何对产品的质量进行评估,却始终是一个大问题。
如果作者找的都是一些不注重产品质量的企业,这个情况完全有情可原。但事实并非如此,通过一系列的产品测试接触,完全可以了解,这些都是将产品质量看做生命的企业。但是为什么不愿意对自身产品质量进行宣传呢?
随着对生产企业了解的逐步深入,作者才意识到,质量是什么,是产品生产加工的严格规范,那是企业的命根子。让企业展示质量控制流程,就好像找大宅门里的白七爷要同仁堂的药方子,那是在要命!还好我找的那些厂商都比较好说话,最多是不理睬我,作者才能有机会在这里继续码字……
因此,现在的现实情况就是,质量这个东西,有的不能讲,没有的可以瞎讲。好坏无从评判,谁的声音大就听谁的,略币驱逐良币这套东西就这么发展起来了。
怎么既能展示企业的产品质量,又能让企业把“药方”留住?19 年参加 iTestin 的一个测试工具产品发布,给予作者了极大的启示。iTestin 发布的是一个人工智能的软件测试工具。这个工具可以根据语音或文字直接生成功能测试脚本,对软件功能进行测试。当然了,人工智能虽然是作者关注的新技术点,但给作者启示的不是人工智能,而是功能测试。
功能测试,谁都可以做,在产品展示中,少不了对产品功能进行评测,可以说是测试中基础的基础。但是对产品的所有功能进行测试,这就不是某个人或某个评测机构可以轻易完成的事情了。如此全面的测试做完,基本上产品的“药方”也就誊写出来了。这件事只能是企业自己做,就算第三方有这个能力去干,生产企业肯定也不敢答应。
怎么办?换个角度看问题,讲一个测试的小故事,大家一听也许就明白了。有一个研发和一个测试是一对冤家(貌似研发和测试从来都是冤家……),一天测试又和研发说,你开发的代码有bug。研发立马就和测试急了,说你到底会不会用,差点就打起来。领导来调解,说测试的说话方式不对,应该告诉研发程序在运行的时候CPU、内存占用急升,数据读取频繁但长时间没有响应这些情况,研发自然就会去找他的bug去了。
从中作者明白一个道理,功能测试不能简单看一下开发出来的功能 work 不 work。需要通过一些关键指标,来对功能进行一下全面的评估。对于测试工作而言,确实会多费一些手脚,但是可能帮助研发更好的对问题进行定位。
而这个道理对作者的启发就是,在做第三方质量评测的时候,也同样不需要对每项功能进行逐一的进行展示。只需要找到关键性的应用性能指标,对关键功能进行评估就可以了。对于重视质量的企业而言,展示的只是测试项目的数量,和关键功能的性能指标,触碰不到他们的核心“药方”,又可以客观公正的对企业产品质量进行展示,何乐而不为?
再举一个实际的例子,可能会更直观一些。19 年有一个叫易观的数据库厂商推出一个大数据分析产品,并为此开了几次发布会,我有幸都去参与了。每次我都会问一个同样的问题,产品需要耗用的计算资源有多少,年初时给我的答案是 16 核 64G。嗯,不错,但是上下够不着。用得起这个配置的企业,未必会用易观的产品,想用易观产品的,可能又没有那么高的硬件配置。年底时,他们家又有发布会,处理性能不变,产品应用配置降低到 8 核 16G,数据量小一些的话,一个笔记本就可以跑起来。得到这个消息后,第一个反映就是,他们家确实是在踏踏实实的做事情,第二个想到的是,看来在2020年可以找机会一起搞一下了。
2019年的公有云测试也是一样,单独看某项测试指标,看不出什么问题,加上系统资源占用,好坏就全出来了。
所以说,未来评估一套系统的好坏,不是看写了多少万行的代码,而是看有多少功能模块,每个模块的资源占用和响应时间等应用指标,用它们来做评估,应该更能说明问题。以前看到欧洲已经有测试工具可以根据软件接口对系统进行功能性判定,自动判断有哪些功能模块,并且根据这些功能模块的连接路径,对软件架构和安全性进行分析。这种测试手段,个人感觉还是值得去大力推广一下的。如果,这种测试工具能进一步和APM产品相结合就更好了。应该会令软件企业的代码质量提升到一个新的阶段。
因此,在2020年,作者的主要工作就会是用质量来向广大用户展示出企业产品的真正价值。当然,随着数字化转型、智能智造技术的发展,需要用质量进行展示的也不会局限于IT这个行业,在2019年作者在朋友圈里也立了一个flog,在2020年,看来也会向前再迈一步了。
希望在 2020 年,也可以让我向鉴人的目标再前进一步。
好文章,需要你的鼓励
本文探讨了利用人工智能构建去中心化互联网的可能性与挑战,强调理解背后哲学思想的重要性。文章引用 Abhishek Singh 的演讲,讨论了隐私、验证、激励、编排和用户体验的难题,并介绍了 NANDA(Networked Agents and Decentralized AI)的概念,认为去中心化模式将释放数据和计算资源,推动创新,实现科技普惠。
OpenAI CEO Sam Altman 描绘了订阅式 AI 平台的愿景,计划整合 SDK、API 及“界面”,通过不断迭代打造能整合个人全生活数据的智能模型,释放巨大财富潜力。
Zerve AI Ltd. 推出一款多代理系统,将 AI 代理从代码助手升级为全流程协作者,覆盖规划、基础设施部署、构建与发布,并内置分布式计算引擎及 App Builder,加速企业级 AI 产品开发。
文章基于九国3700余位IT决策者调研数据,揭示企业在生成式AI应用过程中在预算分配、领导任命、人才培养及变革管理等方面的趋势与挑战。