如今,IT分析领域只有一个核心议题——大语言模型(LLM)机器学习和生成式AI(GAI)。去年11月底发布的ChatGPT聊天机器人在全球范围内引发巨大关注,一周内用户量突破100万;谷歌Bard和亚马逊Titan等类似的基础模型也同样掀起热潮。
此类生成式AI能够理解文本提示并输出有效答案,在被引入商业和公共部门的IT领域之后,这项技术有望从根本上提高搜索和分析质量。AI的普遍应用有望在未来十年内取代并/或提高各类知识工作者的生产力,包括客服中心、内部销售人员、会计师、律师和金融分析师。
生成式AI热度的快速升温将对IT行业产生影响,Forrester、Gartner等分析师和研究机构也在预测后续冲击。部分数据存储行业将凭借生成式AI获取巨大的潜在销售收益,本文将尝试对此做出分类。
William Blair发布的126页《生成式AI:自动化的新前沿》报告提供了大量信息。
硬件
DRAM – 运行大语言模型训练和推理的CPU/GPU服务器将迎来强劲需求,其中包括用于GPU的高带宽内存HBM。
PCIe – PCIe 4和5.0组件供应商应该为需求激增做好准备。
CXL – CXL 2.0内存池也将从大语言模型的火热中得到一剂强心针,包括CXL硬件供应商。因此,三星、SK海力士等DRAM扩展器、CXL交换机和其他组件厂商都将获得收益。
NAND与SSD – 需求必然越来越多,主要集中在NVMe、PCIe 4.0和5.0连接以及性能与容量的组合。因此QLC和高层数TLC NAND也将因此受益。所有NAND晶圆厂和SSD供应商都应关注这方面市场。
存储阵列 – 市场需要高容量和高速IO。AI/机器学习集群将需要PB级别的容量。大语言模型训练的运行需要配合高速数据集读取和检查点写入,这种并行访问必然依赖于硬件和软件。大语言模型的推理运行需要高读取访问率,以及到处理器的并行数据传输路径。
考虑到现实需求,这波热潮可能主要有利于使用NVMe协议和支持英伟达GPU服务器GPUDirect的文件访问全闪存阵列。DDN、NetApp、Pure Storage(AIRI)和VAST Data等供应商已经做好了战斗准备。Panasas也不会错过边缘位置的AI业务机会。相比之下,对象存储和块存储厂商的想象空间似乎就相对有限。
我们认为,尚不支持GPUDIrect的供应商应该抓紧补上这块短板。
软件
以CXL为重点的软件 – MemVerge和Unifabrix等供应商应该会迎来一波持续性的业务高潮。
数据分析 – 供应商需要抓紧时间引入大语言模型前端。
数据库、数据仓库和智能湖仓 – 供应商必须能够支持大语言模型所需要的向量嵌入。目前,为用户提供聊天机器人前端的需求已经非常强烈,这将使得非数据科学家和非资深SQL用户也能运行复杂分析。这些厂商还有机会将新成果引入ETL(提取、转换和加载)流程,将选定的数据快速输出至大语言模型以进行训练和推理。
数据管理工具 – 可以应用大语言模型技术分析自己的数据集,并为AI流程提供数据以扩大业务规模。
高速阵列 – 供应商可以将自己的软件移植到运行生成式AI模型的公有云,借此支持以本地/公有云混合的方式运行大语言模型的客户。
横向扩展并行文件系统 – IBM(Storage Scale)和WEKA等供应商在这方面处于有利地位,其现有客户正在应用生成式AI技术,新客户则迫切需要快速、大容量的文件访问软件。这部分业务空间同样相当可观。
间接受益方和不受影响方
云文件服务供应商 – 这类厂商可以使用云端存储的数据集为大语言模型提供数据,但数据需要从底层对象库转移至更快的访问存储介质;换言之,类似于某种形式的ETL。但也不排除AWS、Azure和谷歌等云服务商会提供类似于GPUDirect的方式,将数据从S3/Azure Blob等直接传递至GPU实例。
数据编排工具 – 这类厂商可以帮助客户编排大语言模型所需要的数据,借此获取间接收益。
数据保护与安全 – 供应商需要关注适用于管理设施的聊天机器人界面,借此更好地保护数据集并发现漏洞。特定领域的聊天机器人可以检查组织的攻击并确定相应保护措施。数据保护备份数据集则可以为大语言模型提供给定的ETL过程。
磁盘驱动器阵列 – 这类产品速度太慢,只要作为主存储闪存之外的次级存储形式。
生命周期管理工具 – 这类厂商需要研究聊天机器人界面如何帮助用户提高工作效率。
安全供应商 – 聊天机器人和其他AI技术的发展成熟,将帮助这类厂商高效检测、响应恶意软件和处理用户交互。
软件定义存储 – 这类厂商有可能被生成式AI的浪潮甩在身后,必须找到某种方法满足高性能访问需求才有可能分得额外业务空间。
存储管理员 – 聊天机器人能够提高他们的工作效率,或者由技术水平较低的员工完成原本对技能要求较高的工作。
磁带系统 – 这类归档系统速度过慢,无法与大语言模型提供数据,但在市场上仍有生存空间。
Web3 – 此类存储速度太慢,在大语言模型的世界中没有任何发挥余地。