NVMe 是一种专为基于闪存的存储设计的存储协议. 它基于 PCIe 标准, 为每个 IO 队列和更多 IO 队列提供更多命令. NVMe over Fabrics(NVMe-F)扩展为 IP 和光纤通道 (FC) 网络提供了利用 NVMe 的更高指令数和队列深度, 以充分利用基于内存的存储的能力. NVMe-F 将首先用于创建更具可扩展性的存储架构, 但最终它将会进入服务器和交换机, 构建端到端 NVMe 架构.
为什么选择端到端的 NVMe?
对于需要极高性能和非常低延迟的工作负载, 存储关键设计决策之一是物理存储的位置. 如果 IT 规划人员决定采用共享存储架构, 则环境将获得共享存储的所有优势, 如数据保护, 更高的可用性, 容量效率, 规模. 但是, 共享存储环境会引入延迟, 尤其是与运行工作负载的服务器内部的存储相比时. 如果 IT 规划人员选择内部服务器存储, 则可以消除延迟问题, 特别是在基于 NVMe 的存储方面, 但是它在尝试提供共享存储系统内置的功能时引入了复杂性.
NVMe-F 使存储网络能够提供与内部存储非常相似的性能和延迟. 因此, IT 规划人员可以拥有两全其美的世界, 非常快速, 低延迟的存储, 具有所有数据保护功能, 数据效率和高可用性特性, 而共享存储已知.
端到端的 NVMe 要求
端到端 NVMe 需要多个组件. 首先, 它需要一个不仅具有内部 NVMe 连接的存储系统, 这种连接正在变得越来越普遍, 而且还需要外部 NVMe 连接, 而大多数存储系统尚不具备这些连接.
其次, 网络交换机, 无论是基于光纤通道还是基于 IP, 都将需要支持 NVMe, 而两家主要的 FC 存储基础设施提供商现在正在提供这种支持. 任何支持 RDMA 的 IP 以太网交换机都将支持 NVMe. 从 IT 角度来看, 确保交换机基础设施同时支持 NVMe 和传统 SCSI(或 iSCSI)协议非常重要, 因为大多数环境不会一次切换到 NVMe-F.
第三, 要通过 NVMe 连接到存储系统的服务器需要具有支持 NVMe 的网卡. 再次, 在 IP 实例中, 大多数融合网络适配器 (CNA) 如今都具备这种能力. NVMeReadyFC 适配器可能需要固件更新, 但该固件现在也可用.
最后, 一旦所有这些要求都得到满足, IT 规划人员就需要创建一条 NVMe-F 唯一路径, 从 NVMe 服务器通过交换机到存储. 在相同的逻辑网络路径上混用 SCSI 和 NVMe-F 可能会强制网络处理所有 SCSI 的流量, 这会影响性能. 实际上, 网络可能要求 NVMe 流量位于其自己的逻辑路径上.
结论
现实情况是, 大多数数据中心几年来不需要端到端的 NVMe. 工作量和设计实践需要赶上架构的能力, 而不是相反. 端到端的 NVMe 体系结构将使数据中心能够重新思考他们推进虚拟化和集装箱化环境的程度, 以及他们面向事务的数据库的可扩展性.
CPU 处理能力一直领先于网络和存储系统提供信息的能力. NVMe 让双方都能够迎头赶上, IT 规划人员可以期望让他们的 CPU 比以往更加努力工作. NVMe 现在与基于 NVMe 的存储系统以及未来的端到端 NVMe 将降低 IT 成本, 因为该组织最终将有能力最大化其 CPU 投资.
来源: http://stor.51cto.com/art/201804/570127.htm