オープンネットワーキング・ソリューションの世界的リーダーであるIP Infusion(本社:米国カリフォルニア州、最高経営責任者:大石 清恭)は、本日、人工知能(AI)と機械学習(ML)のワークロードに関する厳しい要件に対応することを目的として設計された、業界で最も広く導入されているディスアグリゲーション(ハードウェアとソフトウェアの機能分離)型ネットワークソフトウェア「OcNOS® Data Center(OcNOS-DC)」の最新版「OcNOS-DC 6.6.1」を発売したことを発表いたします。「OcNOS-DC 6.6.1」は、Broadcom製チップセット「Tomahawk 5」上で動作するように設計されており、スイッチング容量51.2TbpsのONIE対応ホワイトボックス・スイッチであるEdgecore Networks(Edgecore)製「AS9817-64D」およびUfiSpace製「S9321-64E」上で、パフォーマンスに優れた低レイテンシー(遅延時間)のEthernetベースのAI/MLデータセンターファブリックを実現します。
AI/MLトレーニングクラスターの規模が飛躍的に拡大する中、従来のネットワークソリューションでは、分散型GPUワークロードの集中的なEast-Westトラフィックパターンや、厳しいレイテンシーやパケット損失といった要件に対処するのが難しい状況となっています。「OcNOS-DC 6.6.1」は、レイヤ3におけるプライオリティベースのフロー制御(PFC)、拡張伝送選択(ETS)、データセンターブリッジング機能交換プロトコル(DCBX)、動的ロードバランシング(DLB)等の高度な機能により、こうした課題に対処します。また、これらの高度な機能は、AI主導のネットワークに不可欠な高スループットでロスレスな接続性を提供するために、統合的に機能します。
「OcNOS-DC 6.6.1」は、リアルタイムのgNMIテレメトリをエクスポートすることで、Kubernetesを活用したAIワークロードのオーケストレーションを強化し、ネットワークパスが過負荷になった際のジョブの動的な割り当てと再割り当てを可能にします。また、Ansibleとの統合により、ロスレスキューの予約、優先順位からトラフィッククラスへのマッピング(priority-to-traffic-class mapping)、ジョブ固有のリンクでの動的ロードバランシングの有効化がさらに自動化され、GPUサーバーラックのパフォーマンスが最適化されます。
さらに「OcNOS-DC 6.6.1」は、ディスアグリゲーション・オープンネットワーキングを活用することで、コスト効率に優れた拡張性、柔軟なオプティクスの選択、競争入札とコンポーネント・レベルの価格追跡による機動的なデータセンター構築を実現します。
IP Infusion 最高経営責任者(CEO)大石 清恭は、
「『OcNOSデータセンター』は、AI/MLネットワーキングの新たな基準を打ち立て、次世代データセンター向けに比類ない性能と拡張性を提供します。HYPER SCALERSをはじめとするお客様は、Broadcom製チップセット『Tomahawk 5』と当社の高度なソフトウェア機能を組み合わせることで、GPUを多用するAIワークロードの厳しい要件に応えられる、俊敏でコスト効率に優れたネットワークを構築できるようになります」と述べています。
HYPER SCALERS創業者 兼 CEO George Cvetanovski氏は、 「IP Infusionと提携して『OcNOS-DC 6.6.1』を導入したことで、高性能なGPUベースのサービスを提供する能力が飛躍的に向上しました。AIに最適化された機能、シームレスなオーケストレーションの統合、ディスアグリゲーション型アーキテクチャにより、お客様がAI/MLワークロードにおいて必要とする低レイテンシーのロスレス接続を確保しながら、効率的に拡張することができるようになりました」と述べています。
提供状況