InfiniBand(いんふぃにばんど)
最終更新:2026/4/27
InfiniBandは、高性能なコンピュータネットワーク技術であり、主にデータセンターやスーパーコンピュータで使用される。
別名・同義語 IB高速インターコネクト
ポイント
InfiniBandは、低遅延かつ高帯域幅を実現することで、大規模なデータ処理や科学技術計算を高速化する。
概要
InfiniBandは、Intelが主導するInfiniBand Trade Associationによって開発されたネットワーク技術です。従来のEthernetと比較して、CPUへの負荷が少なく、高いスループットと低いレイテンシを実現します。これにより、大規模なデータセンターや高性能計算(HPC)環境において、アプリケーションのパフォーマンスを大幅に向上させることが可能です。
歴史
1999年にInfiniBand Trade Associationが設立され、InfiniBandの仕様策定が開始されました。当初は、サーバー間の相互接続を目的としていましたが、その後、ストレージネットワークやGPUクラスタなど、幅広い分野での利用が拡大しました。2000年代後半には、データセンターの普及とともに、InfiniBandの採用が増加し、現在では、主要なデータセンターネットワーク技術の一つとなっています。
技術的特徴
InfiniBandは、以下の技術的特徴を備えています。
- RDMA (Remote Direct Memory Access): CPUを介さずに、ネットワーク上のノード間で直接メモリにアクセスできるため、CPU負荷を軽減し、レイテンシを低減します。
- スイッチングファブリック: 複数のノードを接続するスイッチングファブリックを採用することで、高いスケーラビリティと柔軟性を実現します。
- Quality of Service (QoS): トラフィックの優先度制御により、重要なアプリケーションのパフォーマンスを保証します。
- 高帯域幅: 100Gbps、200Gbps、400Gbpsといった高速なデータ転送速度をサポートします。
用途
InfiniBandは、主に以下の用途で使用されます。
- データセンター: 大規模なデータセンターにおいて、サーバー間の高速なデータ転送を実現します。
- 高性能計算 (HPC): スーパーコンピュータや科学技術計算において、計算ノード間の高速なデータ交換を可能にします。
- ストレージネットワーク: ストレージサーバーと計算サーバー間の高速なデータ転送を実現します。
- GPUクラスタ: 複数のGPUを接続し、並列処理を行うGPUクラスタにおいて、GPU間の高速なデータ通信を可能にします。