メディア

10GbEが抱える課題と将来展望普及の鍵はICのコストと消費電力(1/2 ページ)

半導体ICの低価格化や低消費電力化に伴い、高速通信規格である10GbE(10Gigabit Ethernet)に対応した製品が数多く登場しつつある。しかし、これらの製品の需要が本格的に立ち上がるまでには、少なくともあと2年ほどの期間を要すると見られている。本稿では、10GbEの本格普及に向けての現状の課題や今後の展望などについて俯瞰する。

» 2008年09月01日 00時00分 公開
[Ann R Thryft,EDN]

10GbEが抱える課題

 伝送速度が10ギガビット/秒の高速通信を実現する次世代イーサーネットとして、数年前から10Gigabit Ethernet(10GbE)の普及は期待されていた。すでに一部のネットワークには光技術が採用されており、トラフィックの増大に伴って10GbEによる高速データ伝送技術に対する需要が高まってきている。しかし、光技術ではなく、銅ケーブルによって10GbEを実現するには、既存のイーサーネット技術と比較してかなり複雑な技術が必要となる。その結果、MAC(media access controller)やスイッチに使用されるICは高価になり、物理層(PHY)インターフェースICもコストが高く不便なものとなる。そのため、この高速LANの使用は、データセンター内などにおける短距離間での高性能アプリケーションに限られているのが現状である。こうした状況は変化しつつあるが、それでも10GbEが広く普及するためには少なくともあと2年はかかると見られている(図1)。


図1 10GbEのポート換算出荷数の推移 図1 10GbEのポート換算出荷数の推移 2007年の約64万個から、2012年には1500万個にまで増加すると見られている(提供:Dell'Oro Group社)。

 IEEEは2006年6月、銅ケーブル(伝送距離は最大100m)によって10GbEを実現するための規格としてIEEE P802.3an(10GBASE-T)を策定した。現在では、同規格に準拠したスイッチやコントローラICなどの製品が提供されているが、物理層ICと同様にこれらのチップも高価であり、消費電力が多過ぎることが課題だ。10GBASE-T対応の物理層ICにおいては、この問題が特に深刻である。

 市販の装置に使用するためには、スイッチやNIC(network interface controller)などのICにおいて、ポート当たりの消費電力は5W未満でなければならない。米Dell'Oro Group社のシニアアナリストであるAlan Weckel氏は、「こうしたICの多くは大量の電力を消費する。現在、10GBASE-Tの物理層ICのほとんどは、1ポート当たり8W〜10Wの電力を消費する。これとは対照的に、光(トランシーバ)モジュールの消費電力は1W未満だ」と指摘する。

 ポート当たりの価格は低下傾向にあるが、コンポーネントの価格が下がるだけでは需要の拡大にはつながらない。米国の調査会社The Linley Group社でシニアアナリストを務めるJag Bolaria氏は、「生産量が拡大するまでには、少なくとも数年を要するだろう」と述べる。光ファイバのコストは低下してきており、「さらに、10GBASE-Tが立ち上がれば、10GbEは飛躍的に普及する可能性がある」(同氏)という。

高まる高速伝送へのニーズ

 アナリストらは、10GbE技術は今後4〜5年で急速に普及すると予測している。その理由の1つとして、サーバーの性能向上や仮想化技術の適用などの要因(別掲記事『仮想化と10GbE』を参照)により、莫大な帯域幅が要求されていることが挙げられる。10GBASE-Tでは、最大100mの伝送距離を実現するために、シールドなしのカテゴリ6A、またはシールドありのカテゴリ7のケーブルが必要となる。これらの銅ケーブルは、光ファイバよりも低コストかつ容易に敷設することができるので、10GBASE-Tを採用した銅ケーブルでの10GbEへの期待が高まってきている。長距離ネットワークにおいては、今後も光ファイバの使用が主流になると見られるが、企業やデータセンターなどの短距離ネットワークにおいては、銅ケーブルでのより安価なネットワーク構築が求められていくと考えられる。

 Dell'Oro Group社は、「今後5年のうちに、2つの主要な分野において1Gigabit Ethernet(1GbE)の代わりに10GbEが使用されるようになり、それによってポート数が飛躍的に増加するだろう」と予測している。その1つが配線クローゼットのスイッチのアップリンクである。ほとんどの10GbE固定ポートは24および48ポートの1GbEスイッチのアップリンクに用いられ、残りの10GbEポートは最上層でアグリゲーション(複数の回線の集約)の役割を担う10GbEのみのスイッチに用いられると見られる。そして、もう1つの応用分野としては、サーバーの接続が考えられるという。

 現在、銅ケーブルは主にスイッチとパソコン、あるいはスイッチとサーバーを接続するのに使用されている。「現時点で光が用いられている配線クローゼットのスイッチからデータセンターへのアップリンクは光接続のままとなる見込みだ。その生産量も飛躍的に増大する可能性が高い」(Weckel氏)という。企業は配線クローゼットの大改造を行っており、スイッチ関連製品の市場も拡大している。1GbEにおけるスイッチ間の接続には光ファイバが使用されているが、これは10GbEにおいても変わらないと見られる。一方、サーバーへの接続には銅ケーブルが使用されているが、高速ネットワークにおいても引き続き銅ケーブルが使用されるとの予測がなされている。

 1GbEのポート数が増加するに連れて、これらのポートのアグリゲーションを行うために10GbE技術を使用することが必要になってくる。10GbEを使用しなければ、アップリンクの帯域幅がダウンストリームのポートの帯域幅より小さくなり、ブロッキングが生じてしまうことになる。米Teranetics社でマーケティング担当バイスプレジデントを務めるKamal Dalmia氏は、「1GbEの製品はポート当たり約100米ドルで提供されている。10GBASE-Tのスイッチが発売されるようになれば、価格はポート当たり約500米ドル程度になる見込みで、ギガビット当たりのコストは1GbEスイッチのおよそ半分(約50米ドル)になる」としている。10GbEの普及を促すもう1つの主な要因は、データセンター内の高性能演算ブレードサーバーを、その処理速度に見合った帯域幅で接続したいという要求である。これらのサーバーは8個もしくは16個のプロセッサを搭載しており、それぞれのプロセッサには4個もしくは8個のコアが搭載されるケースが増えてきている。こうした背景から、消費電力の要件が厳しくなり、高速伝送への需要が高まりつつある。

 The Linley Group社のBolaria氏は、「消費電力や技術的要件の問題以外にも、ポートを実装する上で10GbEの普及を妨げている要因がある」と指摘する。「10GbEポート1個を実装するコストが高過ぎるならば、2〜4個の1GbEポートを組み合わせてリンクアグリゲーションを行う方法が考えられる。しかし、組み合わせるポート数が増えると、実装にかかるコストが増大し、作業も複雑になる」(同氏)という。

仮想化と10GbE

図A 1000BASE-Tと10GBASE-Tにおける遅延の比較 図A 1000BASE-Tと10GBASE-Tにおける遅延の比較 10GBASE-Tでは、1000BASE-Tよりも高速にパケットを伝送することが可能である(提供:Teranetics社)。

 10GbEの普及が遅れている理由の1つは、ネットワーク端末機器からの要求が存在しないことである。仮想化が登場する前は、サーバーには1ギガビット/秒の接続が数本程度あればよく、サーバーの使用率も100%ではなかった。Dell'Oro Group社のシニアアナリストであるAlan Weckel氏は、「仮想化によってサーバーの使用率は上昇し、スループットも増大している。今では10ギガビット/秒の接続への要求も高まってきているが、コストが障害となっている」と述べる。

 コンピュータ間のネットワーク接続が増加するに連れて、データセンターへの依存度が高まり、それにより仮想化への移行が加速している。Fulcrum社のNunn氏は、「今日ではウェブベースのストレージなど、あらゆるコンピュータ機器が使用されている。しかし、データセンター全体に共通する広帯域幅の接続技術がなければ、仮想化データセンターという目標を達成することはできない」と語る。そして、それを実現するのが10GbEだと言える。

 ストレージ、サーバー、スイッチのクラスタリングが増加していることも仮想化への移行を促進している。ただし、ここでは遅延が重要な問題となっている。Teranetics社のDalmia氏は、「ユーザーからは1台のサーバーであるかのように見える必要があるが、サーバーの応答が遅ければそうは見えない」と述べる。10GBASE-Tでは、伝送ビット密度が5桁も増加する(図A)。Teranetics社のRhodes氏は、「仮想化によってサーバーの使用率は2〜4倍向上し、ネットワークにおけるビット伝送のコストも低くなる」と説明する。

 仮想化データセンターでは、省スペース化とコスト削減のために、リソースを共有して分散させる。従来の配置ではローカルバスによってコンポーネントが集約されるが、仮想化では遠隔地に分散したストレージなどのコンポーネントをファブリック接続する。「トラフィックが多いときにはデータの管理が問題となるため、混雑度の管理や負荷分散の機能がスイッチには必須だ」(Nunn氏)という。

 仮想化サーバーでは、仮想化されたゲストOSがマルチコアマシン上で、仮想マシンモニターである「ハイパーバイザー」の働きによって同時に稼働する。「データセンターのアプリケーションでは、そのままではサーバーのCPUにおける複数のコア上にうまく分散処理することができないが、仮想化によりこの状況を変えることが可能になる」とSolarflare社の共同最高技術責任者であるSteve Pope氏は述べる。「それぞれが仮想アプリケーションを実行する仮想OSを各コアに搭載することが可能だ」(同氏)という。ただし、ハイパーバイザーはI/Oにおいてはボトルネックとなる恐れがある。

 Solarflare社のイーサーネットコントローラ「Solarstorm」は、ハイパーバイザーのバイパス技術であるSolarstorm vNIC(仮想ネットワークインターフェースコントローラ)を採用している。ハイパーバイザーのI/O負荷を低減し、仮想化ゲストOSに対して堅実なI/O性能を提供する。コントローラICでは、コアにまたがって拡張可能なDMA(ダイレクトメモリーアクセス)キューを提供しなければならないため、Solarflare社の仮想化アーキテクチャは、十分な数の仮想インターフェースを提供する。「高度な仮想化機構が用いられているため、各コアと各ゲストOSに複数のDMAキューを割り当てることによってかなりの性能向上が実現できる」とPope氏は述べる。ゲストOSは、Solarflare社が開発したオープンソースのAPI(application programming interface)セットを用い、ハイパーバイザーをバイパスして仮想インターフェースをプログラムすることもできる。これらのAPIにより、どのICベンダーもゲストOSアクセスを利用することが可能になる。


       1|2 次のページへ

Copyright © ITmedia, Inc. All Rights Reserved.

RSSフィード

公式SNS

EDN 海外ネットワーク

All material on this site Copyright © ITmedia, Inc. All Rights Reserved.
This site contains articles under license from AspenCore LLC.