Kennen Sie 40 Gb Fibre Channel? - von J Michel Metz, FCIA Board of Directors, Cisco -  Deutsche Fassung: Christine Schmidt

Im Laufe der Jahre wurde Fibre Channel zum Benchmark-Standard für Speichernetzwerke – mit genau definierten Regeln, hoher Performance und Skalierbarkeit und höchster Zuverlässigkeit. Tatsächlich zeugt es von der Voraussicht und guten Planung des T11 Technical Committees, das das FC-Protokoll so robust ausgelegt hat, dass es vielfältig und in verschiedenen Medien eingesetzt werden kann. 

  • Thursday, 23rd May 2013 Posted 11 years ago in by Phil Alsop

Wussten Sie zum Beispiel, dass das T11 Committee eine Reihe von Möglichkeiten zum Transport von FC Frames entwickelt hat? Zusätzlich zum physikalischen FC Layer kann FC unter anderem auch genutzt werden für:

• Data Center Ethernet

• TCP/IP

• Multiprotocol Label Switching (MPLS)

• Transparent Generic Framing Procedure (GFPT)

• Asynchronous Transfer Mode (ATM)

• Synchronous Optical Networking/Synchronous Digital Hierarchy (SONET/SDH)

 

Dank dieser Vielfalt können FC-Systeme für viele verschiedene Anwendungen eingesetzt und so die jeweiligen Vorteile des entsprechenden Mediums genutzt werden.

10 Gb/s: Der Wendepunkt

Von all diesen Möglichkeiten ist FC über Layer 2 Lossless Ethernet der interessanteste Einsatz, da FC die Geschwindigkeit und Kapazität von Ethernet für den Multiprotocol Traffic über eine gemeinsame Infrastruktur im Data Center nutzen kann. 10 Gb Ethernet (10 GbE) war im Grunde genommen die erste Technologie, die Administratoren die nötige Kapazität für Multiprotokoll Traffic bereitstellte.

 

Vorteile:

• Es stand genügend Bandbreite für parallelen Storage- und Ethernet-Traffic über eine Leitung zur Verfügung.

• Beim Design konnten sowohl die Anforderungen von LANs als auch von SANs unabhängig voneinander berücksichtigt werden.

• Bandbreite konnte effizienter und dynamisch für LAN und SAN Traffic bereitgestellt werden, ohne dass eine Seite der anderen Bandbreite abtreten musste.

• Bandbreite wurde nicht mehr verschwendet sondern effizient genutzt.

 

Wie war das möglich?

Erstens konnte mit 10 GbE der Traffic in Classes of Service (CoS) eingeteilt werden. Innerhalb dieser Klassen kann nun deterministischer und nicht-deterministischer Traffic unabhängig und ohne gegenseitige Beeinträchtigung allokiert werden.

Zweitens kann mit 10 GbE ein Kapazitätenpool erstellt werden und die Bandbreite entsprechend der CoS dynamisch allokiert werden.

Drittens wird durch die Konsolidierung von Traffic auf 10 GbE Verbindungen mit hohem Durchsatz die Wahrscheinlichkeit, dass Links nicht richtig ausgenutzt werden, reduziert. Wie das funktioniert zeigt das folgende Beispiel.

Angenommen Sie haben 8 Gb FC Links nutzen aber nur 4 Gb. Damit haben Sie zwar genügend Spielraum für einen späteren Ausbau, die meiste Zeit wird die überschüssige Bandbreite aber nicht wirklich genutzt. Bei Konsoldierung mit dem LAN-Traffic und Erstellung von Policies für die Bandbreitennutzung hätten Sie damit immer noch den garantierten Durchsatz für den FC Traffic und könnten die zusätzliche Bandbreite für den LAN Traffic nutzen. Darüber hinaus könnte eventuell noch freie Bandbreite für Spitzen im FC Traffic genutzt werden.

Da der LAN und SAN Traffic nicht konstant oder statisch ist - auch wenn Benchmark-Tests dies glauben machen - ist dieser dynamische Multi-Traffic Ansatz noch sehr viel überzeugender, wenn die Bandbreite über 10 Gb hinausgeht und auf 40 oder gar 100 Gb steigt.

40 Gb - der Meilenstein

Ein altes Sprichwort sagt, “man hat nie genug Bandbreite.” Wenn das so ist, haben Data Center ein echtes Luxusproblem. Um die Grössenordnung zu verstehen, muss man sich erst vergegenwärtigen, dass es hier nicht nur um die “Geschwindigkeit” als solche geht. Der Durchsatz basiert auf dem Interface Clocking (d.h. wie schnell das Interface überträgt) und wie effizient das Interface ist (d. h. wieviel Overhead entsteht).

Was macht man nun mit all der Bandbreite?

Auf diese Frage gibt es mehr Antworten als es Data Center gibt. Wäre es möglich, die gesamte Bandbreite einem Protokoll zuzuweisen, zum Beispiel FC? Absolut. Wäre es möglich, die Bandbreite nach Bedarf zu unterteilen und aufzuteilen? Höchstwahrscheinlich.

Darum sind Geschwindigkeiten von 40 GbE (und höher) so attraktiv. Ebenso wie SANs früher im Rechenzentrum den Aufbau von Storage-Pools und damit höhere Effizienz als Disk-Array Inseln ermöglichten, erlauben nun konvergierte Netzwerke die Eliminierung von Bandbreiten-Inseln im Speichernetz. Für das Netzwerk gelten nun die gleichen Prinzipien wie für den Storage selbst.

Drei Aspekte sind dabei wichtig:

Flexibilität

Die Flexibilität des FC Protokolls, das ohne grössere Modifizierung von 10 Gb auf 40 Gb und 100 Gb umgestellt werden konnte, zeigt, dass es eine nahtlose Weiterentwicklung gibt. Das Protokoll ändert sich auch mit höheren Geschwindigkeiten und Durchsätzen nicht. Die Regeln und Parameter hinsichtlich Design und Konfiguration bleiben gleich, wie man das von FC auch erwarten würde.

Darüber hinaus haben Sie eine grosse Auswahl an Konfigurationsmöglichkeiten im Data Center. Haben Sie ein Durchsatzproblem aufgrund einer ungeplanten Anwendung? Kein Problem. Mit Hilfe einer kleinen Konfigurationsänderung können Sie die Bandbreite für den Storage Traffic optimieren. Sie haben nur begrenzten Platz oder für jeden Traffic-Typ ein anderes  Kabel? Kein Problem. Sie können alle Traffic-Arten - Storage oder LAN - über die selbe Infrastruktur laufen lassen. Es ist ein unschätzbarer Vorteil, wenn Sie kein zusätzliches Equipment kaufen müssen und alle Traffic-Arten immer und überall in Ihrem Netzwerk laufen lassen, und noch dazu über die selbe Leitung.

Wachstum

Data Center verändern sich - sie können wachsen oder manchmal auch schrumpfen. Eines aber ist sicher, langfristig bleiben sie nicht gleich.

Neue Server, neue ASICs, neue Software und Hardware - all das beeinflusst die Wachstumsstruktur eines Rechenzentrums. Dann muss die Netzwerk-Infrastruktur in der Lage sein, sich diesen Veränderungen anzupassen. Aus diesem Grund gilt für Administratoren die Faustregel “expect the unexpected”, was bedeutet, dass die Netzwerk-Kapazität entsprechend geplant werden sollte, für den Fall der Fälle. Keiner kann die Zukunft vorhersagen, und trotzdem wird genau das von den Storage- und Netzwerk-Planern täglich erwartet.

Selbst bei sorgfältigster Planung kann es passieren, dass ein Data Center nach drei, fünf oder noch mehr Jahren von der Entwicklung überrascht wird. Systeme, die eigentlich schon das geplante Ende erreicht haben, müssen wegen höhrer Kapazitätsanforderungen weiterarbeiten. Währenddessen werden Systeme, die einst als “unbedingt notwendig” erachtet wurden, nicht voll ausgelastet (oder gar nicht genutzt), weil die geplanten Einsatzbereiche gestrichen oder geändert wurden.

Multiprotokoll-fähige Netzwerke mit hohen Kapazitäten bieten die Lösung für beide Probleme. Administratoren werden nie mehr in der Zwickmühle stecken, dass sie in dem einen Netzwerk Kapazitäten frei haben während sie im anderen Netzwerk fehlen. Sie müssen auch nicht interimsweise eine Behelfslösung aufbauen, die dann irgendwann zur permanenten Lösung wird, die bei zukünftigem Netzwerkausbau berücksichtigt werden muss.

Budget

Was passiert, wenn die Anforderungen nicht erfüllt werden können, nur weil es nicht der richtige Zeitpunkt ist oder Budget fehlt? Wie oft müssen IT-Abteilungen Projekte verschieben oder aufgeben, weil die Bedürfnisse des Storage-Netzwerks gerade nicht in die Budget-Planung passen.

In einer perfekten Welt könnten Storage Administratoren Kapazitäten und Equipment bei Bedarf hinzufügen, unabhängig vom Budget-Diktat. Wenn die Kapazitäten in einer einheitlichen Infrastruktur vorgehalten werden, gibt es keine Diskussion, ob das LAN/Ethernet-Netzwerk dem Speichernetz Kapazität wegnimmt.

Natürlich hat nicht jedes Unternehmen diese Probleme, aber wenn es keinen Konkurrenzkampf um wertvolle Ressourcen gibt (dann heißt es nämlich nicht “entweder/oder” sondern “und”) wird nicht nur der Beschaffungsprozess einfacher sondern auch der Kostenaufwand für die Gesamtkapazität reduziert (ganz zu schweigen von der Verbesserung der Beziehungen zwischen den SAN und LAN Teams!).

Zusammenfassung

FC bleibt der “Gold Standard” für Speichernetzwerke, unabhängig vom darunterliegenden Transportmedium. Storage Administratoren haben nun höchste Flexibilität und Wahlmöglichkeiten, um ein flexibles, zuverlässiges, deterministisches Speichernetzwerk aufzubauen. Mit mehr als 10.000 MB/s bidirektionaler Bandbreite kann nun 40 Gb FCoE im Speichernetzwerk eingesetzt werden, um FC Anwendungen mit einer Performance zu bedienen, die vor ein paar Jahren noch unvorstellbar gewesen wäre.

Weitere Informationen über die Fibre Channel Industry Association unter www.fibrechannel.org