Suchen

Kommentar von Thomas Pavel, LSI

Daueraufgabe Rechenzentrums-Beschleunigung

Seite: 4/4

Firmen zum Thema

Kurzfristige Verbesserungen für die Server-I/O und die Netzwerkleistung

In vielen Unternehmen sind heute Millisekunden wichtig und kurze Antwortzeiten haben hohe Priorität. In manchen Handelsunternehmen wird die Latenz in Millionen Dollar pro Millisekunde gemessen. Bei Online-Einzelhändlern schadet jede Verzögerung der Kundenzufriedenheit und der Wettbewerbsfähigkeit, was sich direkt auf den Umsatz auswirkt.

Überall im Rechenzentrum fallen immer mehr digitale Informationen an und Unternehmen stellen immer mehr schnelle SSD-Speicher als Caches sowie als Laufwerke in DAS- und SAN-Konfigurationen mit mehreren Ebenen bereit. Da die Verbreitung von SSDs und ihre Kapazität stetig steigen, sinken die Kosten pro Gigabyte. Intelligente Flashspeicherprozessoren mit fortschrittlicher Garbage Collection, Wear-Leveling und erweiterten Algorithmen für die Fehlerkorrektur verbessern zugleich die Langlebigkeit von SSDs weiter.

Bildergalerie

Auch die zunehmende Verwendung von 10- und 40-Gigabit/Sekunde-Ethernet sowie die weite Verbreitung der 12-Gigabit/Sekunde-SAS-Technik tragen zu höheren Datenraten bei. 12-Gigabit/Sekunde-SAS ermöglicht nicht nur doppelt so viel Durchsatz wie die bisherige 6-Gigabit/Sekunde-SAS-Technik, sondern nutzt auch Leistungsverbesserungen in PCIe 3.0, um mehr als eine Million IOPS zu erreichen.

Netzwerkarchitekturen in Rechenzentren werden immer flacher und machen neue Möglichkeiten für Beschleunigung und Programmierbarkeit auf der Steuerungs- und der Datenebene notwendig. Eine stärkere Nutzung der Hardwarebeschleunigung für Paketverarbeitung und Datenverkehrsverwaltung bietet in diesen flachen, skalierten Netzwerken vorhersagbare Leistung bei variablen Datenverkehrslasten.

Mehr Engpässe stehen bevor

In dem Maße, in dem Server zu 10-Gigabit/Sekunde-Ethernet migriert werden, wird das Rack zu einem eigenen Engpass. Um diesen zu beheben, transportiert SSD-Speicher Daten mit hohen Geschwindigkeiten zwischen Servern; zweckgebundene PCIe-Karten ermöglichen eine schnellere Kommunikation zwischen den Servern. Alle Komponenten in einem Rack werden neu strukturiert, um Leistung und Kosten zu optimieren.

Da Rechenzentren zunehmend Private Clouds ähneln und Unternehmen immer mehr öffentliche Cloud-Services in einer mandantenfähigen, hybriden Struktur nutzen, muss die Datenübertragungsebene den Traffic intelligenter klassifizieren und verwalten. Nur so kann sie die Leistung auf Anwendungsebene und die Datensicherheit erhöhen. Immer mehr Datenverkehr wird verschlüsselt und über Tunnel gesendet. Diese und andere CPU-intensive Paketverarbeitungs-Tasks müssen an funktionsspezifische Beschleunigungsmodule ausgelagert werden, um ein vollständig verteilte, intelligente Fabric zu erreichen.

Fazit

Netzwerke und Rechenzentren haben auch auf lange Sicht mit einem exponentiellen Ansteigen der Datenmengen zu kämpfen. Deshalb werden schnelle Kommunikationsprozessoren, Beschleunigungsmodule, SSD-Speicher und andere Techniken, die die Leistung erhöhen und die Latenz in Rechenzentrums-Netzwerken senken, immer wichtiger: Sie helfen IT-Managern, die Datengeschwindigkeit in ihren Architekturen zu erhöhen, um mit der Anforderung nach immer schnellerem Zugriff auf digitale Informationen Schritt zu halten.

Es bleibt eine Sisyphusaufgabe, sich dieser Herausforderung immer wieder zu stellen; doch angesichts der heutigen Optionen muss niemand den Kopf in den Sand stecken, sondern man kann sich, frei nach Albert Camus, Sisyphus als einen glücklichen Menschen vorstellen.

(ID:37988130)