Was ist Netzwerklatenz?
Die Netzwerklatenz ist die Verzögerung bei der Netzwerkkommunikation. Sie zeigt die Zeit an, die Daten für die Übertragung über das Netzwerk benötigen. Netzwerke mit einer längeren Verzögerung oder Verzögerung weisen eine hohe Latenz auf, während Netzwerke mit schnellen Reaktionszeiten eine geringe Latenz aufweisen. Unternehmen bevorzugen niedrige Latenz und schnellere Netzwerkkommunikation für höhere Produktivität und effizientere Geschäftsabläufe. Einige Arten von Anwendungen, wie Fluiddynamik und andere Anwendungsfälle für Hochleistungsdatenverarbeitung, erfordern eine geringe Netzwerklatenz, um mit ihren Rechenanforderungen Schritt zu halten. Hohe Netzwerklatenzen führen zu einer Verschlechterung der Anwendungsleistung und bei ausreichend hohen Werten zum Ausfall.
Warum ist Latenz wichtig?
Da sich immer mehr Unternehmen der digitalen Transformation unterziehen, nutzen sie Cloud-basierte Anwendungen und Services, um grundlegende Geschäftsfunktionen auszuführen. Der Betrieb basiert auch auf Daten, die von intelligenten Geräten gesammelt werden, die mit dem Internet verbunden sind und zusammen als Internet der Dinge bezeichnet werden. Die Verzögerung aufgrund von Latenzen kann zu Ineffizienzen führen, insbesondere bei Echtzeitvorgängen, die von Sensordaten abhängen. Eine hohe Latenz verringert auch die Vorteile höherer Ausgaben für Netzwerkkapazität, was sich sowohl auf die Benutzererfahrung als auch auf die Kundenzufriedenheit auswirkt, selbst wenn Unternehmen teure Netzwerkschaltungen implementieren.
Welche Anwendungen erfordern eine geringe Netzwerklatenz?
Obwohl alle Unternehmen eine niedrige Latenz bevorzugen, ist dies für bestimmte Branchen und Anwendungen wichtiger. Folgende sind einige Beispielanwendungsfälle.
Streaming-Analyse-Anwendungen
Streaming-Analyse-Anwendungen wie Echtzeit-Auktionen, Online-Wetten und Multiplayer-Spiele nutzen und analysieren große Mengen an Echtzeit-Streaming-Daten aus verschiedenen Quellen. Benutzer solcher Anwendungen sind auf genaue Echtzeitinformationen angewiesen, um Entscheidungen zu treffen. Sie bevorzugen ein Netzwerk mit niedriger Latenz, da Verzögerungen finanzielle Folgen haben können.
Datenverwaltung in Echtzeit
Unternehmensanwendungen führen häufig Daten aus verschiedenen Quellen zusammen und optimieren sie, wie andere Software, Transaktionsdatenbanken, Cloud und Sensoren. Sie verwenden die Change Data Capture (CDC)-Technologie, um Datenänderungen in Echtzeit zu erfassen und zu verarbeiten. Probleme mit der Netzwerklatenz können leicht die Leistung dieser Anwendungen beeinträchtigen.
API-Integration
Zwei verschiedene Computersysteme kommunizieren über ein Application Programming Interface (API) miteinander. Oft wird die Systemverarbeitung angehalten, bis eine API eine Antwort zurückgibt. Netzwerklatenz führt somit zu Problemen mit der Anwendungsleistung. Beispielsweise verwendet eine Flugbuchungswebsite einen API-Aufruf, um Informationen über die Anzahl der auf einem bestimmten Flug verfügbaren Sitzplätze abzurufen. Netzwerklatenz kann die Leistung der Website beeinträchtigen und dazu führen, dass sie nicht mehr funktioniert. Bis die Website die API-Antwort erhält und neu startet, hat möglicherweise jemand anderes das Ticket gebucht und es wäre für Sie nun nicht mehr verfügbar.
Videofähiger Remote-Betrieb
Einige Workflows, wie z. B. videofähige Bohrmaschinen, Endoskopiekameras und Drohnen für Such- und Rettungszwecke, erfordern, dass ein Bediener eine Maschine mithilfe von Video fernsteuern muss. In diesen Fällen sind Netzwerke mit hoher Latenz entscheidend, um lebensbedrohliche Folgen zu vermeiden.
Was sind die Ursachen für Netzwerklatenz?
In der Netzwerkterminologie kommunizieren ein Clientgerät und ein Server über ein Computernetzwerk. Der Client sendet Datenanfragen und der Server sendet Datenantworten. Eine Reihe von Geräten wie Router, Switches oder Firewalls und Verbindungen wie Kabel oder drahtlose Übertragung bilden das Computernetzwerk. In Form von kleinen Datenpaketen springen Datenanfragen und -antworten über Links von einem Gerät zum anderen, bis sie ihr Ziel erreichen. Netzwerkgeräte wie Router, Modems und Switches verarbeiten und leiten kontinuierlich Datenpakete über verschiedene Netzwerkpfade, die aus Drähten, Glasfaserkabeln oder drahtlosen Übertragungsmedien bestehen. Infolgedessen sind Netzwerkvorgänge komplex und verschiedene Faktoren beeinflussen die Geschwindigkeit der Datenpaketübertragung. Im Folgenden sind allgemeine Faktoren aufgeführt, die zu einer Netzwerklatenz führen.
Übertragungsmedium
Das Übertragungsmedium oder die Verbindung hat den größten Einfluss auf die Latenz, wenn Daten durch sie hindurchgehen. Beispielsweise hat ein Glasfasernetzwerk eine geringere Latenz als ein drahtloses Netzwerk. In ähnlicher Weise erhöht sich jedes Mal, wenn das Netzwerk von einem Medium auf ein anderes wechselt, die Gesamtübertragungszeit um einige zusätzliche Millisekunden.
Entfernung, die der Netzwerkverkehr zurücklegt
Große Entfernungen zwischen Netzwerk-Endpunkten erhöhen die Netzwerklatenz. Wenn Anwendungsserver beispielsweise geografisch weit von Endbenutzern entfernt sind, kann es zu einer höheren Latenz kommen.
Anzahl der Netzwerk-Hops
Mehrere Zwischenrouter erhöhen die Anzahl der Hops, die Datenpakete benötigen, wodurch sich die Netzwerklatenz erhöht. Funktionen von Netzwerkgeräten, wie die Verarbeitung von Website-Adressen und die Suche nach Routingtabellen, erhöhen ebenfalls die Latenzzeit.
Datenvolumen
Ein hohes gleichzeitiges Datenvolumen kann Probleme mit der Netzwerklatenz erhöhen, da Netzwerkgeräte über eine begrenzte Verarbeitungskapazität verfügen. Aus diesem Grund kann eine gemeinsam genutzte Netzwerkinfrastruktur wie das Internet die Anwendungslatenz erhöhen.
Serverleistung
Die Leistung des Anwendungsservers kann eine wahrgenommene Netzwerklatenz erzeugen. In diesem Fall verzögert sich die Datenkommunikation nicht aufgrund von Netzwerkproblemen, sondern weil die Server langsam reagieren.
Wie kann man die Netzwerklatenz messen?
Sie können die Netzwerklatenz messen, indem Sie Metriken wie Time to First Byte und Round-Trip-Zeit verwenden. Sie können jede dieser Metriken verwenden, um Netzwerke zu überwachen und zu testen.
Time to First Byte
Time to First Byte (TTFB; Zeit bis zum erste Byte) erfasst die Zeit, die das erste Datenbyte benötigt, um den Client vom Server aus zu erreichen, nachdem die Verbindung hergestellt wurde. TTFB hängt von zwei Faktoren ab:
- Die Zeit, die der Webserver benötigt, um die Anfrage zu verarbeiten und eine Antwort zu erstellen
- Die Zeit, die die Antwort benötigt, um zum Kunden zurückzukehren
Somit misst TTFB sowohl die Serververarbeitungszeit als auch die Netzwerkverzögerung.
Sie können die Latenzzeit auch als gefühlte TTFB messen, die länger ist als die tatsächliche TTFB, weil der Client-Rechner für die Verarbeitung der Antwort mehr Zeit benötigt.
Round-Trip-Zeit
Round Trip Time (RTT) ist die Zeit, die der Client benötigt, um eine Anfrage zu senden und die Antwort vom Server zu empfangen. Netzwerklatenz verursacht Round-Trip-Verzögerung und erhöht die RTT. Alle Messungen von RTT durch Netzwerküberwachungstools sind jedoch Teilindikatoren, da Daten auf dem Weg vom Client zum Server und zurück über verschiedene Netzwerkpfade übertragen werden können.
Ping-Befehl
Netzwerkadministratoren verwenden den Ping-Befehl, um die Zeit zu ermitteln, die 32 Bytes an Daten benötigen, um ihr Ziel zu erreichen und eine Antwort zu erhalten. Auf diese Weise können Sie feststellen, wie zuverlässig eine Verbindung ist. Sie können Ping jedoch nicht verwenden, um mehrere Pfade von derselben Konsole aus zu überprüfen oder Latenzprobleme zu reduzieren.
Was sind die übrigen Arten von Latenz?
In einem Computersystem können viele verschiedene Latenzen auftreten, z. B. Festplattenlatenz, Glasfaserlatenz und Betriebslatenz. Im Folgenden sind wichtige Arten von Latenzzeiten aufgeführt.
Festplattenlatenz
Die Festplattenlatenz misst die Zeit, die ein Computergerät zum Lesen und Speichern von Daten benötigt. Dies ist der Grund, warum es beim Schreiben einer großen Anzahl von Dateien anstelle einer einzelnen großen Datei zu Speicherverzögerungen kommen kann. Beispielsweise haben Festplatten eine höhere Festplattenlatenz als Solid-State-Laufwerke.
Glasfaserlatenz
Die Glasfaserlatenz ist die Zeit, die Licht benötigt, um eine bestimmte Strecke durch ein Glasfaserkabel zurückzulegen. Bei Lichtgeschwindigkeit tritt für jeden Kilometer, den das Licht durch den Weltraum bewegt, eine Latenz von 3,33 Mikrosekunden auf. Bei Glasfaserkabeln verursacht jeder Kilometer jedoch eine Latenz von 4,9 Mikrosekunden. Die Netzwerkgeschwindigkeit kann mit jeder Biegung oder Unregelmäßigkeit im Kabel abnehmen.
Betriebslatenz
Die Betriebslatenz ist die Zeitverzögerung aufgrund von Rechenvorgängen. Dies ist einer der Faktoren, die die Serverlatenz verursachen. Wenn Vorgänge nacheinander in einer Sequenz ausgeführt werden, können Sie die Betriebslatenz als Summe der Zeit berechnen, die jeder einzelne Vorgang benötigt. Bei parallelen Workflows bestimmt der langsamste Betrieb die Betriebslatenz.
Welche anderen Faktoren als die Latenz bestimmen die Netzwerkleistung?
Abgesehen von der Latenz können Sie die Netzwerkleistung in Bezug auf Bandbreite, Durchsatz, Jitter und Paketverlust messen.
Bandwidth
Die Bandbreite misst das Datenvolumen, das zu einem bestimmten Zeitpunkt ein Netzwerk durchlaufen kann. Sie wird in Dateneinheiten pro Sekunde gemessen. Beispielsweise schneidet ein Netzwerk mit einer Bandbreite von 1 Gigabit pro Sekunde (Gbit/s) oft besser ab als ein Netzwerk mit einer Bandbreite von 10 Megabit pro Sekunde (Mbit/s).
Vergleich von Latenz und Bandbreite
Wenn Sie sich das Netzwerk als eine Wasserleitung vorstellen, gibt die Bandbreite die Breite der Leitung an, während die Latenz die Geschwindigkeit ist, mit der Wasser durch das Rohr fließt. Obwohl eine geringere Bandbreite die Latenz bei Spitzenauslastung erhöht, bedeutet mehr Bandbreite nicht unbedingt mehr Daten. Tatsächlich kann Latenz die Rentabilität teurer Infrastrukturen mit hoher Bandbreite verringern.
Durchsatz
Der Durchsatz bezieht sich auf das durchschnittliche Datenvolumen, das tatsächlich über eine bestimmte Zeit durch das Netzwerk geleitet werden kann. Es zeigt die Anzahl der Datenpakete an, die erfolgreich an ihrem Ziel ankommen, und den Datenpaketverlust.
Vergleich zwischen Latenz und Durchsatz
Der Durchsatz misst die Auswirkung der Latenz auf die Netzwerkbandbreite. Es zeigt die verfügbare Bandbreite nach der Latenz an. Beispielsweise kann die Bandbreite eines Netzwerks 100 Mbit/s betragen, aber aufgrund der Latenz beträgt der Durchsatz tagsüber nur 50 Mbit/s, nachts steigt er jedoch auf 80 Mbit/s.
Jitter
Jitter ist die Variation der Zeitverzögerung zwischen der Datenübertragung und ihrem Empfang über eine Netzwerkverbindung. Für eine bessere Benutzererfahrung wird eine konsistente Verzögerung gegenüber Verzögerungsvarianten bevorzugt.
Vergleich von Latenz und Jitter
Jitter ist die Änderung der Latenz eines Netzwerks im Laufe der Zeit. Latenz führt zu Verzögerungen bei Datenpaketen, die über ein Netzwerk übertragen werden. Jitter tritt jedoch auf, wenn diese Netzwerkpakete in einer anderen Reihenfolge als vom Benutzer erwartet ankommen.
Paketverlust
Der Paketverlust misst die Anzahl der Datenpakete, die ihr Ziel nie erreichen. Faktoren wie Softwarefehler, Hardwareprobleme und Netzwerküberlastung führen dazu, dass Pakete während der Datenübertragung verloren gehen.
Vergleich von Latenz und Paketverlust
Die Latenz misst die Verzögerung bei der Ankunft eines Pakets am Ziel. Sie wird in Zeiteinheiten wie Millisekunden gemessen. Paketverlust ist ein Prozentwert, der die Anzahl der Pakete misst, die nie angekommen sind. Wenn also 91 von 100 Paketen eintreffen, beträgt der Paketverlust 9 %.
Wie können Sie Probleme mit der Netzwerklatenz verbessern?
Sie können die Netzwerklatenz reduzieren, indem Sie sowohl Ihr Netzwerk als auch Ihren Anwendungscode optimieren. Im Folgenden finden Sie einige Vorschläge.
Upgrade der Netzwerkinfrastruktur
Sie können Netzwerkgeräte upgraden, indem Sie die neuesten Hardware-, Software- und Netzwerkkonfigurationsoptionen auf dem Markt verwenden. Regelmäßige Netzwerkwartung verbessert die Paketverarbeitungszeit und trägt zur Verringerung der Netzwerklatenz bei.
Überwachen der Netzwerkleistung
Tools zur Netzwerküberwachung und -verwaltung können Funktionen wie Schein-API-Tests und Analysen der Endbenutzererfahrung ausführen. Sie können sie verwenden, um die Netzwerklatenz in Echtzeit zu überprüfen und Probleme mit der Netzwerklatenz zu beheben.
Gruppieren von Netzwerk-Endpunkte
Subnetting ist eine Methode zum Gruppieren von Netzwerkendpunkten, die häufig miteinander kommunizieren. Ein Subnetz fungiert als Netzwerk innerhalb eines Netzwerks, um unnötige Router-Hops zu minimieren und die Netzwerklatenz zu verbessern.
Verwenden von Traffic-Shaping-Methoden
Sie können die Netzwerklatenz verbessern, indem Sie Datenpakete nach Typ priorisieren. Sie können beispielsweise dafür sorgen, dass Ihr Netzwerk zuerst Anwendungen mit hoher Priorität wie VoIP-Anrufe und Datenverkehr im Rechenzentrum weiterleitet, während andere Arten von Datenverkehr verzögert werden. Dies verbessert die akzeptable Latenz für kritische Geschäftsprozesse in einem Netzwerk mit ansonsten hoher Latenz.
Reduzieren der Netzwerkentfernung
Sie können die Benutzererfahrung verbessern, indem Sie Ihre Server und Datenbanken geografisch näher an Ihren Endbenutzern hosten. Wenn Ihr Zielmarkt beispielsweise Italien ist, erzielen Sie eine bessere Leistung, wenn Sie Ihre Server in Italien oder Europa statt in Nordamerika hosten.
Reduzieren der Netzwerk-Sprünge
Jeder Sprung, den ein Datenpaket bei der Übertragung von Router zu Router benötigt, erhöht die Netzwerklatenz. In der Regel muss Datenverkehr mehrere Sprünge über das öffentliche Internet über potenziell überlastete und nicht redundante Netzwerkpfade nehmen, um das Ziel zu erreichen. Sie können jedoch Cloud-Lösungen verwenden, um Anwendungen näher an ihren Endbenutzern auszuführen, um sowohl die Entfernung der Netzwerkkommunikation als auch die Anzahl der Sprünge, die der Netzwerkverkehr benötigt, zu reduzieren. Beispielsweise können Sie AWS Global Accelerator verwenden, um den Datenverkehr so nah wie möglich in das globale AWS-Netzwerk einzubinden. Verwenden Sie dazu das global redundante AWS-Netzwerk, um die Verfügbarkeit und Leistung Ihrer Anwendung zu verbessern.
Wie kann AWS Ihnen helfen, die Latenz zu reduzieren?
AWS bietet eine Reihe von Lösungen, um die Netzwerklatenz zu reduzieren und die Leistung für eine bessere Endbenutzererfahrung zu verbessern. Sie können je nach Ihren Anforderungen einen der folgenden Dienste implementieren.
- AWS Direct Connect ist ein Cloud-Service, der Ihr Netzwerk direkt mit AWS verbindet, um eine konsistentere und geringe Netzwerklatenz zu liefern. Beim Erstellen einer neuen Verbindung können Sie eine von einem AWS Direct Connect-Bereitstellungspartner bereitgestellte gehostete Verbindung oder eine dedizierte Verbindung von AWS auswählen, um sie an über 100 AWS Direct Connect-Standorten auf der ganzen Welt bereitzustellen.
- Amazon CloudFront ist ein Service für Content Delivery Network, der auf hohe Leistung, Sicherheit und Entwicklerkomfort ausgelegt ist. Sie können es verwenden, um Inhalte sicher mit geringer Latenz und hohen Übertragungsgeschwindigkeiten bereitzustellen.
- AWS Global Accelerator ist ein Netzwerkservice, der die Leistung des Datenverkehrs Ihrer Benutzer um bis zu 60 % verbessert, indem er die globale Netzwerkinfrastruktur von AWS nutzt. Wenn das Internet überlastet ist, optimiert AWS Global Accelerator den Pfad zu Ihrer Anwendung, um Paketverluste, Jitter und Latenz konstant niedrig zu halten.
- AWS Local Zones sind eine Art der Bereitstellung von AWS-Infrastruktur, die AWS-Datenverarbeitungs-, Speicher-, Datenbank- und andere ausgewählte AWS-Services näher an große Bevölkerungs- und Industrie-Zentren heranbringen. Sie können innovative Anwendungen bereitstellen, die eine niedrige Latenz erfordern – näher an den Endbenutzern und auf On-Premises-Einrichtungen.
Beginnen Sie mit AWS Direct Connect, indem Sie noch heute ein AWS-Konto erstellen.
Latenz – Nächste Schritte in AWS
Sie erhalten sofort Zugriff auf das kostenlose Kontingent von AWS.
Beginnen Sie mit der Entwicklung mit AWS in der AWS-Managementkonsole.