Link-Aggregation - Link aggregation

Link Aggregation zwischen einem Switch und einem Server

In Computernetzwerken ist Link Aggregation das parallele Kombinieren ( Aggregieren ) mehrerer Netzwerkverbindungen durch eine von mehreren Methoden , um den Durchsatz über das hinaus zu erhöhen , was eine einzelne Verbindung aufrechterhalten könnte , um Redundanz bereitzustellen , falls eine der Verbindungen ausfallen sollte , oder beide. Eine Link Aggregation Group ( LAG ) ist die kombinierte Sammlung von physischen Ports.

Andere Oberbegriffe, die zur Beschreibung des Konzepts verwendet werden, sind Trunking , Bundling , Bonding , Channeling oder Teaming .

Die Implementierung kann herstellerunabhängigen Standards wie dem Link Aggregation Control Protocol (LACP) für Ethernet , definiert in IEEE 802.1AX oder dem früheren IEEE 802.3ad , aber auch proprietären Protokollen folgen .

Motivation

Link Aggregation erhöht die Bandbreite und Ausfallsicherheit von Ethernet- Verbindungen.

Die Bandbreitenanforderungen skalieren nicht linear. Die Ethernet-Bandbreiten haben sich in der Vergangenheit mit jeder Generation verzehnfacht: 10 Megabit /s, 100 Mbit/s, 1000 Mbit/s, 10.000 Mbit/s. Wenn man an Bandbreitenobergrenzen stößt, bleibt nur der Wechsel zur nächsten Generation, was unerschwinglich sein kann. Eine alternative Lösung, die Anfang der 90er Jahre von vielen Netzwerkherstellern eingeführt wurde, ist die Verwendung von Link Aggregation, um zwei physische Ethernet-Links zu einem logischen Link zu kombinieren. Die meisten dieser frühen Lösungen erforderten eine manuelle Konfiguration und identische Geräte auf beiden Seiten der Verbindung.

Es gibt drei Single Points of Failure, die einer typischen Port-Kabel-Port-Verbindung inhärent sind, entweder in einer Computer-zu-Switch- oder einer Switch-zu-Switch-Konfiguration: Das Kabel selbst oder einer der Ports, an die das Kabel angeschlossen ist, kann ausfallen . Mehrere logische Verbindungen hergestellt werden können, aber viele der höheren Protokolle wurden nicht entwickelt Failover vollständig nahtlos. Die Kombination mehrerer physischer Verbindungen zu einer logischen Verbindung mithilfe von Link Aggregation bietet eine stabilere Kommunikation.

Die Architektur

Netzwerkarchitekten können die Aggregation auf jeder der untersten drei Schichten des OSI-Modells implementieren . Beispiele für die Aggregation auf Schicht 1 ( physikalische Schicht ) umfassen Stromleitungs- (zB IEEE 1901 ) und drahtlose (zB IEEE 802.11) Netzwerkgeräte, die mehrere Frequenzbänder kombinieren. Die Aggregation der OSI-Schicht 2 ( Datenverbindungsschicht , z. B. Ethernet-Frame in LANs oder Multi-Link-PPP in WANs, Ethernet- MAC-Adresse ) erfolgt typischerweise über Switch-Ports, die entweder physische oder virtuelle Ports sein können, die von einem Betriebssystem verwaltet werden. Die Aggregation auf Schicht 3 ( Netzwerkschicht ) im OSI-Modell kann Round-Robin-Scheduling , Hash-Werte, die aus Feldern im Paket-Header berechnet werden, oder eine Kombination dieser beiden Methoden verwenden.

Unabhängig von der Schicht, auf der die Aggregation stattfindet, ist es möglich, die Netzwerklast über alle Verbindungen hinweg auszugleichen. Um eine Lieferung außerhalb der Reihenfolge zu vermeiden , wird dies jedoch nicht von allen Implementierungen genutzt. Die meisten Methoden bieten auch Failover .

Das Kombinieren kann entweder so erfolgen, dass sich mehrere Schnittstellen eine logische Adresse (dh IP) oder eine physikalische Adresse (dh MAC-Adresse) teilen, oder es ermöglicht, dass jede Schnittstelle ihre eigene Adresse hat. Ersteres erfordert, dass beide Enden einer Verbindung dieselbe Aggregationsmethode verwenden, hat jedoch Leistungsvorteile gegenüber letzterem.

Channel-Bonding unterscheidet sich von Load-Balancing dadurch, dass Load-Balancing den Verkehr zwischen Netzwerkschnittstellen pro Netzwerk-Socket (Schicht 4) aufteilt, während Channel-Bonding eine Aufteilung des Verkehrs zwischen physischen Schnittstellen auf einer niedrigeren Ebene impliziert, entweder pro Paket (Schicht 3) oder eine Datenverbindungsbasis (Schicht 2).

IEEE-Link-Aggregation

Standardisierungsprozess

Bis Mitte der 1990er Jahre hatten die meisten Hersteller von Netzwerk-Switches Aggregation-Fähigkeiten als proprietäre Erweiterung integriert, um die Bandbreite zwischen ihren Switches zu erhöhen. Jeder Hersteller entwickelte seine eigene Methode, was zu Kompatibilitätsproblemen führte. Die IEEE 802.3- Arbeitsgruppe nahm auf einer Sitzung im November 1997 eine Studiengruppe auf, um einen interoperablen Link-Layer- Standard (dh der sowohl die physikalische als auch die Data-Link- Schicht umfasst) zu schaffen . Die Gruppe einigte sich schnell darauf, eine automatische Konfigurationsfunktion aufzunehmen, die auch Redundanz hinzufügen würde. Dies wurde als Link Aggregation Control Protocol (LACP) bekannt.

802.3ad

Ab dem Jahr 2000 verwenden die meisten Gigabit-Channel-Bonding-Schemata den IEEE-Standard der Link Aggregation, der früher Abschnitt 43 des IEEE 802.3- Standards war, der im März 2000 von der IEEE 802.3ad-Taskforce hinzugefügt wurde. Fast alle Hersteller von Netzwerkgeräten haben diesen gemeinsamen Standard schnell über ihre proprietären Standards hinweg übernommen.

802.1AX

Der Bericht der 802.3-Maintenance Task Force für das 9. Revisionsprojekt im November 2006 stellte fest, dass bestimmte 802.1-Schichten (wie die 802.1X- Sicherheit) im Protokollstapel unterhalb der als 802.3- Sublayer definierten Link Aggregation positioniert waren . Um diese Diskrepanz aufzulösen, wurde die Task Force 802.3ax (802.1AX) gebildet, was mit der Veröffentlichung von IEEE 802.1AX-2008 am 3. November 2008 zur formellen Übergabe des Protokolls an die 802.1-Gruppe führte.

Link Aggregation Control Protocol

Innerhalb der IEEE-Ethernet-Standards bietet das Link Aggregation Control Protocol (LACP) ein Verfahren zum Steuern der Bündelung mehrerer physischer Links zu einem einzigen logischen Link. LACP ermöglicht einem Netzwerkgerät, eine automatische Bündelung von Links auszuhandeln, indem es LACP-Pakete an seinen Peer sendet, ein direkt verbundenes Gerät, das ebenfalls LACP implementiert.

LACP-Features und praktische Beispiele

  1. Maximal zulässige Anzahl gebündelter Ports im Portkanal: Gültige Werte sind normalerweise 1 bis 8.
  2. LACP-Pakete werden mit der Multicast-Gruppen-MAC-Adresse 01:80:C2:00:00:02 gesendet
  3. Während der LACP-Erkennungsperiode
    • LACP-Pakete werden jede Sekunde übertragen
    • Keep-Alive-Mechanismus für Link-Mitglieder: (Standard: langsam = 30s, schnell=1s)
  4. In einigen Implementierungen ist ein auswählbarer Lastenausgleichsmodus verfügbar
  5. LACP-Modus:
    • Aktiv: Aktiviert LACP bedingungslos.
    • Passiv: Aktiviert LACP nur, wenn ein LACP-Gerät erkannt wird. (Dies ist der Standardzustand)

Vorteile gegenüber statischer Konfiguration

  • Failover erfolgt automatisch: Bei einem zwischenzeitlichen Ausfall einer Verbindung, beispielsweise in einem Medienkonverter zwischen den Geräten, kann ein Peer-System möglicherweise keine Verbindungsprobleme erkennen. Bei der statischen Link-Aggregation würde der Peer weiterhin Verkehr über den Link senden, wodurch die Verbindung fehlschlägt.
  • Dynamische Konfiguration: Das Gerät kann bestätigen, dass die Konfiguration am anderen Ende die Link-Aggregation verarbeiten kann. Bei der statischen Link-Aggregation kann ein Verkabelungs- oder Konfigurationsfehler unentdeckt bleiben und ein unerwünschtes Netzwerkverhalten verursachen.

Praktische Hinweise

LACP funktioniert, indem es Frames (LACPDUs) über alle Links sendet, für die das Protokoll aktiviert ist. Wenn es ein Gerät am anderen Ende eines Links findet, das ebenfalls LACP aktiviert hat, sendet dieses Gerät unabhängig Frames entlang derselben Links in die entgegengesetzte Richtung, sodass die beiden Einheiten mehrere Links untereinander erkennen und sie dann zu einem einzigen logischen kombinieren können Verknüpfung. LACP kann in einem von zwei Modi konfiguriert werden: aktiv oder passiv. Im aktiven Modus werden LACPDUs 1 pro Sekunde über die konfigurierten Links gesendet. Im passiven Modus werden LACPDUs erst gesendet, wenn eine von der anderen Seite empfangen wird, ein Sprech-wenn-gesprochen-mit-Protokoll.

Proprietäre Link-Aggregation

Neben den Link IEEE Aggregation Substandards, gibt es eine Reihe von proprietären Aggregationssysteme einschließlich Cisco EtherChannel und Port Aggregation Protocol , Juniper aggregierte Ethernet, Avayas Multi-Link Trunking , Split Multi-Link Trunking , Routed Split Multi-Link Trunking und Distributed Split Multi-Link Trunking , Smartgroup von ZTE, Eth-Trunk von Huawei und Speedify von Connectify . Die meisten High-End-Netzwerkgeräte unterstützen eine Form der Link-Aggregation. Softwarebasierte Implementierungen – wie das *BSD lagg- Paket, der Linux- Bonding- Treiber, Solaris dladm aggr usw. – existieren für viele Betriebssysteme.

Linux-Bonding-Treiber

Der Linux- Bonding- Treiber bietet eine Methode zum Aggregieren mehrerer Network Interface Controller (NICs) zu einer einzigen logischen Bonded-Schnittstelle von zwei oder mehr sogenannten (NIC)-Slaves . Die meisten modernen Linux-Distributionen kommen mit einem Linux-Kernel, in dem der Linux-Bonding-Treiber als ladbares Kernel-Modul integriert ist und das Steuerprogramm ifenslave (if = [network]-Schnittstelle) auf Benutzerebene vorinstalliert ist. Donald Becker hat den ursprünglichen Linux-Bonding-Treiber programmiert. Es kam mit den Beowulf-Cluster- Patches für den Linux- Kernel 2.0 zum Einsatz.

Fahrermodi

Modi für den Linux-Bonding-Treiber (Network Interface Aggregation Modes) werden dem Kernel-Bonding-Modul zur Ladezeit als Parameter übergeben. Sie können dem insmod- oder modprobe-Befehl als Befehlszeilenargumente übergeben werden, werden aber normalerweise in einer Linux-Distributions-spezifischen Konfigurationsdatei angegeben. Das Verhalten der einzelnen logischen gebondeten Schnittstelle hängt von ihrem angegebenen Bonding-Treibermodus ab. Der Standardparameter ist balance-rr.

Round-Robin (Balance-rr)
Übertragen Sie Netzwerkpakete in sequentieller Reihenfolge vom ersten verfügbaren Netzwerkschnittstellen(NIC)-Slave bis zum letzten. Dieser Modus bietet Lastausgleich und Fehlertoleranz . Dies kann manchmal zu Konflikten führen, da Pakete auf dem Weg zum Ziel möglicherweise neu geordnet werden, obwohl es Abhilfen gibt.
Aktiv-Backup (Aktiv-Backup)
Nur ein NIC-Slave in der Bindung ist aktiv. Ein anderer Slave wird nur dann aktiv, wenn der aktive Slave ausfällt. Die MAC-Adresse der einzelnen logischen verbundenen Schnittstelle ist nur auf einer NIC (Port) von außen sichtbar , um Verzerrungen im Netzwerk-Switch zu vermeiden . Dieser Modus bietet Fehlertoleranz.
XOR (Balance-Xor)
Übertragen Sie Netzwerkpakete basierend auf einem Hash von Quelle und Ziel des Pakets. Der Standardalgorithmus berücksichtigt nur MAC-Adressen ( Layer2 ). Neuere Versionen ermöglichen die Auswahl zusätzlicher Richtlinien basierend auf IP-Adressen ( Schicht2+3 ) und TCP/UDP-Portnummern ( Schicht3+4 ). Dadurch wird derselbe NIC-Slave für jede Ziel-MAC-Adresse, IP-Adresse oder Kombination aus IP-Adresse und Port ausgewählt. Einzelne Verbindungen haben eine garantierte Paketzustellung in der richtigen Reihenfolge und werden mit der Geschwindigkeit einer einzelnen NIC übertragen. Dieser Modus bietet Lastausgleich und Fehlertoleranz.
Sendung (Sendung)
Übertragen Sie Netzwerkpakete auf allen Slave-Netzwerkschnittstellen. Dieser Modus bietet Fehlertoleranz.
IEEE 802.3ad Dynamische Link-Aggregation (802.3ad, LACP)
Erstellt Aggregationsgruppen mit denselben Geschwindigkeits- und Duplexeinstellungen. Nutzt alle Slave-Netzwerkschnittstellen in der aktiven Aggregatorgruppe gemäß der 802.3ad-Spezifikation. Dieser Modus ähnelt dem obigen XOR-Modus und unterstützt die gleichen Balancing-Richtlinien. Die Verbindung wird dynamisch zwischen zwei LACP-unterstützenden Peers aufgebaut.
Adaptiver Lastausgleich beim Senden (balance-tlb)
Linux-Bonding-Treibermodus, der keine spezielle Netzwerk-Switch-Unterstützung erfordert. Der ausgehende Netzwerkpaketverkehr wird entsprechend der aktuellen Last (relativ zur Geschwindigkeit berechnet) auf jeden Netzwerkschnittstellen-Slave verteilt. Eingehender Verkehr wird von einer aktuell bezeichneten Slave-Netzwerkschnittstelle empfangen. Fällt dieser empfangende Slave aus, übernimmt ein anderer Slave die MAC-Adresse des ausgefallenen empfangenden Slaves.
Adaptiver Lastenausgleich (balance-alb)
enthält balance-tlb plus Receive Load Balancing (rlb) für IPv4-Datenverkehr und erfordert keine spezielle Netzwerk-Switch-Unterstützung. Die Empfangslastverteilung wird durch ARP- Aushandlung erreicht. Der Bonding-Treiber fängt die vom lokalen System gesendeten ARP-Antworten auf ihrem Weg nach außen ab und überschreibt die Quellhardwareadresse mit der eindeutigen Hardwareadresse eines der NIC-Slaves in der einzigen logischen Bonded-Schnittstelle, sodass verschiedene Netzwerk-Peers unterschiedliche MAC-Adressen für ihren Netzwerkpaketverkehr.

Linux Team-Treiber

Der Linux Team-Treiber bietet eine Alternative zum Bonding-Treiber. Der Hauptunterschied besteht darin, dass der Kernel-Teil des Team-Treibers nur den wesentlichen Code enthält und der Rest des Codes (Link-Validierung, LACP-Implementierung, Entscheidungsfindung usw.) im Userspace als Teil des Teamd- Daemons ausgeführt wird.

Verwendungszweck

Netzwerk-Backbone

Link Aggregation bietet eine kostengünstige Möglichkeit, ein Hochgeschwindigkeits- Backbone-Netzwerk einzurichten , das viel mehr Daten überträgt, als ein einzelner Port oder ein einzelnes Gerät liefern kann. Die Link-Aggregation ermöglicht es auch, die Backbone-Geschwindigkeit des Netzwerks mit steigender Nachfrage im Netzwerk inkrementell zu erhöhen, ohne dass alles ausgetauscht und neue Hardware bereitgestellt werden muss.

Bei den meisten Backbone-Installationen werden mehr Kabel- oder Glasfaserpaare installiert, als ursprünglich erforderlich, auch wenn die zusätzliche Verkabelung nicht sofort erforderlich ist. Dies geschieht, weil die Arbeitskosten höher sind als die Kosten für das Kabel und das Verlegen zusätzlicher Kabel die zukünftigen Arbeitskosten senkt, wenn sich die Netzwerkanforderungen ändern. Link Aggregation kann die Verwendung dieser zusätzlichen Kabel ermöglichen, um die Backbone-Geschwindigkeit für geringe oder keine zusätzlichen Kosten zu erhöhen, wenn Ports verfügbar sind.

Reihenfolge der Rahmen

Beim Ausgleichen des Datenverkehrs möchten Netzwerkadministratoren häufig die Neuordnung von Ethernet-Frames vermeiden. TCP erleidet beispielsweise zusätzlichen Overhead, wenn es mit Paketen außerhalb der Reihenfolge umgeht. Dieses Ziel wird angenähert, indem alle Frames, die einer bestimmten Sitzung zugeordnet sind, über denselben Link gesendet werden. Gängige Implementierungen verwenden L2- oder L3-Hashes (dh basierend auf den MAC- oder IP-Adressen), um sicherzustellen, dass immer der gleiche Fluss über den gleichen physikalischen Link gesendet wird.

Dies kann jedoch keine gleichmäßige Verteilung über die Verbindungen im Trunk gewährleisten, wenn nur ein einzelnes oder sehr wenige Paare von Hosts miteinander kommunizieren, dh wenn die Hashes zu wenig Variation bieten. Es begrenzt effektiv die Client-Bandbreite insgesamt auf die maximale Bandbreite seines einzelnen Mitglieds pro Kommunikationspartner. Im Extremfall ist ein Link vollständig geladen, während die anderen vollständig im Leerlauf sind. Aus diesem Grund wird in realen Implementierungen fast nie eine gleichmäßige Lastverteilung und volle Auslastung aller Trunked-Links erreicht. Fortgeschrittenere Switches können einen L4-Hash verwenden (dh die Verwendung von TCP/UDP-Portnummern), was die Verkehrsvariation über die Verbindungen erhöhen kann – je nachdem, ob die Ports variieren – und das Gleichgewicht einer gleichmäßigen Verteilung näher bringt.

Maximaler Durchsatz

Mehrere Schalter können für maximal zur Optimierung verwendet werden , den Durchsatz in einem mehrere Netzwerkschaltertopologie , wenn die Schalter so konfiguriert sind, parallel als Teil eines isolierten Netzwerkes zwischen zwei oder mehr Systemen. In dieser Konfiguration sind die Switches voneinander isoliert. Ein Grund für die Verwendung einer solchen Topologie ist, dass bei einem isolierten Netzwerk mit vielen Hosts (z. B. einem für hohe Leistung konfigurierten Cluster) die Verwendung mehrerer kleinerer Switches kostengünstiger sein kann als ein einzelner größerer Switch. Wenn ein Zugriff über das Netzwerk hinaus erforderlich ist, kann ein einzelner Host mit einem zusätzlichen Netzwerkgerät ausgestattet werden, das an ein externes Netzwerk angeschlossen ist; dieser Host fungiert dann zusätzlich als Gateway. Die Netzwerkschnittstellen 1 bis 3 des Computerclusterknoten A, beispielsweise über separates Netzwerk verbunden Schalter 1 bis 3 mit Netzwerkschnittstellen 1 bis 3 von Computer - Cluster - Knoten B; es gibt keine Verbindungen zwischen den Netzwerk-Switches 1 bis 3. Der in Konfigurationen dieses Typs typischerweise verwendete Linux-Bonding-Treibermodus ist balance-rr; der balance-rr-modus ermöglicht es einzelnen verbindungen zwischen zwei hosts, effektiv mehr als die bandbreite einer schnittstelle zu nutzen.

Verwendung auf Netzwerkschnittstellenkarten

Zusammengebündelte NICs können auch Netzwerkverbindungen bereitstellen, die über den Durchsatz einer einzelnen NIC hinausgehen. Dies ermöglicht beispielsweise einem zentralen Dateiserver, eine aggregierte 2-Gigabit-Verbindung unter Verwendung von zwei 1-Gigabit-NICs im Team aufzubauen. Beachten Sie, dass die Datensignalisierungsrate immer noch 1 Gbit/s beträgt, was je nach den Methoden zum Testen des Durchsatzes nach der Link-Aggregation irreführend sein kann.

Microsoft Windows

Microsoft Windows Server 2012 unterstützt die Link-Aggregation nativ. Frühere Windows Server-Versionen stützten sich auf die Herstellerunterstützung der Funktion in ihrer Gerätetreibersoftware . Intel hat beispielsweise Advanced Networking Services (ANS) herausgebracht, um Intel Fast Ethernet- und Gigabit-Karten zu verbinden.
Nvidia unterstützt auch "Teaming" mit ihrem Nvidia Network Access Manager/Firewall Tool. HP verfügt auch über ein Teaming-Tool für HP-Netzwerkkarten, das Nicht-EtherChanneled-NIC-Teaming ermöglicht oder mehrere EtherChannel-Modi (Port-Aggregation) einschließlich 802.3ad mit LACP unterstützt. Darüber hinaus gibt es eine grundlegende Layer-3-Aggregation (mindestens ab Windows XP SP3), die es Servern mit mehreren IP-Schnittstellen im selben Netzwerk ermöglicht, einen Lastausgleich durchzuführen, und Heimanwendern mit mehr als einer Internetverbindung, die Verbindung zu erhöhen Geschwindigkeit durch Lastverteilung auf alle Schnittstellen.
Broadcom bietet erweiterte Funktionen über die Broadcom Advanced Control Suite (BACS), über die die Teaming-Funktionalität von BASP ("Broadcom Advanced Server Program") verfügbar ist, die 802.3ad statische LAGs, LACP und "Smart Teaming" bietet, die keine erfordern Konfiguration auf den Schaltern zu arbeiten. Es ist möglich, Teaming mit BACS mit einer Mischung aus NICs verschiedener Anbieter zu konfigurieren, solange mindestens einer von ihnen Broadcom ist und die anderen NICs die erforderlichen Fähigkeiten zum Erstellen von Teaming haben.

Linux und UNIX

Linux , FreeBSD , NetBSD , OpenBSD , macOS , OpenSolaris und kommerzielle Unix-Distributionen wie AIX implementieren Ethernet-Bonding (Trunking) auf einer höheren Ebene und können daher mit NICs verschiedener Hersteller oder Treiber umgehen, solange die NIC von den Kernel.

Virtualisierungsplattformen

Citrix XenServer und VMware ESX bieten native Unterstützung für Link-Aggregation. XenServer bietet sowohl statische LAGs als auch LACP. vSphere 5.1 (ESXi) unterstützt sowohl statische LAGs als auch LACP nativ mit ihrem virtuellen Distributed Switch.
Für Microsofts Hyper-V wird Bonding oder Teaming nicht auf Hypervisor- oder Betriebssystemebene angeboten, aber die oben genannten Methoden zum Teaming unter Windows gelten auch für Hyper-V.

Einschränkungen

Einzelschalter

Bei den Modi balance-rr , balance-xor , Broadcast und 802.3ad müssen sich alle physischen Ports in der Link-Aggregation-Gruppe auf demselben logischen Switch befinden, was in den meisten gängigen Szenarien einen Single Point of Failure hinterlässt, wenn der physische Switch mit dem alle Links verbunden sind, geht offline. Die Modi active-backup , balance-tlb und balance-alb können auch mit zwei oder mehr Schaltern eingerichtet werden. Aber nach einem Failover (wie bei allen anderen Modi) können in einigen Fällen aktive Sitzungen fehlschlagen (aufgrund von ARP-Problemen) und müssen neu gestartet werden.

Fast alle Anbieter haben jedoch proprietäre Erweiterungen, die einige dieses Problems lösen: Sie fassen mehrere physische Switches zu einem logischen Switch zusammen. Das Split-Multi-Link-Trunking (SMLT)-Protokoll ermöglicht die Aufteilung mehrerer Ethernet-Links auf mehrere Switches in einem Stack, wodurch ein Single Point of Failure verhindert wird und zusätzlich die Lastverteilung aller Switches über mehrere Aggregation-Switches vom Single Access Stack ermöglicht wird. Diese Geräte synchronisieren den Status über einen Inter-Switch Trunk (IST), sodass sie für das verbindende (Zugriffs-)Gerät als ein einzelnes Gerät (Switch-Block) erscheinen und jegliche Paketduplizierung verhindern. SMLT bietet verbesserte Ausfallsicherheit mit Sub-Sekunden-Failover und Sub-Sekunden-Recovery für alle Geschwindigkeitsleitungen (10 Mbit/s, 100 Mbit/s, 1.000 Mbit/s und 10 Gbit/s) und arbeitet dabei transparent für die Endgeräte.

Gleiche Verbindungsgeschwindigkeit

In den meisten Implementierungen bestehen alle in einer Aggregation verwendeten Ports aus demselben physischen Typ, wie beispielsweise alle Kupferports (10/100/1000BASE-T), alle Multimode-Glasfaserports oder alle Singlemode-Glasfaserports. Der IEEE-Standard verlangt jedoch nur, dass jede Verbindung vollduplex ist und alle eine identische Geschwindigkeit aufweisen (10, 100, 1.000 oder 10.000 Mbit/s).

Viele Switches sind PHY-unabhängig, was bedeutet, dass ein Switch eine Mischung aus Kupfer, SX, LX, LX10 oder anderen GBICs haben kann. Während die Beibehaltung des gleichen PHY der übliche Ansatz ist, ist es möglich, eine 1000BASE-SX-Faser für einen Link und eine 1000BASE-LX (längerer, diverser Pfad) für den zweiten Link zu aggregieren, aber wichtig ist, dass die Geschwindigkeit 1 . beträgt Gbit/s Vollduplex für beide Verbindungen. Ein Pfad kann eine etwas längere Laufzeit haben, aber der Standard wurde so entwickelt, dass dies keine Probleme verursacht.

Nichtübereinstimmung der Ethernet-Aggregation

Aggregationskonflikt bezieht sich darauf, dass der Aggregationstyp an beiden Enden des Links nicht übereinstimmt. Einige Switches implementieren nicht den 802.1AX-Standard, unterstützen jedoch die statische Konfiguration der Link-Aggregation. Daher funktioniert die Link-Aggregation zwischen ähnlich statisch konfigurierten Switches, schlägt jedoch zwischen einem statisch konfigurierten Switch und einem für LACP konfigurierten Gerät fehl.

Beispiele

Ethernet

Bei Ethernet- Schnittstellen erfordert das Channel-Bonding die Unterstützung sowohl des Ethernet- Switch als auch des Betriebssystems des Host-Computers , das die Lieferung von Frames über die Netzwerkschnittstellen auf die gleiche Weise "stripen" muss , wie E/A über Festplatten in einem RAID 0- Array gestriped wird . Aus diesem Grund beziehen sich einige Diskussionen über Channel Bonding auch auf Redundant Array of Inexpensive Nodes (RAIN) oder auf "redundantes Array unabhängiger Netzwerkschnittstellen".

Modems

In analogen Modems können mehrere DFÜ- Verbindungen über POTS verbunden werden. Der Durchsatz über solche verbundenen Verbindungen kann der Gesamtbandbreite der verbundenen Verbindungen näher kommen als der Durchsatz unter Routing-Schemata, die einfach ausgehende Netzwerkverbindungen über die Verbindungen einen Lastausgleich durchführen.

DSL

Auf ähnliche Weise können mehrere DSL-Leitungen verbunden werden, um eine höhere Bandbreite zu erzielen; im Vereinigten Königreich ist ADSL manchmal gebunden , um beispielsweise 512 kbit/s Upload-Bandbreite und 4 Megabit/s Download-Bandbreite zu bieten, in Gebieten, die nur Zugang zu 2 Megabit/s Bandbreite haben.

DOCSIS

Unter den DOCSIS 3.0- und 3.1-Spezifikationen für Daten über Kabelfernsehsysteme (CATV) können mehrere Kanäle verbunden werden. Unter DOCSIS 3.0 können bis zu 32 Downstream- und 8 Upstream-Kanäle gebündelt werden. Diese sind typischerweise 6 oder 8 MHz breit. DOCSIS 3.1 definiert kompliziertere Anordnungen, die eine Aggregation auf der Ebene von Unterträgern und größeren fiktiven Kanälen beinhalten.

Drahtloses Breitbandnetzwerk

Breitband- Bonding ist eine Art von Kanal-Bonding, die sich auf die Aggregation mehrerer Kanäle auf OSI-Schichten auf Ebene vier oder höher bezieht . Gebündelte Kanäle können kabelgebundene Verbindungen wie eine T-1- oder DSL-Leitung sein . Darüber hinaus ist es möglich, mehrere Mobilfunkverbindungen für eine aggregierte drahtlose verbundene Verbindung zu verbinden.

Frühere Bonding-Methoden befanden sich auf niedrigeren OSI-Schichten und erforderten eine Koordination mit Telekommunikationsunternehmen für die Implementierung. Breitband-Bonding, da es auf höheren Schichten implementiert wird, kann ohne diese Koordination erfolgen.

Kommerzielle Implementierungen von Broadband Channel Bonding umfassen:

  • U-Bonding-Technologie der Wistron AiEdge Corporation
  • Breitband-Bonding-Service von Mushroom Networks
  • Connectifys Speedify Fast Bonding VPN - Software-App für mehrere Plattformen: PC, Mac, iOS und Android
  • SpeedFusion Bonding-Technologie von Peplink
  • Die Multichannel-VPN-Bonding-Technologie von Viprinet
  • Der sichere Mehrkanal-Datenlink von Elsight
  • Die Natiply Internet Bonding-Technologie von Synopi

W-lan

  • Bei 802.11 (Wi-Fi) wird Channel-Bonding in der Super-G- Technologie verwendet, die als 108Mbit/s bezeichnet wird. Es bindet zwei Kanäle von Standard 802.11g , die 54Mbit / s hat Datensignalisierungsrate .
  • Bei IEEE 802.11n ist ein Modus mit einer Kanalbreite von 40 MHz angegeben. Dabei handelt es sich nicht um Kanalbündelung, sondern um einen einzelnen Kanal mit der doppelten älteren 20-MHz-Kanalbreite, wodurch zwei benachbarte 20-MHz-Bänder genutzt werden. Dies ermöglicht eine direkte Verdoppelung der PHY-Datenrate von einem einzelnen 20-MHz-Kanal, aber der Durchsatz auf MAC- und Benutzerebene hängt auch von anderen Faktoren ab und kann sich daher nicht verdoppeln.

Siehe auch

Verweise

Allgemein

Externe Links