Agregacji łącza - Link aggregation

Agregacja łączy między przełącznikiem a serwerem

W sieci komputerowych , agregacji łącza jest łączenie ( agregację ) z wielu połączeń sieciowych równolegle przez jedną z kilku metod, w celu zwiększenia przepustowości poza to, co pojedyncza gra mogła wytrzymać, aby zapewnić nadmiarowość w jednym przypadku powiązań powinna zawieść, lub Zarówno. Grupa agregacji łączy ( LAG ) to połączony zbiór portów fizycznych.

Inne terminy zbiorcze używane do opisania tej koncepcji obejmują trunking , łączenie , łączenie , channeling lub teaming .

Implementacja może być zgodna ze standardami niezależnymi od dostawcy, takimi jak Link Aggregation Control Protocol (LACP) dla Ethernetu , zdefiniowanym w IEEE 802.1AX lub poprzednim IEEE 802.3ad , ale także z protokołami zastrzeżonymi .

Motywacja

Agregacja łączy zwiększa przepustowość i odporność połączeń Ethernet .

Wymagania dotyczące przepustowości nie skalują się liniowo. Przepustowość Ethernet historycznie wzrosła dziesięciokrotnie w każdej generacji: 10 megabitów /s, 100 Mbit/s, 1000 Mbit/s, 10 000 Mbit/s. Jeśli ktoś zaczął wpadać na pułapy przepustowości, jedyną opcją było przejście na następną generację, co może być zaporowe. Alternatywnym rozwiązaniem, wprowadzonym przez wielu producentów sieci na początku lat dziewięćdziesiątych, jest zastosowanie agregacji łączy w celu połączenia dwóch fizycznych łączy Ethernet w jedno łącze logiczne. Większość z tych wczesnych rozwiązań wymagała ręcznej konfiguracji i identycznego sprzętu po obu stronach połączenia.

Istnieją trzy pojedyncze punkty awarii typowe dla typowego połączenia port-kabel-port, w konfiguracji komputer-przełącznik lub przełącznik-przełącznik: sam kabel lub jeden z portów, do których jest podłączony kabel, może ulec awarii . Można nawiązać wiele połączeń logicznych, ale wiele protokołów wyższego poziomu nie zostało zaprojektowanych tak, aby całkowicie bezproblemowo przełączać się w tryb awaryjny. Połączenie wielu połączeń fizycznych w jedno połączenie logiczne za pomocą agregacji łączy zapewnia bardziej odporną komunikację.

Architektura

Architekci sieci mogą zaimplementować agregację w dowolnej z trzech najniższych warstw modelu OSI . Przykłady agregacji w warstwie 1 ( warstwa fizyczna ) obejmują urządzenia sieciowe (np. IEEE 1901 ) i bezprzewodowe (np. IEEE 802.11), które łączą wiele pasm częstotliwości. Warstwa 2 modelu OSI ( warstwa łącza danych , np. ramka Ethernet w sieciach LAN lub wielołączowe PPP w sieciach WAN, adres MAC w sieci Ethernet ) agregacja zwykle występuje między portami przełącznika, które mogą być portami fizycznymi lub wirtualnymi zarządzanymi przez system operacyjny. Agregacja w warstwie 3 ( warstwa sieciowa ) w modelu OSI może wykorzystywać szeregowanie okrężne, wartości skrótu obliczane z pól w nagłówku pakietu lub kombinację tych dwóch metod.

Niezależnie od warstwy, na której następuje agregacja, możliwe jest zrównoważenie obciążenia sieci na wszystkich łączach. Aby jednak uniknąć dostaw poza kolejnością , nie wszystkie implementacje to wykorzystują. Większość metod zapewnia również przełączanie awaryjne .

Łączenie może odbywać się w taki sposób, że wiele interfejsów współdzieli jeden adres logiczny (tj. IP) lub jeden adres fizyczny (tj. adres MAC), albo umożliwia to każdemu interfejsowi posiadanie własnego adresu. To pierwsze wymaga, aby oba końce łącza używały tej samej metody agregacji, ale ma przewagę wydajności nad drugim.

Łączenie kanałów różni się od równoważenia obciążenia tym, że równoważenie obciążenia dzieli ruch między interfejsami sieciowymi na podstawie gniazda sieciowego (warstwa 4), podczas gdy łączenie kanałów oznacza podział ruchu między interfejsami fizycznymi na niższym poziomie, albo na pakiet (warstwa 3), albo łącze danych (warstwa 2).

Agregacja łączy IEEE

Proces standaryzacji

W połowie lat 90. większość producentów przełączników sieciowych włączyła możliwość agregacji jako zastrzeżone rozszerzenie w celu zwiększenia przepustowości między swoimi przełącznikami. Każdy producent opracował własną metodę, co doprowadziło do problemów z kompatybilnością. Na spotkaniu w listopadzie 1997 roku grupa robocza IEEE 802.3 podjęła się stworzenia interoperacyjnego standardu warstwy łącza (tj. obejmującego zarówno warstwę fizyczną, jak i warstwę łącza danych). Grupa szybko zgodziła się na włączenie funkcji automatycznej konfiguracji, która również zwiększyłaby redundancję. Stało się to znane jako protokół kontroli agregacji łączy (LACP).

802.3ad

Od 2000 r. większość gigabitowych schematów łączenia kanałów wykorzystuje standard IEEE Link Aggregation, który wcześniej był klauzulą ​​43 standardu IEEE 802.3 dodanego w marcu 2000 r. przez grupę zadaniową IEEE 802.3ad. Prawie każdy producent sprzętu sieciowego szybko przejął ten wspólny standard w stosunku do własnych standardów.

802.1AX

W raporcie grupy zadaniowej ds. konserwacji protokołu 802.3 dla projektu z dziewiątą wersją z listopada 2006 r. zauważono, że niektóre warstwy 802.1 (takie jak zabezpieczenia 802.1X ) zostały umieszczone w stosie protokołów poniżej agregacji łączy, która została zdefiniowana jako podwarstwa 802.3 . Aby rozwiązać tę rozbieżność, utworzono grupę zadaniową 802.3ax (802.1AX), co doprowadziło do formalnego przeniesienia protokołu do grupy 802.1 z publikacją IEEE 802.1AX-2008 w dniu 3 listopada 2008 r.

Protokół kontroli agregacji łączy

W ramach standardów IEEE Ethernet protokół Link Aggregation Control Protocol (LACP) zapewnia metodę kontrolowania łączenia kilku fizycznych łączy w jedno łącze logiczne. LACP umożliwia urządzeniu sieciowemu negocjowanie automatycznego łączenia łączy poprzez wysyłanie pakietów LACP do urządzenia równorzędnego, bezpośrednio podłączonego urządzenia, które również implementuje LACP.

LACP Funkcje i praktyczne przykłady

  1. Maksymalna dozwolona liczba portów w pakiecie w kanale portu: Poprawne wartości to zwykle od 1 do 8.
  2. Pakiety LACP są wysyłane z adresem MAC grupy multicast 01:80:C2:00:00:02
  3. Podczas okresu wykrywania LACP
    • Pakiety LACP są przesyłane co sekundę
    • Mechanizm utrzymywania aktywności dla elementu linku: (domyślnie: slow = 30s, fast=1s)
  4. W niektórych implementacjach dostępny jest tryb równoważenia obciążenia do wyboru
  5. Tryb LACP :
    • Aktywny: bezwarunkowo włącza LACP.
    • Pasywny: Włącza LACP tylko po wykryciu urządzenia LACP. (Jest to stan domyślny)

Przewaga nad konfiguracją statyczną

  • Przełączanie awaryjne następuje automatycznie: Gdy łącze ma pośrednią awarię, na przykład w konwerterze mediów między urządzeniami, system równorzędny może nie dostrzegać żadnych problemów z łącznością. W przypadku statycznej agregacji łączy, peer będzie kontynuował wysyłanie ruchu przez łącze, powodując awarię połączenia.
  • Konfiguracja dynamiczna: urządzenie może potwierdzić, że konfiguracja po drugiej stronie obsługuje agregację łączy. W przypadku statycznej agregacji łączy błąd w okablowaniu lub konfiguracji może pozostać niewykryty i spowodować niepożądane zachowanie sieci.

Uwagi praktyczne

LACP działa poprzez wysyłanie ramek (LACPDU) w dół wszystkich łączy, które mają włączony protokół. Jeśli znajdzie urządzenie na drugim końcu łącza, które również ma włączoną obsługę LACP, to urządzenie będzie niezależnie wysyłać ramki wzdłuż tych samych łączy w przeciwnym kierunku, umożliwiając dwóm jednostkom wykrycie wielu łączy między sobą, a następnie połączenie ich w jedną logiczną połączyć. LACP można skonfigurować w jednym z dwóch trybów: aktywnym lub pasywnym. W trybie aktywnym jednostki LACPDU są wysyłane 1 na sekundę przez skonfigurowane łącza. W trybie pasywnym jednostki LACPDU nie są wysyłane, dopóki nie zostaną odebrane od drugiej strony, co jest protokołem mów, gdy mówisz.

Zastrzeżona agregacja linków

Oprócz podstandardów IEEE Link Aggregation istnieje wiele zastrzeżonych schematów agregacji, w tym Cisco EtherChannel i Port Aggregation Protocol , Juniper's Aggreged Ethernet, AVAYA's Multi-Link Trunking , Split Multi-Link Trunking , Routed Split Multi-Link Trunking i Distributed Split Multi-Link Trunking , Smartgroup ZTE, Eth-Trunk Huawei i Speedify Connectify . Większość zaawansowanych urządzeń sieciowych obsługuje pewną formę agregacji łączy. Implementacje oparte na oprogramowaniu — takie jak pakiet *BSD lagg , Linux bonding driver, Solaris dladm aggr itp. — istnieją dla wielu systemów operacyjnych.

Sterownik wiązania Linuksa

Sterownik powiązania systemu Linux udostępnia metodę agregacji wielu kontrolerów interfejsu sieciowego (NIC) w jeden logiczny interfejs połączony dwóch lub więcej tak zwanych (NIC) slave'ów . Większość współczesnych dystrybucji systemu Linux pochodzą z jądra Linuksa , który ma wiążący zintegrowane jako sterownik Linux ładowalny moduł jądra i ifenslave (if = [sieć] interface) na poziomie użytkownika preinstalowany program sterujący. Donald Becker zaprogramował oryginalny sterownik wiązania Linuksa. Wszedł do użycia z łatami klastra Beowulf dla jądra Linuksa 2.0.

Tryby kierowcy

Tryby dla sterownika wiązania Linux (tryby agregacji interfejsu sieciowego) są dostarczane jako parametry do modułu wiązania jądra w czasie ładowania. Mogą być podane jako argumenty wiersza poleceń do polecenia insmod lub modprobe, ale zwykle są określone w pliku konfiguracyjnym dystrybucji Linuksa. Zachowanie pojedynczego logicznego interfejsu wiązanego zależy od jego określonego trybu sterownika wiązania. Domyślnym parametrem jest balance-rr.

Round-robin (bilans-rr)
Przesyłaj pakiety sieciowe w kolejności sekwencyjnej od pierwszego dostępnego urządzenia podrzędnego interfejsu sieciowego (NIC) do ostatniego. Ten tryb zapewnia równoważenie obciążenia i odporność na błędy . Czasami może powodować rywalizację, ponieważ pakiety mogą być zmieniane w drodze do miejsca docelowego, chociaż istnieją środki zaradcze.
Aktywna kopia zapasowa (aktywna kopia zapasowa)
Tylko jedna podrzędna karta sieciowa w obligacji jest aktywna. Inny slave staje się aktywny wtedy i tylko wtedy, gdy aktywny slave ulegnie awarii. Adres MAC pojedynczego logicznie powiązanego interfejsu jest widoczny z zewnątrz tylko na jednej karcie sieciowej (port), aby uniknąć zniekształceń w przełączniku sieciowym . Ten tryb zapewnia odporność na uszkodzenia.
XOR (równowaga-xor)
Przesyłaj pakiety sieciowe na podstawie skrótu źródła i miejsca docelowego pakietu. Domyślny algorytm uwzględnia tylko adresy MAC ( warstwa 2 ). Nowsze wersje pozwalają na wybór dodatkowych polityk w oparciu o adresy IP ( warstwa 2+3 ) i numery portów TCP/UDP ( warstwa 3+4 ). Powoduje to wybranie tego samego urządzenia podrzędnego karty sieciowej odpowiednio dla każdego docelowego adresu MAC, adresu IP lub kombinacji adresu IP i portu. Pojedyncze połączenia będą gwarantowały dostarczanie pakietów „w porządku” i będą transmitować z szybkością pojedynczej karty sieciowej. Ten tryb zapewnia równoważenie obciążenia i odporność na błędy.
Transmisja (transmisja)
Przesyłaj pakiety sieciowe przez wszystkie podrzędne interfejsy sieciowe. Ten tryb zapewnia odporność na uszkodzenia.
Dynamiczna agregacja łączy IEEE 802.3ad (802.3ad, LACP)
Tworzy grupy agregacji, które mają te same ustawienia szybkości i dupleksu. Wykorzystuje wszystkie podrzędne interfejsy sieciowe w aktywnej grupie agregatorów zgodnie ze specyfikacją 802.3ad. Ten tryb jest podobny do powyższego trybu XOR i obsługuje te same zasady równoważenia. Łącze jest ustanawiane dynamicznie między dwoma równorzędnymi użytkownikami obsługującymi LACP.
Adaptacyjne równoważenie obciążenia transmisji (balance-tlb)
Tryb sterownika wiązania systemu Linux, który nie wymaga żadnej specjalnej obsługi przełączników sieciowych. Wychodzący ruch pakietów sieciowych jest dystrybuowany zgodnie z bieżącym obciążeniem (obliczonym w odniesieniu do prędkości) na każdym podrzędnym interfejsie sieciowym. Ruch przychodzący jest odbierany przez jeden aktualnie wyznaczony interfejs sieci podrzędnej. Jeśli to urządzenie podrzędne odbierające ulegnie awarii, inne urządzenie podrzędne przejmuje adres MAC uszkodzonego urządzenia podrzędnego odbierającego.
Adaptacyjne równoważenie obciążenia (balans-alb)
zawiera balance-tlb plus równoważenie obciążenia odbioru (rlb) dla ruchu IPV4 i nie wymaga żadnej specjalnej obsługi przełączników sieciowych. Równoważenie obciążenia odbieranego jest osiągane przez negocjacje ARP . Sterownik wiązania przechwytuje odpowiedzi ARP wysyłane przez system lokalny podczas ich wyjścia i nadpisuje źródłowy adres sprzętowy unikalnym adresem sprzętowym jednego z urządzeń podrzędnych karty sieciowej w pojedynczym logicznym interfejsie wiązanym, tak że różne sieci równorzędne używają różnych adresów MAC do ich ruch pakietów sieciowych.

Sterownik zespołu Linux

Sterownik Linux Team stanowi alternatywę dla sterownika powiązania. Główna różnica polega na tym, że część jądra sterownika zespołu zawiera tylko niezbędny kod, a reszta kodu (walidacja łącza, implementacja LACP, podejmowanie decyzji itp.) jest uruchamiana w przestrzeni użytkownika jako część demona zespołowego .

Stosowanie

Sieć szkieletowa

Agregacja łączy oferuje niedrogi sposób na skonfigurowanie szybkiej sieci szkieletowej, która przesyła znacznie więcej danych, niż może dostarczyć pojedynczy port lub urządzenie. Agregacja łączy umożliwia również stopniowy wzrost szybkości sieci szkieletowej wraz ze wzrostem zapotrzebowania w sieci, bez konieczności wymiany wszystkiego i wdrażania nowego sprzętu.

Większość instalacji szkieletowych instaluje więcej okablowania lub par światłowodów niż jest to początkowo konieczne, nawet jeśli nie ma natychmiastowej potrzeby dodatkowego okablowania. Dzieje się tak, ponieważ koszty pracy są wyższe niż koszt kabla, a prowadzenie dodatkowego kabla zmniejsza przyszłe koszty pracy, jeśli zmienią się potrzeby sieciowe. Agregacja łączy może pozwolić na użycie tych dodatkowych kabli w celu zwiększenia szybkości sieci szkieletowej przy niewielkim lub żadnym dodatkowym koszcie, jeśli porty są dostępne.

Kolejność ramek

Podczas równoważenia ruchu administratorzy sieci często chcą uniknąć zmiany kolejności ramek Ethernet. Na przykład TCP ponosi dodatkowe obciążenie, gdy ma do czynienia z pakietami poza kolejnością. Cel ten jest osiągany w przybliżeniu poprzez wysłanie wszystkich ramek związanych z daną sesją przez to samo łącze. Typowe implementacje wykorzystują skróty L2 lub L3 (tj. oparte na adresach MAC lub IP), zapewniając, że ten sam przepływ jest zawsze wysyłany przez to samo łącze fizyczne.

Jednak może to nie zapewnić równomiernego rozłożenia w łączach w trunku, gdy tylko jedna lub bardzo niewiele par hostów komunikuje się ze sobą, tj. gdy haszy zapewniają zbyt małą zmienność. Skutecznie ogranicza przepustowość klienta łącznie do maksymalnej przepustowości jednego członka na partnera komunikacji. W skrajnym przypadku jedno łącze jest w pełni obciążone, podczas gdy inne są całkowicie bezczynne. Z tego powodu równomierne równoważenie obciążenia i pełne wykorzystanie wszystkich łączy trunkingowych prawie nigdy nie jest osiągane w rzeczywistych implementacjach. Bardziej zaawansowane przełączniki mogą wykorzystywać hash L4 (tj. przy użyciu numerów portów TCP/UDP), co może zwiększyć zmienność ruchu na łączach – w zależności od tego, czy porty się różnią – i zbliżyć równowagę do równomiernego rozkładu.

Maksymalna przepustowość

Wiele przełączników można wykorzystać do optymalizacji pod kątem maksymalnej przepustowości w topologii wielu przełączników sieciowych , gdy przełączniki są skonfigurowane równolegle jako część odizolowanej sieci między dwoma lub większą liczbą systemów. W tej konfiguracji przełączniki są od siebie odizolowane. Jednym z powodów zastosowania takiej topologii jest wyizolowana sieć z wieloma hostami (na przykład klaster skonfigurowany pod kątem wysokiej wydajności), przy czym użycie wielu mniejszych przełączników może być bardziej opłacalne niż jednego większego przełącznika. Jeśli wymagany jest dostęp poza siecią, indywidualny host może być wyposażony w dodatkowe urządzenie sieciowe podłączone do sieci zewnętrznej; ten host dodatkowo działa jako brama. Na przykład interfejsy sieciowe od 1 do 3 węzła A klastra komputerów są połączone za pomocą oddzielnych przełączników sieciowych od 1 do 3 z interfejsami sieciowymi od 1 do 3 węzła B klastra komputerów ; nie ma wzajemnych połączeń między przełącznikami sieciowymi od 1 do 3. Tryb sterownika powiązania systemu Linux zwykle stosowany w tego typu konfiguracjach to balance-rr; tryb balance-rr umożliwia indywidualnym połączeniom między dwoma hostami efektywne wykorzystanie przepustowości większej niż jednego interfejsu.

Używaj na kartach sieciowych

Łączne karty sieciowe mogą również udostępniać łącza sieciowe wykraczające poza przepustowość pojedynczej karty sieciowej. Na przykład umożliwia to centralnemu serwerowi plików ustanowienie zagregowanego połączenia 2-gigabitowego przy użyciu dwóch połączonych ze sobą 1-gigabitowych kart sieciowych. Należy pamiętać, że szybkość sygnalizacji danych nadal będzie wynosić 1 Gbit/s, co może być mylące w zależności od metodologii stosowanych do testowania przepustowości po zastosowaniu agregacji łączy.

Microsoft Windows

Microsoft Windows Server 2012 obsługuje natywnie agregację łączy. Poprzednie wersje systemu Windows Server opierały się na wsparciu producenta tej funkcji w oprogramowaniu sterownika urządzenia . Intel , na przykład, wypuścił Advanced Networking Services (ANS), aby połączyć karty Intel Fast Ethernet i Gigabit.
Nvidia obsługuje również „zespolenie się” za pomocą Nvidia Network Access Manager / Firewall Tool. Firma HP posiada również narzędzie do tworzenia zespołów dla kart sieciowych marki HP, które umożliwia tworzenie zespołów kart sieciowych innych niż EtherChannel lub obsługuje kilka trybów EtherChannel (agregacja portów), w tym 802.3ad z LACP. Ponadto istnieje podstawowa agregacja warstwy 3 (dostępna przynajmniej w systemie Windows XP SP3), która umożliwia serwerom z wieloma interfejsami IP w tej samej sieci wykonywanie równoważenia obciążenia, a użytkownikom domowym z więcej niż jednym połączeniem internetowym na zwiększenie połączenia prędkość, dzieląc obciążenie na wszystkie interfejsy.
Broadcom oferuje zaawansowane funkcje za pośrednictwem pakietu Broadcom Advanced Control Suite (BACS), za pośrednictwem którego dostępna jest funkcja zespołowa BASP („Broadcom Advanced Server Program”), oferując statyczne LAG 802.3ad, LACP i „inteligentny zespół”, który nie wymaga żadnych konfiguracja przełączników do pracy. Możliwe jest skonfigurowanie pracy zespołowej za pomocą BACS z mieszanką kart sieciowych różnych dostawców, o ile przynajmniej jedna z nich to Broadcom, a pozostałe karty sieciowe mają wymagane możliwości tworzenia zespołów.

Linux i UNIX

Linux , FreeBSD , NetBSD , OpenBSD , macOS , OpenSolaris i komercyjne dystrybucje Uniksa, takie jak AIX, implementują wiązanie Ethernet (trunking) na wyższym poziomie, dzięki czemu mogą obsługiwać karty sieciowe różnych producentów lub sterowniki, o ile karta sieciowa jest obsługiwana przez jądro.

Platformy wirtualizacji

Citrix XenServer i VMware ESX mają natywną obsługę agregacji łączy. XenServer oferuje zarówno statyczne LAG, jak i LACP. vSphere 5.1 (ESXi) obsługuje zarówno statyczne LAG, jak i LACP natywnie za pomocą wirtualnego przełącznika rozproszonego.
W przypadku Hyper-V firmy Microsoft łączenie lub tworzenie zespołów nie jest oferowane z poziomu hiperwizora lub systemu operacyjnego, ale wyżej wymienione metody łączenia w grupy w systemie Windows dotyczą również Hyper-V.

Ograniczenia

Pojedynczy przełącznik

W trybach balance-rr , balance-xor , broadcast i 802.3ad , wszystkie porty fizyczne w grupie agregacji łączy muszą znajdować się na tym samym przełączniku logicznym, co w większości typowych scenariuszy pozostawia pojedynczy punkt awarii, gdy przełącznik fizyczny do którego podłączone są wszystkie linki, przechodzi w tryb offline. Tryby active-backup , balance-tlb i balance-alb można również ustawić za pomocą dwóch lub więcej przełączników. Jednak po przełączeniu awaryjnym (jak we wszystkich innych trybach), w niektórych przypadkach aktywne sesje mogą się nie powieść (z powodu problemów z ARP) i trzeba je będzie ponownie uruchomić.

Jednak prawie wszyscy dostawcy mają własne rozszerzenia, które rozwiązują niektóre z tych problemów: agregują wiele przełączników fizycznych w jeden przełącznik logiczny. Protokół Split multi-link trunking (SMLT) umożliwia podział wielu łączy Ethernet na wiele przełączników w stosie, zapobiegając pojedynczemu punktowi awarii i dodatkowo umożliwiając równoważenie obciążenia wszystkich przełączników w wielu przełącznikach agregujących z jednego stosu dostępu. Urządzenia te synchronizują stan przez łącze między przełącznikami (IST) w taki sposób, że wydają się urządzeniu łączącemu (dostępu) być pojedynczym urządzeniem (blok przełącznika) i zapobiegają powielaniu pakietów. SMLT zapewnia zwiększoną odporność dzięki sub-sekundowemu przełączaniu awaryjnemu i sub-sekundowemu odzyskiwaniu dla wszystkich szybkich łączy (10 Mbit/s, 100 Mbit/s, 1000 Mbit/s i 10 Gbit/s), jednocześnie działając transparentnie dla urządzeń końcowych.

Ta sama prędkość łącza

W większości implementacji wszystkie porty używane w agregacji są tego samego typu fizycznego, na przykład wszystkie porty miedziane (10/100/1000BASE‑T), wszystkie porty światłowodów wielomodowych lub wszystkie porty światłowodów jednomodowych. Jednak wszystkie wymagania standardu IEEE to, aby każde łącze było w trybie pełnego dupleksu i wszystkie miały identyczną prędkość (10, 100, 1000 lub 10 000 Mbit/s).

Wiele przełączników jest niezależnych od PHY, co oznacza, że ​​przełącznik może mieć mieszankę miedzi, SX, LX, LX10 lub innych GBIC. Chociaż zachowanie tej samej warstwy PHY jest typowym podejściem, możliwe jest zagregowanie światłowodu 1000BASE-SX dla jednego łącza i 1000BASE-LX (dłuższa, zróżnicowana ścieżka) dla drugiego łącza, ale ważne jest, aby prędkość wynosiła 1 Pełny dupleks Gbit/s dla obu łączy. Jedna ścieżka może mieć nieco dłuższy czas propagacji, ale standard został zaprojektowany tak, aby nie powodowało problemu.

Niezgodność agregacji Ethernet

Niezgodność agregacji odnosi się do niezgodności typu agregacji na obu końcach łącza. Niektóre przełączniki nie implementują standardu 802.1AX, ale obsługują statyczną konfigurację agregacji łączy. W związku z tym agregacja łączy między podobnie skonfigurowanymi przełącznikami będzie działać, ale nie powiedzie się między przełącznikiem skonfigurowanym statycznie a urządzeniem skonfigurowanym do obsługi protokołu LACP.

Przykłady

Ethernet

Na Ethernet interfejsy, łączenie kanałów wymaga pomocy ze strony zarówno Ethernet switch i komputer hosta systemu operacyjnego , który musi „paskiem” dostawa klatek całej interfejsów sieciowych w taki sam sposób, że I / O jest rozkładane na dyskach w RAID 0 tablicy . Z tego powodu niektóre dyskusje na temat łączenia kanałów odnoszą się również do nadmiarowej tablicy niedrogich węzłów (RAIN) lub „nadmiarowej tablicy niezależnych interfejsów sieciowych”.

Modemy

W modemach analogowych można połączyć wiele łączy dial-up przez POTS . Przepustowość takich połączeń wiązanych może być bliższa łącznej przepustowości łączy wiązanych niż przepustowość w ramach schematów trasowania, które po prostu równoważą obciążenie wychodzących połączeń sieciowych przez łącza.

DSL

Podobnie można połączyć wiele linii DSL, aby uzyskać większą przepustowość; w Wielkiej Brytanii , ADSL jest czasem związana dać na przykład 512kbit / s przepustowości wysyłania i 4 Mb / s pobierania przepustowość, w obszarach, które mają dostęp tylko do 2 Mb / s przepustowości.

DOCSIS

Zgodnie ze specyfikacjami DOCSIS 3.0 i 3.1 dla systemów transmisji danych przez telewizję kablową (CATV), wiele kanałów może być powiązanych. W DOCSIS 3.0 można połączyć do 32 kanałów downstream i 8 kanałów upstream. Mają one zwykle szerokość 6 lub 8 MHz. DOCSIS 3.1 definiuje bardziej skomplikowane układy obejmujące agregację na poziomie podnośnych i większe kanały pojęciowe.

Bezprzewodowe łącze szerokopasmowe

Łączenie szerokopasmowe to rodzaj łączenia kanałów, który odnosi się do agregacji wielu kanałów w warstwach OSI na poziomie czwartym lub wyższym. Połączone kanały mogą być łączami przewodowymi, takimi jak linia T-1 lub DSL . Dodatkowo, możliwe jest łączenie wielu łączy komórkowych dla zagregowanego bezprzewodowego łącza wiązanego.

Poprzednie metodologie łączenia znajdowały się w niższych warstwach OSI, co wymagało koordynacji z firmami telekomunikacyjnymi w celu wdrożenia. Wiązanie szerokopasmowe, ponieważ jest realizowane w wyższych warstwach, może być wykonane bez tej koordynacji.

Komercyjne wdrożenia Broadband Channel Bonding obejmują:

  • Technologia U-bonding firmy Wistron AiEdge Corporation
  • Usługa łączenia szerokopasmowego Mushroom Networks
  • Speedify Fast Bonding VPN firmy Connectify — aplikacja na wiele platform: PC, Mac, iOS i Android
  • Technologia klejenia SpeedFusion firmy Peplink
  • Wielokanałowa technologia łączenia VPN firmy Viprinet
  • Wielokanałowe bezpieczne łącze danych Elsight
  • Technologia łączenia internetowego Natiply firmy Synopi

Wi-Fi

  • W 802.11 (Wi-Fi) łączenie kanałów jest używane w technologii Super G , określanej jako 108 Mbit/s. Łączy dwa kanały standardu 802.11g , który ma szybkość przesyłania danych 54Mbit/s .
  • W standardzie IEEE 802.11n określono tryb o szerokości kanału 40 MHz. Nie jest to łączenie kanałów, ale pojedynczy kanał o podwójnej szerokości starszego kanału 20 MHz, a zatem wykorzystujący dwa sąsiednie pasma 20 MHz. Pozwala to na bezpośrednie podwojenie szybkości transmisji danych PHY z pojedynczego kanału 20 MHz, ale przepustowość MAC i przepustowość na poziomie użytkownika zależy również od innych czynników, więc nie może się podwoić.

Zobacz też

Bibliografia

Ogólny

Zewnętrzne linki