SIECI
KOMPUTEROWE I - Przełączniki
PRZEŁĄCZNIK ETERNETOWY
Przełączniki
Ethernetowe, to urządzenia pracujące w warstwie drugiej modelu OSI, czyli w
warstwie łącza danych. Co prawda nowoczesne konstrukcje potrafią korzystać z
informacji zawartych w warstwach wyższych (jest to głównie funkcjonalność
związana z routingiem, zagadnieniami jakości usług i bezpieczeństwem), ale na
użytek tego artykułu założymy, że funkcjonalność przełączników ogranicza się
tylko do warstwy drugiej (L2) modelu OSI.
Różnice pomiędzy
koncentratorami a przełącznikami
Kluczowe
różnice pomiędzy stosowanymi wcześniej i obecnie wychodzącymi z użycia
koncentratorami a przełącznikami, to przede wszystkim:
1. Ograniczenie domeny kolizyjnej w przełączniku do
pojedynczego portu.
Dla
koncentratorów, domena kolizyjna rozciąga się na wszystkie porty urządzenia,
lub wszystkie porty wielu połączonych koncentratorów (w nowszych
koncentratorach port uplink funkcjonował jak bridge, dzieląc domenę kolizyjną,
ale i tak nie poprawia to znacząco charakterystyk pracy tych urządzeń w dużych
instalacjach). Biorąc pod uwagę, że we wszystkich rodzajach sieci Ethernet
stosuje się mechanizm CSMA/CD,
w sieci zbudowanej w oparciu o koncentratory na raz może nadawać tylko jedna
stacja. Dzięki ciągłemu konkurowaniu o dostęp do współdzielonego nośnika,
realnie obserwujemy "jednoczesną" pracę wszystkich stacji, ale
przepustowość w takiej sieci jest daleka od teoretycznej przepustowości
nośnika. Co więcej, w sieciach budowanych w oparciu o koncentratory bardzo
często zdarza się, że stacje silniejsze sprzętowo są w stanie częściej wysyłać
dane niż stare, wolne komputery.
Dla
przełącznika domena kolizyjna zostaje zmniejszona do pojedynczego portu, co
efektywnie oznacza, że każdy port może niezależnie odbierać i nadawać dane do
użytkownika (a użytkownik "do sieci") z wcześniej ustaloną prędkością
i trybem dupleksu. Dodatkowo, nowoczesne przełączniki budowane są w architekturze
nieblokującej, co w praktyce oznacza, że naprawdę każdy port może teoretycznie
pracować z maksymalną prędkością, a przełącznik zapewni wymianę danych. Starsze
urządzenia miały albo niewystarczającą wydajność aby obsłużyć pełne wymagane
pasmo, albo zbyt mało pamięci by zbuforować na odpowiednio długi czas dane.
Część z nich jest nadal produkowana i sprzedawana!
2. Przełączniki, w jednej obudowie integrują zwykle
wiele różnych typów mediów pracujących z różnymi prędkościami.
Jest
to cecha praktycznie nieosiągalną na koncentratorach (poza bardzo specyficznymi
rozwiązaniami). W standardowych przełącznikach dostępowych (przeznaczonych do
agregacji użytkowników), najwięcej jest zwykle portów 10/100 lub 10/100/1000
RJ-45 do połączeń zwykłą skrętką, ale oprócz tego oferuje się zwykle jeden lub
dwa zabudowane porty Gigabitowe, lub moduły GBIC/SFP do podłączenia wymiennych
modułów 1000BaseT/BaseSX/BaseLX/BaseZX zwiększających elastyczność
przełącznika. Coraz częściej użytkownik otrzymuje nawet 4 porty na moduły GBIC,
lub dwa zabudowane porty 10/100/1000 i dwa porty GBIC, które jeśli zostaną
wyposażone w moduły blokują skojarzony z nimi port 10/100/1000.
3. Koncentratory nie oferują żadnych mechanizmów
zapewniania jakości usług (ang. QoS, Quality of Service).
Przełączniki,
w zależności od stopnia skomplikowania, oferują prioretyzację pakietów (np. wg.
standardu 802.1p),
klasyfikację i reklasyfikację na podstawie zestawu kryteriów, ograniczanie
zajmowanego przez dany rodzaj ramek/pakietów pasma, czy również ograniczanie
dostępnego pasma per port lub per VLAN. Taki zestaw funkcjonalności stanowi
wielką zaletę w sieci, w której pracuje wiele różnych usług i aplikacji a użytkownik
jest w stanie świadomie określić politykę kontroli ruchu - gwarantowanie pasma,
prioretyzację określonego ruchu itp.
4. Koncentratory nie oferują żadnych mechanizmów
zapewniania bezpieczeństwa w sieci.
Każda
stacja podłączona do koncentratora otrzymuje transmisje do innych stacji i jest
w stanie efektywnie, bez żadnych specjalnych zabiegów podsłuchać cały przebieg
np. logowania się z innej stacji do uwierzytelnianej usługi.
Przełączniki
domyślnie uczą się, do którego portu wysyłać dane adresowane dla konkretnego
adresu MAC, co już wymaga od atakującego podjęcia jakiegoś rodzaju aktywnego
działania (wprowadzenia w błąd przełącznika, lub przełącznika i atakowanej
stacji), by przechwytywać ruch nie adresowany bezpośrednio do nich. Co więcej,
większość obecnie produkowanych przełączników oferuje możliwość ograniczenia
ilości źródłowych adresów MAC pojawiających się na konkretnym porcie do
arbitralnej wartości. Taki mechanizm zapobiega atakowi, w którym stacja
generuje mnóstwo losowych źródłowych adresów MAC, starając się przepełnić
pamięć przełącznika i zamienić go efektywnie w koncentrator. Atak taki
umożliwiają popularne aplikacje dsniff
i ettercap. Jeszczcze bardziej
zaawansowane konstrukcje pozwalają na filtrowanie ruchu na podstawie danych z
nagłówka IP czy nawet warstwy czwartej - portów TCP/UDP.
Niezależnie
od możliwości filtrowania ruchu wg. określonych kryteriów, na przełącznikach
istnieje możliwość podziału sieci LAN w warstwie drugiej na osobne VLANy (ang.
VLAN, Virtual LAN), które w większości przypadków skutecznie blokują
komunikację pomiędzy dwoma różnymi stacjami w dwóch różnych VLANach. Dalszy
podział, w ramach pojedynczego VLANu zapewnia koncepcja Private
VLANu, która oddziela komunikację w warstwie drugiej pomiędzy stacjami w
tym samym VLANie. W takiej konfiguracji stacje nawet w tym samym VLANie mogą
komunikować się jedynie z wyznaczonym routerem, i każdy rodzaj komunikacji
stacja-stacja musi odbywać się za jego pośrednictwem. Ostatnim krzykiem mody,
jeśli chodzi o bezpieczeństwo na przełącznikach, stał się ratyfikowany niedawno
protokół 802.1X.
Stacja podłączona do portu pracującego w trybie 802.1X musi najpierw przejść
zakończone sukcesem uwierzytelnienie, zanim będzie mogła wysłać i odebrać
jakiekolwiek inne ramki do/z sieci poza ramkami protokołu EAP.
5. Przełaczniki mogą być łączone ze sobą więcej niż
jednym łączem fizycznym, pod warunkiem, że obsługują protokół agregacji
połączeń lub/i protokół Spanning Tree.
Próba
połączenia koncentratorów dwoma równoległymi fizycznymi połączeniami doprowadzi
do pętli w warstwie drugiej i paraliżującego sieć lokalną sztormu ramek.
Ratyfikowany przez IEEE standard 802.3ad
w połączeniu z protokołem LACP (ang. Link Aggregation Control Protocol)
umożliwia w przypadku zastosowania przełączników, równoległe połączenie do
ośmiu fizycznych łącz, tworzących jedno łącze logiczne. W prosty sposób
udostępnia to pasmo dla ruchu przełącznik-przełącznik, będące sumą
przepustowości pojedynczych łącz fizycznych.
Przełączniki
chronią sieć przed powstaniem pętli w warstwie drugiej za pomocą protokołu
Spanning Tree (IEEE 802.1D).
W wyniku jego działania, zablokowane zostają redundantne połączenia tak, by
topologia sieci nie zawierała żadnej pętli. Czas konwergencji sieci, w której
działa tradycyjny protokół Spanning Tree wynosi około 45 sekund od momentu
awarii. Ratyfikowana niedawno ulepszona wersja tego protokołu, nazwana Rapid
Spanning Tree (IEEE 802.1w)
oferuje czas konwergencji zbliżony do 2-3 sekund.
Należy
pamiętać, że nie wszystkie przełączniki obsługują protokół Spanning Tree, a
najmniejsze z tych, które protokół obsługują, wspierają zwykle tylko tradycyjne
Spanning Tree i w dodatku bardzo często należy tą obsługę włączyć ręcznie!
Między sobą przełączniki
komunikują się, rozgłaszając ramki BPDU (ang. Bridge Protocol Data Unit).
Podstawowe zasady pracy mostu są takie same, jak przełącznika. Tak samo
przełącznik jak most, uczy się na podstawie adresów źródłowych MAC (ang. Media
Access Control) ramek, a przełącza je na podstawie adresów docelowych. Również
zasady przełączania jak i działania algorytmów spanning-tree są identyczne.
Różnice między przełącznikiem a mostem to:
-
Przełącznik jest znacznie szybszy, ponieważ działa w oparciu o układ scalony,
natomiast most ma oprogramowanie w formie software'owej.
-
Most ma maksymalnie 16 portów, przełącznik może mieć ich setki.
-
Most jedynie forwarduje odbierane pakiety z jednego portu do innego na
podstawie odczytanego źródłowego adresu MAC, przełącznik natomiast może
przekazywać pakiety do dowolnego portu, na podstawie zarówno źródłowego jak i
docelowego adresu MAC.
Do
jednego portu mostu może być przypisane dokładnie jedno drzewo rozpinające, w
przełączniku może być ich wiele.
Transmisja
monokanałowa – nadają tylko dwie
jednostki w jednym czasie
Mikrosegmentacja
– poprzez wydzielenie mikrokanałów w przełączniku, w
jednym czasie może występować transmisja
między wieloma
parami jednostek.
TECHNIKI ŁĄCZENIA PRZEŁĄCZNIKÓW
Na
etapie projektowania sieci LAN, musimy podjąć decyzję jakie urządzenia i o
jakiej gęstości portów zastosujemy. Współczesne przełączniki dostosowane do
montażu w szafach 19", oferowane są w wykonaniu zwykle z 12, 24 lub 48
portami różnych typów (przełaczniki nieprzystosowane do montażu w szafach
19" bardzo rzadko są zarządzalne i obsługują protokół Spanning Tree).
Zwykle
podczas doboru sprzętu do konkretnej instalacji, musimy w naszych rozważaniach
uwzględnić, że:
1. praktycznie nigdy nie zdarza się, aby urządzenie
posiadało dokładnie tyle portów ile potrzebujemy, a nawet jeśli, to
2. sieci raczej się rozrastają niż maleją
Biorąc
to pod uwagę, należy zawsze myśleć o doborze sprzętu w ten sposób, aby dodanie kolejnych
paru stacji nie spowodowało konieczności poniesienia dużych wydatków, lub
wymagało kompletnego przeprojektowania sieci zarówno w warstwie logicznej jak i
fizycznej.
Mając
zatem do podłączenia 10 stacji, wybierzmy urządzenie 24-portowe, a 35 stacji -
dwa połączone przełączniki 24-portowe, lub jeden 48-portowy.
Wybór
sposobu połączenia wielu przełączników istotnie wpływa zarówno na późniejszą
funkcjonalność sieci, jak i na sposób jej wykonania.
Rozważając
topologie połączeń, założymy, że do naszej dyspozycji są przełączniki - o
koncentratorach naprawdę proszę już zapomnieć. Ich zastosowanie w nowych
instalacjach nie jest uzasadnione w żaden sposób - przełączniki są
wydajniejsze, generalnie tańsze i oferują nieporównywalnie większą
funkcjonalność.
Notatka: Użyte na
rysunkach ikony, pochodzą z programu Microsoft Visio, oraz ze stron Cisco,
ale użyto ich jedynie dla wygody prezentacji połączeń - artykuł opisuje ogólne
zasady działające na wszystkich przełącznikach funkcjonujących zgodnie z
przyjętymi ogólnie zasadami i odpowiednimi standardami (chyba, że wprost
zaznaczono inaczej).
Najprostszym
w realizacji połączeniem dwóch przełączników jest połączenie pary urządzeń
port-port. Jeśli przełącznik obsługuje automatyczną negocjację MDI/MDIX na
porcie, do połączenia portów możemy użyć dowolnego kabla krosowego. Jeśli
przełącznik nie obsługuje tej negocjacji, dwa przełączniki łączymy patchcordem
skrosowanym.
Z
punktu widzenia topologii sieci nie ma żadnego znaczenia, czy łączymy
przełączniki portami przeznaczonymi do agregacji stacji, czy uplinkami. Jedyną
różnicą pozostaje przepustowość portu - i dlatego właśnie do połączeń pomiędzy
przełącznikami używa się dedykowanych portów o większej przepustowości. W
starych przełącznikach 10BaseX uplinki wykonane były zwykle w technologii
100BaseX, w obecnie używanych przełącznikach 100BaseX czy nawet
10/100/1000BaseX stosuje się uplinki gigabit-ethernetowe lub w rozwiązaniach
szkieletowych - 10GbE.
Wady
takiego połączenia, to:
1. Relatywnie niewielka wydajność.
Dla
stacji podłączonych do przełącznika A, pasmo dostępne w ruchu do i z stacji
podłączonych do przełącznika B ograniczone jest do prędkości pracy tego
pojedynczego portu. Dla sytuacji z dwoma przełącznikami, nie wygląda to źle,
ale jeśli połączymy je w "łańcuszek", bardzo trudno przewidzieć pasmo
dostępne dla stacji podłączonych do "zewnętrznych" przełączników (o
tym za moment)
2. Mała skalowalność.
Ilość
przełączników połączonych w "łańcuszek" istotnie zależy od możliwości
każdego z przełączników. O ile obecnie stosuje się wbudowane bufory po 8192 lub
16384 adresy MAC na całe urządzenie, to starsze urządzenia często miały
ograniczenia dotyczące ilości adresów MAC "widzianych" na pojedynczym
porcie. Co więcej, dodawanie kolejnych przełączników "w łańcuszek"
będzie obniżało dostępne pasmo dla ruchu, który musi zostać przeniesiony
pomiędzy stacjami podłączonymi do różnych przełączników.
3. Brak redundantności.
Jeśli
przełącznik nie obsługuje protokołu Spanning Tree, nie możemy ani utworzyć
pętli w takiej sieci, ani połączyć żadnej pary przełączników więcej niż jednym
połączeniem. W przypadku awarii portu lub kabla krosowego, musimy interweniować
osobiście, aby przywrócić łączność pomiędzy przełącznikami.
Natomiast
zaletami będą niewątpliwie:
1. Niski koszt realizacji.
Połączenie
dwóch przełączników to koszt jednego kabla krosowego, trzech przełączników -
dwóch kabli krosowych itd.
2. Szybka rozbudowa sieci.
Wykonanie
połączenia nie wymaga zwykle żadnej rekonfiguracji portów, a zatem może być
wykonane przez praktycznie dowolną osobę.
POŁĄCZENIE POPRZEZ AGRAGACJĘ PORTÓW
W
tworzeniu wielu redundantnych połączeń pomiędzy parą przełączników, urządzenia
"bronią się" w tym momencie przed powstaniem pętli w warstwie drugiej
za pomocą protokołu Spanning Tree, blokując do czasu zmiany topologii sieci
(zwykle w wyniku awarii, lub celowego działania) wszystkie nadmiarowe
połączenia.
Aby
obejść ten problem i wykorzystać potencjalną możliwość stworzenia połączenia o
większej przepustowości niż oferowana przez pojedyńczy port, stworzono ideę
agregacji portów fizycznych w jedno połączenie logiczne. W tym momencie, dla
protokołu Spanning Tree cała agregacja (składająca się np. z 4 fizycznych
portów 10/100FE czy GE) tworzy jedno połączenie. Dla użytkowników oznacza to
możliwość skorzystania z sumy przepustowości poszczególnych portów fizycznych.
Z
reguły, aby konfiguracja agregacji na parze przełączników przebiegła pomyślnie,
należy na obu urządzeniach:
wybrać
do agregacji taką samą ilość i typ portów (pod względem typu medium,
skonfigurowanej prędkości i trybu pracy - pół lub pełnego dupleksu);
wybrać
nie więcej niż 8 portów (w standardzie 802.3ad mowa o maksymalnie ośmiu portach
tego samego typu); w niektórych implementacjach, w szczególności w
przełącznikach prostszych, często producent dodatkowo ogranicza liczbę portów
biorących udział w agregacji - do 2 lub 4;
jeśli
posiadamy dwa przełaczniki różnych producentów, należy skonfigurować na obu ten
sam standard agregacji (praktycznie spotyka się tylko Ciscowy (Giga|Fast)EtherChannel
oraz IEEE 802.3ad) i ewentualnie odpowiedni protokół kontroli tak utworzonej agregacji
(znowu firmowy Cisco PAgP lub IEEE LACP);
w
produktach niektórych producentów tak stworzoną agregację należy jeszcze wprost
uaktywnić;
Jeśli
wszystko przebiegło poprawnie, pomiędzy przełącznikami stworzone zostanie
pojedyńcze logiczne połączenie, o przepustowości będącej sumą przepustowości
pojedynczych fizycznych połączeń. Innymi słowy, łącząc np. po dwa fizyczne
porty GigabitEthernet na przełączniku, tworzymy agregację o przepustowości
2Gbit/s, a osiem portów 100BaseTX - o przepustowości 800Mbit/s.
Dodatkową
zaletą agregacji portów jest fakt, że obecnie większość przełączników pozwala
stworzyć wiele agregacji jednocześnie. Pozwala to elastycznie, wydajnie i
ekonomicznie rozbudowywać sieć o nowe lokacje zdalne.
Należy
jednak pamiętać o pewnym ograniczeniu, wynikającym z konstrukcji przełączników
i samego protokołu IEEE 802.3ad. Otóż w przeważającej większości konstrukcji,
transmisja danych pomiędzy daną parą urządzeń identyfikowaną przez adresy MAC,
odbywa się zawsze tym samym fizycznie łączem, niezależnie od ilości i istnienia
innych łącz w agregacji. Dopiero zastosowanie większych przełączników,
nierzadko potrafiących również prowadzić routing, umożliwia wybór algorytmu
rozkładania ramek pomiędzy łącza fizyczne w agregacji.
Takie
ograniczenie dla sieci z dużą ilością stacji nie stanowi zwykle problemu
(proszę jednak pamiętać, że transmisja dla danej pary stacji nie przekroczy w
tej sytuacji przepustowości pojedynczego portu fizycznego!). Jeśli jednak
budujemy specjalną agregację np. 8 portów GigabitEthernet dla transmisji
pomiędzy dwoma stacjami - należy rozejrzeć się za przełącznikiem potrafiącym
wykonać rozłożenie ruchu pomiędzy połączeniami efektywniej.
Do
niedawna wiele firm używało w różnych związkach znaczeniowych terminu trunk.
Np. w terminologii 3COM do momentu pojawienia się przełączników 7700, trunk był
właśnie połączeniem agregacyjnym wielu fizycznych portów, a port skonfigurowany
do przenosznia wielu VLANów nazywano po prostu portem tagowanym (od znaczników,
ang. tags, dodawanych do każdej ramki by wskazać jej przynależność do VLANu).
Obecnie
osiągnięto pewien konsensus co do nazewnictwa i terminem trunk określa się
połączenie logiczne lub fizyczne, przenoszące więcej niż jeden VLAN. Natomiast
Agregacja portów to właśnie albo oznaczenie portów skonfigurowanych wg.
standardu 802.3ad albo wg. firmowego standardu producenta (np. Cisco
EtherChannel).
Problemy
z możliwością rozbudowy sieci opartej o przełączniki były doskonale znane
producentom i bardzo szybko pojawiło się rozwiązanie, które nie zajmując
cennych portów, pozwala połączyć przełączniki magistralą o dużej
przepustowości. Ponieważ nigdy nie doszło do próby standaryzacji takich
rozwiązań (a same połącznia tego typu ściśle związane są z architekturą
przełącznika), są one specyficzne nie tylko dla danego producenta, ale zwykle
też dla danej rodziny czy nawet modelu przełaczników.
Termin
stakowanie pochodzi od angielskiego słowa stacking i oznacza po prostu
układanie jednego urządzenia na drugim (czasami stosuje się w języku polskim
również sformuowanie "połączyć w stos").
Niezależnie
od zestakowania przełączników ze sobą, zwykle dostępne pozostają wszystkie
porty z "panelu czołowego" przełącznika, co oznacza że nadal możemy agregować
np. gigabitowymi uplinkami połączenia z odległych lokalizacji. W rozwiązaniach
niektórych producentów możliwe jest nawet, by pojedyncza agregacja fizycznie
składała się z portów na różnych członkach stosu - wpływa to znakomicie na
niezawodność takiej sieci.
Stakowanie
przyniosło następujące zalety:
połączenie
przełączników w stos nie powoduje utraty jednego lub większej ilości portów
przeznaczanych normalnie na podłączenie stacji
połączenie
w stos odbywa się w większości konstrukcji przez bezpośrednie połączenie szyn
danych przełączników, co oznacza że przepustowość takiego połączenia jest
wyższa niż zwykłego połączenia za pomocą pojedynczych portów
z
punktu widzenia zarządzania większą siecią, stakowanie oszczędza nam zasoby -
np. jeśli do tej pory każdy przełącznik otrzymał swój adres IP aby można nim
było zdalnie zarządzań przez interfejs WWW czy Telnet/SSH, po połączeniu w stos
czterech jednostek wystarczy jeden adres zamiast 4.
Stakowanie
realizowane jest fizycznie, jako włożenie specjalnej karty (np. karta Matrix
firmy 3COM), lub po prostu połączenie specjalnymi kablami zabudowanych na stałe
z tyłu urządzenia portów przeznaczonych do stakowania (porty StackWise na
przełącznikach Cisco Catalyst 3750).
Stare
rozwiązania oferowały przepustowości przekraczające zwykle 100Mbit/s, ale
rzadko przekraczające 1Gbit/s (np. moduł Matrix
firmy 3COM dla przełączników 3300 to połączenie do 4 przełączników szyną o
przepustowości 500Mbit/s, a moduł stakujący do rodziny
4400 to połączenie szyną 4Gbit/s). Nowe rozwiązania, stworzone już po
upowszechnieniu się Ethernetu gigabitowego, oferują odpowiednio większą
przepustowość. Rozwiązanie StackWise
stosowane na przełącznikach Catalyst 3750 oferuje wspólną szynę 16Gbit/s
(32Gbit/s full-dupleks) dla do 9 urządzeń.
Dodatkowym
rodzajem połączenia przełączników, nie wpływającym jednak na możliwości
zapewnienia dodatkowej przepustowości pomiędzy fizycznymi urządzeniami, jest
łączenie w klastry. Podobnie jak stakowanie, łączenie w klastry to również
rozwiązania firmowe wielu różnych firm (Cisco, 3COM, Allied Telesyn itp.),
które ma na celu ułatwienie zarządzania grupą przełączników fizycznie
rozproszonych (przyjęło się bowiem, z uwagi na ograniczenia elektroniki, że
stos realizuje się okablowaniem relatywnie krótkim - od 10-15cm do 1,5 metra -
bardzo rzadko dłuższym).
Wirtualna sieć lokalna (VLAN) to
sieć umożliwiająca logiczne (wirtualne) grupowanie stanowisk roboczych,
niezależnie od tego gdzie są one
fizycznie zainstalowane.
Możliwy
jest fizyczny podział sieci na dowolną liczbę segmentów bez uwzględniania
położenia stanowisk roboczych oraz koncentracja wszystkich serwerów w jednym
miejscu.
Segmentacja wirtualna, polegająca na logicznym
wydzieleniu z sieci fizycznej określonej grupy, lub nienakładających się grup użytkowników
(stacji końcowych, serwerów, terminali), zwanych segmentem wirtualnym (ang. virtual
segment). Każdy segment funkcjonuje w tym przypadku jako autonomiczna
domena sieci, identyfikowana jednym adresem sieciowym (np. w protokole IP).
Przekaz informacji pomiędzy różnymi segmentami wymaga obecności
wieloprotókołowych routerów, spełniających funkcje zapory ogniowej (ang. firewall).
Opóźnienie
Opóźnienie to różnica pomiędzy czasem, kiedy
urządzenie nadawcze rozpoczyna wysyłanie ramki, a czasem, gdy
jej początkowa część osiągnie swój cel.
Opóźnienie ramki przesyłanej pomiędzy źródłem i miejscem docelowym
może być spowodowane przez wiele
różnych czynników:
· Opóźnienia
medium spowodowane skończoną prędkością, z jaką może poruszać się sygnał w
medium
fizycznym.
· Opóźnienia
obwodów wnoszone przez układy elektroniczne przetwarzające sygnał na jego
drodze.
· Opóźnienia
programowe powodowane przez procesy decyzyjne realizowane przez oprogramowanie
w celu
implementacji funkcji przełączania i
obsługi protokołów.
· Opóźnienia
powodowane przez zawartość ramki oraz miejsce w obrębie ramki objęte procesami
decyzyjnymi
dotyczącymi przełączania. Na przykład
urządzenie nie może skierować ramki do portu docelowego, dopóki
nie zostanie odczytany adres MAC
odbiorcy.
Tryby przełączania
Sposób przełączania ramki do portu
docelowego stanowi rozwiązanie kompromisowe między wartością
opóźnienia i niezawodnością.
Przełącznik może zacząć przesyłać ramkę zaraz po
otrzymaniu adresu MAC odbiorcy. Taki
sposób przełączania nazywany jest
przełączaniem „cut-through".
Charakteryzuje się on najmniejszym
opóźnieniem. Jednak w tym przypadku wykrywanie
błędów nie jest możliwe. Z
drugiej strony, przełącznik może
odebrać całą ramkę przed przesłaniem jej dalej
przez port docelowy. W tej sytuacji
przed wysłaniem ramki do punktu docelowego
istnieje możliwość sprawdzenia kodu
kontrolnego ramki (FCS) przez
oprogramowanie przełącznika. Można w
ten sposób upewnić się, że ramka została
poprawnie odebrana. W przypadku
wykrycia błędu odrzucenie ramki jest realizowane przez przełącznik, a nie
przez komputer docelowy. Ponieważ przed
przekazaniem cała zawartość ramki jest przechowywana w pamięci,
ten tryb określa się mianem „store-and-forward"
(zachowaj i przekaż). Tryb „fragment-free" stanowi
kompromis pomiędzy metodami „cut-through" i
„store-and-forward". W przypadku metody „fragment-free"
odbierane są pierwsze 64 bajty
zawierające nagłówek ramki, przełączanie rozpoczyna się zanim zostanie odebrane
pole danych i suma kontrolna. W trybie
tym weryfikowana jest poprawność adresowania oraz informacji protokołu LLC
(Logical
Link Control) w celu zapewnienia, że przetwarzanie
danych oraz informacje określające punkt docelowy będą prawidłowe.
Gdy do przełączania używana jest metoda
„cut-through”, zarówno port
źródłowy, jak i port docelowy muszą
pracować z tą samą szybkością bitową,
aby nie uszkodzić ramki. Przełączanie takie określa się mianem
symetrycznego. Jeżeli szybkości bitowe
są różne, ramka musi być zapisana z jedną szybkością, a następnie wysłana z
inną.
Ten typ przełączania określa się mianem
asymetrycznego. Do przełączania asymetrycznego musi być wykorzystywany tryb
„store-and-forward”.
Przełączanie asymetryczne zapewnia
połączenia komutowane pomiędzy portami o różnych szerokościach pasma,
na przykład 100 Mb/s i 1000 Mb/s.
Przełączanie asymetryczne jest zoptymalizowane pod kątem ruchu
generowanego przez połączenia typu
klient/serwer, gdzie wiele klientów jednocześnie komunikuje się z
serwerem, co wymaga zapewnienia
szerszego pasma po stronie portu serwera w celu ograniczenia możliwości
powstania wąskiego gardła w tym
punkcie.
Protokół drzewa opinającego
Gdy wiele przełączników połączonych
jest w ramach jednej struktury drzewiastej, wystąpienie pętli przełączania
jest mało prawdopodobne. Jednak sieci
komutowane są zwykle zaprojektowane tak, aby zapewnić ścieżki
nadmiarowe, co ma gwarantować
niezawodność i odporność na błędy. Występowanie ścieżek nadmiarowych jest
pomocne, jednak zastosowanie ich może
nieść za sobą niepożądane efekty uboczne. Pętla przełączania jest
jednym z takich efektów. Pętla
przełączania może wystąpić przez przypadek lub być konsekwencją świadomego
działania. Może ona doprowadzić do
burzy rozgłoszeń, która gwałtownie obejmie całą sieć. Aby zapobiec
możliwości powstania pętli,
przełączniki wyposażone są w oparty na standardach protokół drzewa opinającego
(STP). Każdy przełącznik w sieci LAN,
który wykorzystuje protokół drzewa opinającego (STP), wysyła przez
każdy swój port specjalne komunikaty
zwane jednostkami BPDU (ang. Bridge Protocol Data Unit), aby
zakomunikować innym przełącznikom swoją
obecność i umożliwić wybór mostu głównego sieci. Następnie
przełączniki wykorzystują algorytm
drzewa opinającego w celu identyfikacji i zamknięcia ścieżek nadmiarowych.
Każdy port
przełącznika używającego algorytmu drzewa opinającego znajduje się w jednym z
pięciu
stanów:
Blokowanie Nasłuch Zapamiętywanie Przesyłanie Wyłączony
Port może
przechodzić z jednego stanu do innego w następujących cyklach:
* od inicjacji do blokowania
* od blokowania do nasłuchu lub
zablokowania
* od nasłuchu do zapamiętywania lub
zablokowania
* od zapamiętywania do przesyłania lub
zablokowania
* od przesyłania do zablokowania
Wynikiem zidentyfikowania i
wyeliminowania pętli z wykorzystaniem protokołu STP jest powstanie
hierarchicznej struktury drzewiastej
wolnej od zapętleń. Alternatywne ścieżki są jednak w dalszym ciągu dostępne
i mogą być wykorzystane w razie
potrzeby.
l Domena kolizyjna – grupa stacji roboczych
połączona ze sobą wspólnym medium transmisyjnym. Każda ze stacji ma wpływ na
jakość transmisji innych stacji;
l Sztorm kolizyjny – nadmierny wzrost żądań
obsługi transmisji danych powodujący zjawisko kolizji i utrudniający prawidłową
pracę sieci;
l Segmentacja sieci – podział domeny kolizyjnej na
mniejsze części (segmenty);
l Domena rozgłoszeniowa – grupa stacji do których
docierają ramki rozgłoszeniowe czyli adresowane „do wszystkich”;
l
System rozgłoszeniowy – powstaje jeżeli w sieci jest wiele stacji wysyłających
ramki rozgłoszeniowe;
Domena
kolizyjna i domena rozgłoszeniowa
8.2.1
Środowiska ze współdzielonym medium
Przyswojenie sobie pojęcia domeny
kolizyjnej wymaga zrozumienia, czym są kolizje i co je powoduje. W celu
wyjaśnienia pojęcia kolizji, dokonano
przeglądu mediów oraz topologii warstwy pierwszej.
Niektóre sieci są ze sobą bezpośrednio
połączone i wszystkie hosty współdzielą warstwę 1. Poniżej przedstawiono
przykłady:
· Środowisko
ze współdzielonym medium: Występuje, gdy wiele hostów ma dostęp
do tego samego medium.
Jeśli na przykład kilka komputerów jest
dołączonych do tego samego przewodu lub światłowodu to
współdzielą one to samo środowisko
medium.
· Rozszerzone
środowisko ze współdzielonym medium: Jest to specjalny rodzaj środowiska ze
współdzielonym medium, w którym
urządzenia sieciowe mogą rozszerzyć środowisko w taki sposób, że
możliwy jest wielodostęp lub większa
długość połączeń kablowych.
· Środowisko
sieciowe typu punkt-punkt: Często stosuje się je w sieciowych
połączeniach telefonicznych.
Jest ono najbardziej znane użytkownikom
domowym. Stanowi taki typ współdzielonego środowiska
sieciowego, w którym pojedyncze
urządzenie jest połączone z innym pojedynczym urządzeniem (tak jak w
przypadku połączenia komputera z
dostawcą usług internetowych za pomocą modemu i linii telefonicznej).
Umiejętność zidentyfikowania środowiska
ze współdzielonym medium jest ważna, ponieważ
tylko tam występują kolizje. Sieć
drogowa jest przykładem współdzielonego środowiska,
w którym mogą występować kolizje,
ponieważ duża liczba pojazdów korzysta z tych
samych dróg. Wraz ze zwiększaniem się w
systemie liczby pojazdów, zwiększa się
prawdopodobieństwo wystąpienia kolizji.
Współdzielona sieć danych jest bardzo podobna do systemu dróg.
Zostały zdefiniowane reguły określające
zasady dostępu do medium
sieciowego, jednak czasem, ze względu
na natężenie ruchu, stosowanie reguł nie wystarcza i występują kolizje
Domena rozgłoszeniowa (ang.
Broadcast domain) to logiczny segment
sieci, w którym jakikolwiek komputer lub inne urządzenie połączone do sieci
może bezpośrednio transmitować do jakiegokolwiek innego w domenie, bez
przechodzenia przez urządzenia routujące, pod warunkiem, że dzielą tę samą podsieć, bramę
domyślną i są w tej samej VLAN.
Z innej strony, domena
rozgłoszeniowa jest segmentem sieci jaki pokonują ramki typu broadcast lub
multicast (granicę stanowią routery lub sieci
wirtualne)
MOSTY STA
Celem istnienia wielodróg
jest poprawa przepustowości sieci, unikanie przeciążeń, oraz poprawa
niezawodności. Z uwagi na zapętlanie się, wielodrogi nie mogą być stosowane w
mostach topologicznych.
Jeśli nawet istnieje taka droga fizycznie – blokowane są odpowiednie porty
urządzeń.
W mostach STA wielodrogi
mogą być stosowane, ale tylko na poziomie fizycznym – logiczniesieć nadal musi
stanowić drzewo.
Budowa drzewa rozpinającego ma na celu usunięcie z
topologii logicznej pętli topologicznych.
Do tego celu wybierane są gałęzie o minimalnym
koszcie. Oznacza to, że drzewo rozpinające
zbudowane jest z gałęzi, których sumaryczny koszt
jest minimalny.
Koszt trasy oceniany jest
na dwa sposoby:
• zliczanie
ilości skoków niezbędnych do przejścia od nadawcy do odbiorcy. “Skoki” to
przejścia po drodze z
urządzenia do urządzenia.
• koszt jest
odwrotnie proporcjonalny do przepustowości gałęzi.
Do określenia drzewa
rozpinającego o najmniejszym koszcie stosuje się algorytmy Kraskala,
Prima lub Dijkstry.
Zostały one wymyślone w latach 1956-1959.
Algorytm Kraskala – budujemy las drzew
wybierając gałęzie od najmniejszych wag,
sprawdzając za każdym
razem czy nowa gałąź nie utworzy cyklu. Umiarkowana efektywność.
Algorytmy Prima / Dijkstry
-
wybieramy najpierw korzeń (intuicyjnie, bądź formalnie),
następnie dołączamy
gałęzie o najmniejszym koszcie. Budujemy od razu strukturę spójną.
koncentratory
most
ruch w sieci z mostem
ruch w sieci bez mostu
Złożoność zależna od
ilości węzłów.
W algorytmie tym więc
wykorzystywane są gałęzie o największej przepustowości.
Od wyboru korzenia drzewa w
znacznym stopniu zależy przepustowość struktury.
Algorytm ten został
zaimplementowany sprzętowo w 1980 roku.
W algorytmie STA koszt budowy drzewa określany jest
jako odwrotność szybkości kanału, a korzeń
drzewa to most o najniższym adresie fizycznym (MAC –
Media Access Control).
Do budowy drzewa
rozpinającego wykorzystywany jest protokół BPDU.
W protokole tym występują
dwa rodzaje ramek, wykorzystywane do budowania struktury,
oraz do kontroli
poprawności jej działania.
Gdy rozpoczyna się
tworzenie drzewa, każda jednostka wysyła ramki informacyjne, zachowując
się jakby to ona była
korzeniem drzewa. Ramka zawiera informację na temat
nadawcy (potencjalnego
korzenia) oraz o koszcie. Inne jednostki w momencie otrzymania
takiej ramki porównują
adres nadawcy ze swoim własnym. Jeśli jest mniejszy – otrzymaną
ramkę wysyłają dalej
zwiększając informację o koszcie.
Gdy do jednostki trafi
informacja od nadawcy różnymi drogami, wybierana jest droga o
mniejszym koszcie,
natomiast druga jest zamykana (blokowany jest odpowiedni port).
W przypadku uszkodzenia
struktury – ponieważ nie istnieją wielodrogi, sieć traci spójność.
Dlatego co jakiś czas,
(zazwyczaj kilka sekund) wysyłane są ramki BPDU służące do kontroli
poprawności działania
sieci. Jeśli wykryta zostanie niespójność, rozpoczyna się ponownie
procedura tworzenia
drzewa.
Czas budowania drzewa
zazwyczaj nie przekracza 10 sek.