SIECI KOMPUTEROWE I -  Przełączniki


 

 

 

PRZEŁĄCZNIK ETERNETOWY

 

Przełączniki Ethernetowe, to urządzenia pracujące w warstwie drugiej modelu OSI, czyli w warstwie łącza danych. Co prawda nowoczesne konstrukcje potrafią korzystać z informacji zawartych w warstwach wyższych (jest to głównie funkcjonalność związana z routingiem, zagadnieniami jakości usług i bezpieczeństwem), ale na użytek tego artykułu założymy, że funkcjonalność przełączników ogranicza się tylko do warstwy drugiej (L2) modelu OSI.

 


Różnice pomiędzy koncentratorami a przełącznikami

Kluczowe różnice pomiędzy stosowanymi wcześniej i obecnie wychodzącymi z użycia koncentratorami a przełącznikami, to przede wszystkim:

1.      Ograniczenie domeny kolizyjnej w przełączniku do pojedynczego portu.

Dla koncentratorów, domena kolizyjna rozciąga się na wszystkie porty urządzenia, lub wszystkie porty wielu połączonych koncentratorów (w nowszych koncentratorach port uplink funkcjonował jak bridge, dzieląc domenę kolizyjną, ale i tak nie poprawia to znacząco charakterystyk pracy tych urządzeń w dużych instalacjach). Biorąc pod uwagę, że we wszystkich rodzajach sieci Ethernet stosuje się mechanizm CSMA/CD, w sieci zbudowanej w oparciu o koncentratory na raz może nadawać tylko jedna stacja. Dzięki ciągłemu konkurowaniu o dostęp do współdzielonego nośnika, realnie obserwujemy "jednoczesną" pracę wszystkich stacji, ale przepustowość w takiej sieci jest daleka od teoretycznej przepustowości nośnika. Co więcej, w sieciach budowanych w oparciu o koncentratory bardzo często zdarza się, że stacje silniejsze sprzętowo są w stanie częściej wysyłać dane niż stare, wolne komputery.

Dla przełącznika domena kolizyjna zostaje zmniejszona do pojedynczego portu, co efektywnie oznacza, że każdy port może niezależnie odbierać i nadawać dane do użytkownika (a użytkownik "do sieci") z wcześniej ustaloną prędkością i trybem dupleksu. Dodatkowo, nowoczesne przełączniki budowane są w architekturze nieblokującej, co w praktyce oznacza, że naprawdę każdy port może teoretycznie pracować z maksymalną prędkością, a przełącznik zapewni wymianę danych. Starsze urządzenia miały albo niewystarczającą wydajność aby obsłużyć pełne wymagane pasmo, albo zbyt mało pamięci by zbuforować na odpowiednio długi czas dane. Część z nich jest nadal produkowana i sprzedawana!

2.      Przełączniki, w jednej obudowie integrują zwykle wiele różnych typów mediów pracujących z różnymi prędkościami.

Jest to cecha praktycznie nieosiągalną na koncentratorach (poza bardzo specyficznymi rozwiązaniami). W standardowych przełącznikach dostępowych (przeznaczonych do agregacji użytkowników), najwięcej jest zwykle portów 10/100 lub 10/100/1000 RJ-45 do połączeń zwykłą skrętką, ale oprócz tego oferuje się zwykle jeden lub dwa zabudowane porty Gigabitowe, lub moduły GBIC/SFP do podłączenia wymiennych modułów 1000BaseT/BaseSX/BaseLX/BaseZX zwiększających elastyczność przełącznika. Coraz częściej użytkownik otrzymuje nawet 4 porty na moduły GBIC, lub dwa zabudowane porty 10/100/1000 i dwa porty GBIC, które jeśli zostaną wyposażone w moduły blokują skojarzony z nimi port 10/100/1000.

3.      Koncentratory nie oferują żadnych mechanizmów zapewniania jakości usług (ang. QoS, Quality of Service).

Przełączniki, w zależności od stopnia skomplikowania, oferują prioretyzację pakietów (np. wg. standardu 802.1p), klasyfikację i reklasyfikację na podstawie zestawu kryteriów, ograniczanie zajmowanego przez dany rodzaj ramek/pakietów pasma, czy również ograniczanie dostępnego pasma per port lub per VLAN. Taki zestaw funkcjonalności stanowi wielką zaletę w sieci, w której pracuje wiele różnych usług i aplikacji a użytkownik jest w stanie świadomie określić politykę kontroli ruchu - gwarantowanie pasma, prioretyzację określonego ruchu itp.

4.      Koncentratory nie oferują żadnych mechanizmów zapewniania bezpieczeństwa w sieci.

Każda stacja podłączona do koncentratora otrzymuje transmisje do innych stacji i jest w stanie efektywnie, bez żadnych specjalnych zabiegów podsłuchać cały przebieg np. logowania się z innej stacji do uwierzytelnianej usługi.

Przełączniki domyślnie uczą się, do którego portu wysyłać dane adresowane dla konkretnego adresu MAC, co już wymaga od atakującego podjęcia jakiegoś rodzaju aktywnego działania (wprowadzenia w błąd przełącznika, lub przełącznika i atakowanej stacji), by przechwytywać ruch nie adresowany bezpośrednio do nich. Co więcej, większość obecnie produkowanych przełączników oferuje możliwość ograniczenia ilości źródłowych adresów MAC pojawiających się na konkretnym porcie do arbitralnej wartości. Taki mechanizm zapobiega atakowi, w którym stacja generuje mnóstwo losowych źródłowych adresów MAC, starając się przepełnić pamięć przełącznika i zamienić go efektywnie w koncentrator. Atak taki umożliwiają popularne aplikacje dsniff i ettercap. Jeszczcze bardziej zaawansowane konstrukcje pozwalają na filtrowanie ruchu na podstawie danych z nagłówka IP czy nawet warstwy czwartej - portów TCP/UDP.

Niezależnie od możliwości filtrowania ruchu wg. określonych kryteriów, na przełącznikach istnieje możliwość podziału sieci LAN w warstwie drugiej na osobne VLANy (ang. VLAN, Virtual LAN), które w większości przypadków skutecznie blokują komunikację pomiędzy dwoma różnymi stacjami w dwóch różnych VLANach. Dalszy podział, w ramach pojedynczego VLANu zapewnia koncepcja Private VLANu, która oddziela komunikację w warstwie drugiej pomiędzy stacjami w tym samym VLANie. W takiej konfiguracji stacje nawet w tym samym VLANie mogą komunikować się jedynie z wyznaczonym routerem, i każdy rodzaj komunikacji stacja-stacja musi odbywać się za jego pośrednictwem. Ostatnim krzykiem mody, jeśli chodzi o bezpieczeństwo na przełącznikach, stał się ratyfikowany niedawno protokół 802.1X. Stacja podłączona do portu pracującego w trybie 802.1X musi najpierw przejść zakończone sukcesem uwierzytelnienie, zanim będzie mogła wysłać i odebrać jakiekolwiek inne ramki do/z sieci poza ramkami protokołu EAP.

5.      Przełaczniki mogą być łączone ze sobą więcej niż jednym łączem fizycznym, pod warunkiem, że obsługują protokół agregacji połączeń lub/i protokół Spanning Tree.

Próba połączenia koncentratorów dwoma równoległymi fizycznymi połączeniami doprowadzi do pętli w warstwie drugiej i paraliżującego sieć lokalną sztormu ramek. Ratyfikowany przez IEEE standard 802.3ad w połączeniu z protokołem LACP (ang. Link Aggregation Control Protocol) umożliwia w przypadku zastosowania przełączników, równoległe połączenie do ośmiu fizycznych łącz, tworzących jedno łącze logiczne. W prosty sposób udostępnia to pasmo dla ruchu przełącznik-przełącznik, będące sumą przepustowości pojedynczych łącz fizycznych.

Przełączniki chronią sieć przed powstaniem pętli w warstwie drugiej za pomocą protokołu Spanning Tree (IEEE 802.1D). W wyniku jego działania, zablokowane zostają redundantne połączenia tak, by topologia sieci nie zawierała żadnej pętli. Czas konwergencji sieci, w której działa tradycyjny protokół Spanning Tree wynosi około 45 sekund od momentu awarii. Ratyfikowana niedawno ulepszona wersja tego protokołu, nazwana Rapid Spanning Tree (IEEE 802.1w) oferuje czas konwergencji zbliżony do 2-3 sekund.

Należy pamiętać, że nie wszystkie przełączniki obsługują protokół Spanning Tree, a najmniejsze z tych, które protokół obsługują, wspierają zwykle tylko tradycyjne Spanning Tree i w dodatku bardzo często należy tą obsługę włączyć ręcznie!

 

 

 


Między sobą przełączniki komunikują się, rozgłaszając ramki BPDU (ang. Bridge Protocol Data Unit). Podstawowe zasady pracy mostu są takie same, jak przełącznika. Tak samo przełącznik jak most, uczy się na podstawie adresów źródłowych MAC (ang. Media Access Control) ramek, a przełącza je na podstawie adresów docelowych. Również zasady przełączania jak i działania algorytmów spanning-tree są identyczne. Różnice między przełącznikiem a mostem to:

 

- Przełącznik jest znacznie szybszy, ponieważ działa w oparciu o układ scalony, natomiast most ma oprogramowanie w formie software'owej.

- Most ma maksymalnie 16 portów, przełącznik może mieć ich setki.

- Most jedynie forwarduje odbierane pakiety z jednego portu do innego na podstawie odczytanego źródłowego adresu MAC, przełącznik natomiast może przekazywać pakiety do dowolnego portu, na podstawie zarówno źródłowego jak i docelowego adresu MAC.

Do jednego portu mostu może być przypisane dokładnie jedno drzewo rozpinające, w przełączniku może być ich wiele.

 

 

Transmisja monokanałowa – nadają tylko dwie jednostki w jednym czasie

 

 

 

 

Mikrosegmentacja – poprzez wydzielenie mikrokanałów w przełączniku, w jednym czasie może występować transmisja

między wieloma parami jednostek.

 

 

 

 

TECHNIKI ŁĄCZENIA PRZEŁĄCZNIKÓW

Na etapie projektowania sieci LAN, musimy podjąć decyzję jakie urządzenia i o jakiej gęstości portów zastosujemy. Współczesne przełączniki dostosowane do montażu w szafach 19", oferowane są w wykonaniu zwykle z 12, 24 lub 48 portami różnych typów (przełaczniki nieprzystosowane do montażu w szafach 19" bardzo rzadko są zarządzalne i obsługują protokół Spanning Tree).

Zwykle podczas doboru sprzętu do konkretnej instalacji, musimy w naszych rozważaniach uwzględnić, że:

1.      praktycznie nigdy nie zdarza się, aby urządzenie posiadało dokładnie tyle portów ile potrzebujemy, a nawet jeśli, to

2.      sieci raczej się rozrastają niż maleją

Biorąc to pod uwagę, należy zawsze myśleć o doborze sprzętu w ten sposób, aby dodanie kolejnych paru stacji nie spowodowało konieczności poniesienia dużych wydatków, lub wymagało kompletnego przeprojektowania sieci zarówno w warstwie logicznej jak i fizycznej.

Mając zatem do podłączenia 10 stacji, wybierzmy urządzenie 24-portowe, a 35 stacji - dwa połączone przełączniki 24-portowe, lub jeden 48-portowy.

Wybór sposobu połączenia wielu przełączników istotnie wpływa zarówno na późniejszą funkcjonalność sieci, jak i na sposób jej wykonania.

Rozważając topologie połączeń, założymy, że do naszej dyspozycji są przełączniki - o koncentratorach naprawdę proszę już zapomnieć. Ich zastosowanie w nowych instalacjach nie jest uzasadnione w żaden sposób - przełączniki są wydajniejsze, generalnie tańsze i oferują nieporównywalnie większą funkcjonalność.

Notatka: Użyte na rysunkach ikony, pochodzą z programu Microsoft Visio, oraz ze stron Cisco, ale użyto ich jedynie dla wygody prezentacji połączeń - artykuł opisuje ogólne zasady działające na wszystkich przełącznikach funkcjonujących zgodnie z przyjętymi ogólnie zasadami i odpowiednimi standardami (chyba, że wprost zaznaczono inaczej).

 


POŁĄCZENIE PORT-PORT

Najprostszym w realizacji połączeniem dwóch przełączników jest połączenie pary urządzeń port-port. Jeśli przełącznik obsługuje automatyczną negocjację MDI/MDIX na porcie, do połączenia portów możemy użyć dowolnego kabla krosowego. Jeśli przełącznik nie obsługuje tej negocjacji, dwa przełączniki łączymy patchcordem skrosowanym.

 

Z punktu widzenia topologii sieci nie ma żadnego znaczenia, czy łączymy przełączniki portami przeznaczonymi do agregacji stacji, czy uplinkami. Jedyną różnicą pozostaje przepustowość portu - i dlatego właśnie do połączeń pomiędzy przełącznikami używa się dedykowanych portów o większej przepustowości. W starych przełącznikach 10BaseX uplinki wykonane były zwykle w technologii 100BaseX, w obecnie używanych przełącznikach 100BaseX czy nawet 10/100/1000BaseX stosuje się uplinki gigabit-ethernetowe lub w rozwiązaniach szkieletowych - 10GbE.

Wady takiego połączenia, to:

1.      Relatywnie niewielka wydajność.

Dla stacji podłączonych do przełącznika A, pasmo dostępne w ruchu do i z stacji podłączonych do przełącznika B ograniczone jest do prędkości pracy tego pojedynczego portu. Dla sytuacji z dwoma przełącznikami, nie wygląda to źle, ale jeśli połączymy je w "łańcuszek", bardzo trudno przewidzieć pasmo dostępne dla stacji podłączonych do "zewnętrznych" przełączników (o tym za moment)

2.      Mała skalowalność.

Ilość przełączników połączonych w "łańcuszek" istotnie zależy od możliwości każdego z przełączników. O ile obecnie stosuje się wbudowane bufory po 8192 lub 16384 adresy MAC na całe urządzenie, to starsze urządzenia często miały ograniczenia dotyczące ilości adresów MAC "widzianych" na pojedynczym porcie. Co więcej, dodawanie kolejnych przełączników "w łańcuszek" będzie obniżało dostępne pasmo dla ruchu, który musi zostać przeniesiony pomiędzy stacjami podłączonymi do różnych przełączników.

3.      Brak redundantności.

Jeśli przełącznik nie obsługuje protokołu Spanning Tree, nie możemy ani utworzyć pętli w takiej sieci, ani połączyć żadnej pary przełączników więcej niż jednym połączeniem. W przypadku awarii portu lub kabla krosowego, musimy interweniować osobiście, aby przywrócić łączność pomiędzy przełącznikami.

Natomiast zaletami będą niewątpliwie:

1.      Niski koszt realizacji.

Połączenie dwóch przełączników to koszt jednego kabla krosowego, trzech przełączników - dwóch kabli krosowych itd.

2.      Szybka rozbudowa sieci.

Wykonanie połączenia nie wymaga zwykle żadnej rekonfiguracji portów, a zatem może być wykonane przez praktycznie dowolną osobę.

 


POŁĄCZENIE POPRZEZ AGRAGACJĘ PORTÓW

W tworzeniu wielu redundantnych połączeń pomiędzy parą przełączników, urządzenia "bronią się" w tym momencie przed powstaniem pętli w warstwie drugiej za pomocą protokołu Spanning Tree, blokując do czasu zmiany topologii sieci (zwykle w wyniku awarii, lub celowego działania) wszystkie nadmiarowe połączenia.

 

Aby obejść ten problem i wykorzystać potencjalną możliwość stworzenia połączenia o większej przepustowości niż oferowana przez pojedyńczy port, stworzono ideę agregacji portów fizycznych w jedno połączenie logiczne. W tym momencie, dla protokołu Spanning Tree cała agregacja (składająca się np. z 4 fizycznych portów 10/100FE czy GE) tworzy jedno połączenie. Dla użytkowników oznacza to możliwość skorzystania z sumy przepustowości poszczególnych portów fizycznych.

 

Z reguły, aby konfiguracja agregacji na parze przełączników przebiegła pomyślnie, należy na obu urządzeniach:

wybrać do agregacji taką samą ilość i typ portów (pod względem typu medium, skonfigurowanej prędkości i trybu pracy - pół lub pełnego dupleksu);

wybrać nie więcej niż 8 portów (w standardzie 802.3ad mowa o maksymalnie ośmiu portach tego samego typu); w niektórych implementacjach, w szczególności w przełącznikach prostszych, często producent dodatkowo ogranicza liczbę portów biorących udział w agregacji - do 2 lub 4;

jeśli posiadamy dwa przełaczniki różnych producentów, należy skonfigurować na obu ten sam standard agregacji (praktycznie spotyka się tylko Ciscowy (Giga|Fast)EtherChannel oraz IEEE 802.3ad) i ewentualnie odpowiedni protokół kontroli tak utworzonej agregacji (znowu firmowy Cisco PAgP lub IEEE LACP);

w produktach niektórych producentów tak stworzoną agregację należy jeszcze wprost uaktywnić;



Jeśli wszystko przebiegło poprawnie, pomiędzy przełącznikami stworzone zostanie pojedyńcze logiczne połączenie, o przepustowości będącej sumą przepustowości pojedynczych fizycznych połączeń. Innymi słowy, łącząc np. po dwa fizyczne porty GigabitEthernet na przełączniku, tworzymy agregację o przepustowości 2Gbit/s, a osiem portów 100BaseTX - o przepustowości 800Mbit/s.

Dodatkową zaletą agregacji portów jest fakt, że obecnie większość przełączników pozwala stworzyć wiele agregacji jednocześnie. Pozwala to elastycznie, wydajnie i ekonomicznie rozbudowywać sieć o nowe lokacje zdalne.

Należy jednak pamiętać o pewnym ograniczeniu, wynikającym z konstrukcji przełączników i samego protokołu IEEE 802.3ad. Otóż w przeważającej większości konstrukcji, transmisja danych pomiędzy daną parą urządzeń identyfikowaną przez adresy MAC, odbywa się zawsze tym samym fizycznie łączem, niezależnie od ilości i istnienia innych łącz w agregacji. Dopiero zastosowanie większych przełączników, nierzadko potrafiących również prowadzić routing, umożliwia wybór algorytmu rozkładania ramek pomiędzy łącza fizyczne w agregacji.

Takie ograniczenie dla sieci z dużą ilością stacji nie stanowi zwykle problemu (proszę jednak pamiętać, że transmisja dla danej pary stacji nie przekroczy w tej sytuacji przepustowości pojedynczego portu fizycznego!). Jeśli jednak budujemy specjalną agregację np. 8 portów GigabitEthernet dla transmisji pomiędzy dwoma stacjami - należy rozejrzeć się za przełącznikiem potrafiącym wykonać rozłożenie ruchu pomiędzy połączeniami efektywniej.

Do niedawna wiele firm używało w różnych związkach znaczeniowych terminu trunk. Np. w terminologii 3COM do momentu pojawienia się przełączników 7700, trunk był właśnie połączeniem agregacyjnym wielu fizycznych portów, a port skonfigurowany do przenosznia wielu VLANów nazywano po prostu portem tagowanym (od znaczników, ang. tags, dodawanych do każdej ramki by wskazać jej przynależność do VLANu).

Obecnie osiągnięto pewien konsensus co do nazewnictwa i terminem trunk określa się połączenie logiczne lub fizyczne, przenoszące więcej niż jeden VLAN. Natomiast Agregacja portów to właśnie albo oznaczenie portów skonfigurowanych wg. standardu 802.3ad albo wg. firmowego standardu producenta (np. Cisco EtherChannel).

 


STAKOWANIE /ŁĄCZENIE W STOS

Problemy z możliwością rozbudowy sieci opartej o przełączniki były doskonale znane producentom i bardzo szybko pojawiło się rozwiązanie, które nie zajmując cennych portów, pozwala połączyć przełączniki magistralą o dużej przepustowości. Ponieważ nigdy nie doszło do próby standaryzacji takich rozwiązań (a same połącznia tego typu ściśle związane są z architekturą przełącznika), są one specyficzne nie tylko dla danego producenta, ale zwykle też dla danej rodziny czy nawet modelu przełaczników.

Termin stakowanie pochodzi od angielskiego słowa stacking i oznacza po prostu układanie jednego urządzenia na drugim (czasami stosuje się w języku polskim również sformuowanie "połączyć w stos").

Niezależnie od zestakowania przełączników ze sobą, zwykle dostępne pozostają wszystkie porty z "panelu czołowego" przełącznika, co oznacza że nadal możemy agregować np. gigabitowymi uplinkami połączenia z odległych lokalizacji. W rozwiązaniach niektórych producentów możliwe jest nawet, by pojedyncza agregacja fizycznie składała się z portów na różnych członkach stosu - wpływa to znakomicie na niezawodność takiej sieci.

Stakowanie przyniosło następujące zalety:

połączenie przełączników w stos nie powoduje utraty jednego lub większej ilości portów przeznaczanych normalnie na podłączenie stacji

połączenie w stos odbywa się w większości konstrukcji przez bezpośrednie połączenie szyn danych przełączników, co oznacza że przepustowość takiego połączenia jest wyższa niż zwykłego połączenia za pomocą pojedynczych portów

z punktu widzenia zarządzania większą siecią, stakowanie oszczędza nam zasoby - np. jeśli do tej pory każdy przełącznik otrzymał swój adres IP aby można nim było zdalnie zarządzań przez interfejs WWW czy Telnet/SSH, po połączeniu w stos czterech jednostek wystarczy jeden adres zamiast 4.



Stakowanie realizowane jest fizycznie, jako włożenie specjalnej karty (np. karta Matrix firmy 3COM), lub po prostu połączenie specjalnymi kablami zabudowanych na stałe z tyłu urządzenia portów przeznaczonych do stakowania (porty StackWise na przełącznikach Cisco Catalyst 3750).

Stare rozwiązania oferowały przepustowości przekraczające zwykle 100Mbit/s, ale rzadko przekraczające 1Gbit/s (np. moduł Matrix firmy 3COM dla przełączników 3300 to połączenie do 4 przełączników szyną o przepustowości 500Mbit/s, a moduł stakujący do rodziny 4400 to połączenie szyną 4Gbit/s). Nowe rozwiązania, stworzone już po upowszechnieniu się Ethernetu gigabitowego, oferują odpowiednio większą przepustowość. Rozwiązanie StackWise stosowane na przełącznikach Catalyst 3750 oferuje wspólną szynę 16Gbit/s (32Gbit/s full-dupleks) dla do 9 urządzeń.

 


KLASTRY PRZEŁĄCZNIKÓW

Dodatkowym rodzajem połączenia przełączników, nie wpływającym jednak na możliwości zapewnienia dodatkowej przepustowości pomiędzy fizycznymi urządzeniami, jest łączenie w klastry. Podobnie jak stakowanie, łączenie w klastry to również rozwiązania firmowe wielu różnych firm (Cisco, 3COM, Allied Telesyn itp.), które ma na celu ułatwienie zarządzania grupą przełączników fizycznie rozproszonych (przyjęło się bowiem, z uwagi na ograniczenia elektroniki, że stos realizuje się okablowaniem relatywnie krótkim - od 10-15cm do 1,5 metra - bardzo rzadko dłuższym).

 

 

 

 

Wirtualna sieć lokalna (VLAN) to sieć umożliwiająca logiczne (wirtualne) grupowanie stanowisk roboczych, niezależnie od tego gdzie  są one fizycznie zainstalowane.

               Możliwy jest fizyczny podział sieci na dowolną liczbę segmentów bez uwzględniania położenia stanowisk roboczych oraz koncentracja wszystkich serwerów w jednym miejscu.

 

 

Segmentacja wirtualna, polegająca na logicznym wydzieleniu z sieci fizycznej określonej grupy, lub nienakładających się grup użytkowników (stacji końcowych, serwerów, terminali), zwanych segmentem wirtualnym (ang. virtual segment). Każdy segment funkcjonuje w tym przypadku jako autonomiczna domena sieci, identyfikowana jednym adresem sieciowym (np. w protokole IP). Przekaz informacji pomiędzy różnymi segmentami wymaga obecności wieloprotókołowych routerów, spełniających funkcje zapory ogniowej (ang. firewall).

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Opóźnienie

Opóźnienie to różnica pomiędzy czasem, kiedy urządzenie nadawcze rozpoczyna wysyłanie ramki, a czasem, gdy

jej początkowa część osiągnie swój cel. Opóźnienie ramki przesyłanej pomiędzy źródłem i miejscem docelowym

może być spowodowane przez wiele różnych czynników:

· Opóźnienia medium spowodowane skończoną prędkością, z jaką może poruszać się sygnał w medium

fizycznym.

· Opóźnienia obwodów wnoszone przez układy elektroniczne przetwarzające sygnał na jego drodze.

· Opóźnienia programowe powodowane przez procesy decyzyjne realizowane przez oprogramowanie w celu

implementacji funkcji przełączania i obsługi protokołów.

· Opóźnienia powodowane przez zawartość ramki oraz miejsce w obrębie ramki objęte procesami decyzyjnymi

dotyczącymi przełączania. Na przykład urządzenie nie może skierować ramki do portu docelowego, dopóki

nie zostanie odczytany adres MAC odbiorcy.

 

 

Tryby przełączania

Sposób przełączania ramki do portu docelowego stanowi rozwiązanie kompromisowe między wartością

opóźnienia i niezawodnością. Przełącznik może zacząć przesyłać ramkę zaraz po

otrzymaniu adresu MAC odbiorcy. Taki sposób przełączania nazywany jest

przełączaniem „cut-through". Charakteryzuje się on najmniejszym

opóźnieniem. Jednak w tym przypadku wykrywanie błędów nie jest możliwe. Z

drugiej strony, przełącznik może odebrać całą ramkę przed przesłaniem jej dalej

przez port docelowy. W tej sytuacji przed wysłaniem ramki do punktu docelowego

istnieje możliwość sprawdzenia kodu kontrolnego ramki (FCS) przez

oprogramowanie przełącznika. Można w ten sposób upewnić się, że ramka została

poprawnie odebrana. W przypadku wykrycia błędu odrzucenie ramki jest realizowane przez przełącznik, a nie

przez komputer docelowy. Ponieważ przed przekazaniem cała zawartość ramki jest przechowywana w pamięci,

ten tryb określa się mianem „store-and-forward" (zachowaj i przekaż). Tryb „fragment-free" stanowi

kompromis pomiędzy metodami „cut-through" i „store-and-forward". W przypadku metody „fragment-free"

odbierane są pierwsze 64 bajty zawierające nagłówek ramki, przełączanie rozpoczyna się zanim zostanie odebrane

pole danych i suma kontrolna. W trybie tym weryfikowana jest poprawność adresowania oraz informacji protokołu LLC (Logical

Link Control) w celu zapewnienia, że przetwarzanie danych oraz informacje określające punkt docelowy będą prawidłowe.

Gdy do przełączania używana jest metoda „cut-through”, zarówno port źródłowy, jak i port docelowy muszą

pracować z tą samą szybkością bitową, aby nie uszkodzić ramki. Przełączanie takie określa się mianem

symetrycznego. Jeżeli szybkości bitowe są różne, ramka musi być zapisana z jedną szybkością, a następnie wysłana z inną.

Ten typ przełączania określa się mianem asymetrycznego. Do przełączania asymetrycznego musi być wykorzystywany tryb „store-and-forward”.

Przełączanie asymetryczne zapewnia połączenia komutowane pomiędzy portami o różnych szerokościach pasma,

na przykład 100 Mb/s i 1000 Mb/s. Przełączanie asymetryczne jest zoptymalizowane pod kątem ruchu

generowanego przez połączenia typu klient/serwer, gdzie wiele klientów jednocześnie komunikuje się z

serwerem, co wymaga zapewnienia szerszego pasma po stronie portu serwera w celu ograniczenia możliwości

powstania wąskiego gardła w tym punkcie.

 

 

Protokół drzewa opinającego

Gdy wiele przełączników połączonych jest w ramach jednej struktury drzewiastej, wystąpienie pętli przełączania

jest mało prawdopodobne. Jednak sieci komutowane są zwykle zaprojektowane tak, aby zapewnić ścieżki

nadmiarowe, co ma gwarantować niezawodność i odporność na błędy. Występowanie ścieżek nadmiarowych jest

pomocne, jednak zastosowanie ich może nieść za sobą niepożądane efekty uboczne. Pętla przełączania jest

jednym z takich efektów. Pętla przełączania może wystąpić przez przypadek lub być konsekwencją świadomego

działania. Może ona doprowadzić do burzy rozgłoszeń, która gwałtownie obejmie całą sieć. Aby zapobiec

możliwości powstania pętli, przełączniki wyposażone są w oparty na standardach protokół drzewa opinającego

(STP). Każdy przełącznik w sieci LAN, który wykorzystuje protokół drzewa opinającego (STP), wysyła przez

każdy swój port specjalne komunikaty zwane jednostkami BPDU (ang. Bridge Protocol Data Unit), aby

zakomunikować innym przełącznikom swoją obecność i umożliwić wybór mostu głównego sieci. Następnie

przełączniki wykorzystują algorytm drzewa opinającego w celu identyfikacji i zamknięcia ścieżek nadmiarowych.

Każdy port przełącznika używającego algorytmu drzewa opinającego znajduje się w jednym z pięciu

stanów: Blokowanie Nasłuch Zapamiętywanie Przesyłanie Wyłączony

 

 

 

 

 

Port może przechodzić z jednego stanu do innego w następujących cyklach:

* od inicjacji do blokowania

* od blokowania do nasłuchu lub zablokowania

* od nasłuchu do zapamiętywania lub zablokowania

* od zapamiętywania do przesyłania lub zablokowania

* od przesyłania do zablokowania

Wynikiem zidentyfikowania i wyeliminowania pętli z wykorzystaniem protokołu STP jest powstanie

hierarchicznej struktury drzewiastej wolnej od zapętleń. Alternatywne ścieżki są jednak w dalszym ciągu dostępne

i mogą być wykorzystane w razie potrzeby.

 

 

l       Domena kolizyjna – grupa stacji roboczych połączona ze sobą wspólnym medium transmisyjnym. Każda ze stacji ma wpływ na jakość transmisji innych stacji;

l       Sztorm kolizyjny – nadmierny wzrost żądań obsługi transmisji danych powodujący zjawisko kolizji i utrudniający prawidłową pracę sieci;

l       Segmentacja sieci – podział domeny kolizyjnej na mniejsze części (segmenty);

l       Domena rozgłoszeniowa – grupa stacji do których docierają ramki rozgłoszeniowe czyli adresowane „do wszystkich”;

l       System rozgłoszeniowy – powstaje jeżeli w sieci jest wiele stacji wysyłających ramki rozgłoszeniowe;

 

 

Domena kolizyjna i domena rozgłoszeniowa

8.2.1 Środowiska ze współdzielonym medium

Przyswojenie sobie pojęcia domeny kolizyjnej wymaga zrozumienia, czym są kolizje i co je powoduje. W celu

wyjaśnienia pojęcia kolizji, dokonano przeglądu mediów oraz topologii warstwy pierwszej.

Niektóre sieci są ze sobą bezpośrednio połączone i wszystkie hosty współdzielą warstwę 1. Poniżej przedstawiono

przykłady:

· Środowisko ze współdzielonym medium: Występuje, gdy wiele hostów ma dostęp do tego samego medium.

Jeśli na przykład kilka komputerów jest dołączonych do tego samego przewodu lub światłowodu to

współdzielą one to samo środowisko medium.

· Rozszerzone środowisko ze współdzielonym medium: Jest to specjalny rodzaj środowiska ze

współdzielonym medium, w którym urządzenia sieciowe mogą rozszerzyć środowisko w taki sposób, że

możliwy jest wielodostęp lub większa długość połączeń kablowych.

· Środowisko sieciowe typu punkt-punkt: Często stosuje się je w sieciowych połączeniach telefonicznych.

Jest ono najbardziej znane użytkownikom domowym. Stanowi taki typ współdzielonego środowiska

sieciowego, w którym pojedyncze urządzenie jest połączone z innym pojedynczym urządzeniem (tak jak w

przypadku połączenia komputera z dostawcą usług internetowych za pomocą modemu i linii telefonicznej).

Umiejętność zidentyfikowania środowiska ze współdzielonym medium jest ważna, ponieważ

tylko tam występują kolizje. Sieć drogowa jest przykładem współdzielonego środowiska,

w którym mogą występować kolizje, ponieważ duża liczba pojazdów korzysta z tych

samych dróg. Wraz ze zwiększaniem się w systemie liczby pojazdów, zwiększa się

prawdopodobieństwo wystąpienia kolizji. Współdzielona sieć danych jest bardzo podobna do systemu dróg.

Zostały zdefiniowane reguły określające zasady dostępu do medium

sieciowego, jednak czasem, ze względu na natężenie ruchu, stosowanie reguł nie wystarcza i występują kolizje

 

 

Domena rozgłoszeniowa (ang. Broadcast domain) to logiczny segment sieci, w którym jakikolwiek komputer lub inne urządzenie połączone do sieci może bezpośrednio transmitować do jakiegokolwiek innego w domenie, bez przechodzenia przez urządzenia routujące, pod warunkiem, że dzielą tę samą podsieć, bramę domyślną i są w tej samej VLAN.

Z innej strony, domena rozgłoszeniowa jest segmentem sieci jaki pokonują ramki typu broadcast lub multicast (granicę stanowią routery lub sieci wirtualne)

 

 

 

MOSTY STA

Celem istnienia wielodróg jest poprawa przepustowości sieci, unikanie przeciążeń, oraz poprawa niezawodności. Z uwagi na zapętlanie się, wielodrogi nie mogą być stosowane w

mostach topologicznych. Jeśli nawet istnieje taka droga fizycznie – blokowane są odpowiednie porty urządzeń.

W mostach STA wielodrogi mogą być stosowane, ale tylko na poziomie fizycznym – logiczniesieć nadal musi stanowić drzewo.

 

Budowa drzewa rozpinającego ma na celu usunięcie z topologii logicznej pętli topologicznych.

Do tego celu wybierane są gałęzie o minimalnym koszcie. Oznacza to, że drzewo rozpinające

zbudowane jest z gałęzi, których sumaryczny koszt jest minimalny.

Koszt trasy oceniany jest na dwa sposoby:

zliczanie ilości skoków niezbędnych do przejścia od nadawcy do odbiorcy. “Skoki” to

przejścia po drodze z urządzenia do urządzenia.

koszt jest odwrotnie proporcjonalny do przepustowości gałęzi.

Do określenia drzewa rozpinającego o najmniejszym koszcie stosuje się algorytmy Kraskala,

Prima lub Dijkstry. Zostały one wymyślone w latach 1956-1959.

 

Algorytm Kraskala – budujemy las drzew wybierając gałęzie od najmniejszych wag,

sprawdzając za każdym razem czy nowa gałąź nie utworzy cyklu. Umiarkowana efektywność.

Algorytmy Prima / Dijkstry - wybieramy najpierw korzeń (intuicyjnie, bądź formalnie),

następnie dołączamy gałęzie o najmniejszym koszcie. Budujemy od razu strukturę spójną.

koncentratory

most

ruch w sieci z mostem

ruch w sieci bez mostu

 

Złożoność zależna od ilości węzłów.

W algorytmie tym więc wykorzystywane są gałęzie o największej przepustowości.

Od wyboru korzenia drzewa w znacznym stopniu zależy przepustowość struktury.

Algorytm ten został zaimplementowany sprzętowo w 1980 roku.

W algorytmie STA koszt budowy drzewa określany jest jako odwrotność szybkości kanału, a korzeń

drzewa to most o najniższym adresie fizycznym (MAC – Media Access Control).

Do budowy drzewa rozpinającego wykorzystywany jest protokół BPDU.

W protokole tym występują dwa rodzaje ramek, wykorzystywane do budowania struktury,

oraz do kontroli poprawności jej działania.

Gdy rozpoczyna się tworzenie drzewa, każda jednostka wysyła ramki informacyjne, zachowując

się jakby to ona była korzeniem drzewa. Ramka zawiera informację na temat

nadawcy (potencjalnego korzenia) oraz o koszcie. Inne jednostki w momencie otrzymania

takiej ramki porównują adres nadawcy ze swoim własnym. Jeśli jest mniejszy – otrzymaną

ramkę wysyłają dalej zwiększając informację o koszcie.

Gdy do jednostki trafi informacja od nadawcy różnymi drogami, wybierana jest droga o

mniejszym koszcie, natomiast druga jest zamykana (blokowany jest odpowiedni port).

W przypadku uszkodzenia struktury – ponieważ nie istnieją wielodrogi, sieć traci spójność.

Dlatego co jakiś czas, (zazwyczaj kilka sekund) wysyłane są ramki BPDU służące do kontroli

poprawności działania sieci. Jeśli wykryta zostanie niespójność, rozpoczyna się ponownie

procedura tworzenia drzewa.

Czas budowania drzewa zazwyczaj nie przekracza 10 sek.