Topologie sieci komputerowych

advertisement
Wojciech Międlar
Topologie sieci komputerowych - część 1
1
Topologie sieci komputerowych
Wojciech Międlar - student trzeciego roku Informatyki i Ekonometrii (trybu zaocznego)
w Wyższej Szkole Informatyki i Zarządzania z siedzibą w Rzeszowie.
Wprowadzenie ...
Dynamiczny postęp w dziedzinie informatyki, jaki można zaobserwować od kilkunastu lat sprawił, że
normą stało się łączenie komputerów znajdujących się np. w jednym pomieszczeniu w złożoną
strukturę czyli w sieć komputerową. Dzięki takiemu zabiegowi użytkownicy poszczególnych
komputerów mają dostęp do nowych, do tej pory niedostępnych możliwości. Mogą udostępniać
zasoby swoich dysków, korzystać wspólnie z urządzeń zewnętrznych takich jak drukarka czy ploter
lub mieć dostęp do wspólnych baz danych. Ideą, dla której powstała pierwsza sieć komputerowa było
przesyłanie i współdzielenie informacji.
Praca sieci polega na dzieleniu takiej informacji na tzw. pakiety (bloki) a następnie na przesłaniu tak
spreparowanej informacji pomiędzy nadawcą a odbiorcą. Informacje od nadawcy do adresata mogą
wędrować różnymi drogami i w różnej kolejności. Wybór trasy wędrówki pakietu od nadawcy do
adresata uzależniony jest od rodzaju użytego protokołu, czyli zbioru formalnych zasad przesyłania
informacji (danych) w sieci komputerowej. W oparciu o użyty protokół urządzenia sieciowe analizują
informacje, sterują transmisją, badają jej poprawność po to by w końcu ustalić algorytm realizacji
drogi przesyłu.
W każdej sieci komputerowej pracują terminale, stacje robocze lub serwery, będące urządzeniami
wymieniającymi informacje. Rodzaj urządzeń włączonych do sieci odpowiadać musi jej przeznaczeniu.
Istotną rolę odgrywa tu również obszar, jaki swoim zasięgiem działania pokrywa sieć. Dlatego istnieje
podział sieci wg. tego kryterium.
Sieci lokalne (LAN) – połączone komputery mogą przesyłać między sobą informacje z dużą
prędkością. Medium transmisyjne w tego typu sieciach zapewnia poprawną komunikację komputerów,
które mogą znajdować się maksymalnie kilka kilometrów od siebie. Medium transmisyjnym w takich
sieciach jest najczęściej kabel typu Ethernet lub światłowód. Skrót pochodzi od anglojęzycznego Local
Area Network. Średnica tych sieci zawiera się w przedziale od kilku metrów do kilku kilometrów.
Najczęściej pracują one z szybkością 10 Mbps[1] 1. Sieci LAN zakładane obecnie niejednokrotnie mają
znaczne rozmiary i z tego względu klasyfikowane są jako sieci kampusowe.
Sieci metropolitalne (MAN) – są to większe sieci LAN. Swoim zasięgiem obejmują większy obszar
geograficzny i mają większą przepustowość niż sieci LAN. Waha się ona on kilku kbps do kilku Gbps.
Średnica tych sieci może mieć od kilku do kilkuset kilometrów. Zadaniem tych sieci jest łączenie ze
sobą sieci lokalnych.
Sieci rozległe (WAN) – buduje się wszędzie tam gdzie istnieje potrzeba poprawnego przesyłu
danych bez względu na odległość dzielącą nadawcę z odbiorcą informacji.
Każdy wynalazek obarczony może być pewnymi błędami, które można usunąć ale dopiero w procesie
jego eksploatacji. Podobnie było i jest z sieciami komputerowymi. We wczesnym okresie rozwoju sieci
pojawił się problem połączenia sprzętu różnych producentów i komputerów o mniejszych i większych
mocach obliczeniowych. To wymusiło sytuację w której zrodziła się potrzeba utworzenia standardów
dotyczących infrastruktury połączeń. Nadzór nad tym standardem objęła Międzynarodowa Organizacja
Normalizacyjna (ISO – International Organization for Standarization). Powstał model sieci otwartych
(Open System Interconnection). Od momentu wprowadzenia tego standardu wszystkie nowe
technologie sieciowe są tak projektowane by były w pełni z nim zgodne. Model OSI składa się z 7
warstw, z których każda pełni ściśle określone funkcje i dzieli procesy zachodzące podczas sesji
komunikacyjnej na siedem funkcjonalnych warstw. Warstwy te zorganizowane są według naturalnej
sekwencji zdarzeń zachodzących podczas sesji komunikacyjnej. Jednym z celów stawianych sieciom
komputerowym jest łączenie istniejących systemów. Dzięki temu można korzystać z mocy
obliczeniowej wielu stosunkowo tanich maszyn zamiast kupowania jednego drogiego superkomputera.
W ten sposób można łączyć ze sobą mikroprocesory mniejszych stacji w celu zastąpienia pracy
dużego komputera. Poza tym jedna aplikacja może być dostępna dla wielu użytkowników. Jest to
szczególnie pomocne przy pracy nad dużymi projektami, podczas której współpracownicy korzystają
ze wspólnych plików, dysków, drukarek i innych urządzeń zainstalowanych w sieci. Poza
przetwarzaniem rozproszonym sieć buduje się np. wtedy gdy zachodzi potrzeba korzystania z jednej
1
Szybkość transmisji wyrażana jest w jednostkach bps. 1 bps=1 bit na sekundę (ang. bit per second)
Wojciech Międlar
Topologie sieci komputerowych - część 1
2
bazy, która na bieżąco aktualizowana jest przez wielu użytkowników. Systemy takie spotkać można
każdego dnia między innymi w szpitalach i bankach.
Geneza i rozwój sieci komputerowych
Czym jest sieć komputerowa ?
Sieć jest zespołem urządzeń transmisyjnych takich jak karta sieciowa, koncentrator czy mostek, które
połączone są ze sobą medium transmisyjnym czyli kablem, światłowodem, łączem na podczerwień
(IrDA) lub radiowo i pracują pod kontrolą odpowiedniego oprogramowania tzw. sieciowego systemu
operacyjnego. Zadaniem sieci jest przesyłanie i wymiana danych przy użyciu odpowiedniego protokołu
transmisyjnego np.: TCP/IP lub IPX, pomiędzy poszczególnymi stacjami roboczymi, czyli komputerami
które tworzą sieć. Początki sieci sięgają jeszcze lat 70 XX wieku gdy powstała pierwsza sieć o nazwie
AlochaNET. Idea przyświecająca jej powstaniu sprowadzała się do transmisji informacji które miały
postać ramek. Nadawca wysyłał ramkę a następnie czekał na potwierdzenie odebrania owej ramki od
odbiorcy. Po jej otrzymaniu cała procedura zaczynała się od nowa. Niestety ze względu na dużą liczbę
kolizji (każde z urządzeń mogło wysłać wiadomość w tym samym czasie) sieć ta była bardzo wolna i
właśnie z powodu kolizji nie nadawała się do zaawansowanych zastosowań. Przełomowym momentem
w procesie powstawania standardu sieci było opracowanie przez Roberta Metcalfe’a i Davida Boggs'a
sieci Ethernet. Oparta była ona na kablu koncentrycznym. Kolejnym etapem było przedstawienie tego
pomysłu na "National Computer Conference" która miała miejsce w 1976 roku. Specyfikacja w sensie
formalnym została opracowana i opublikowana dopiero w roku 1980 przez firmę Xerox, ale podstawy
standardu tworzyło równolegle trzech potentatów ówczesnego rynku, tzn. firmy: IBM, Xerox oraz
Intel. W 1985 sieć Ethernet została zaakceptowana przez "Institute of Electrical and Electronics
Engineers", ustanawiając normę IEEE 802.3. Od tego czasu popularność sieci Ethernet (dzięki
szerokiemu zastosowaniu jej w przemyśle) bardzo wzrosła uzyskując dzisiejszą rangę. Można nawet
pokusić się o twierdzenie. że wniosła ona istotny wkład w postęp oraz dzisiejszy standard życia.
Omawiając temat topologii sieci należy przytoczyć kilka istotnych dat z życia sieci.
Historia sieci
Lata 60-te
Izolowane systemy komputerowe.
1969
ARPANET - Advanced Research Project Agency Network
1978
UUCP - UNIX to UNIX copy.
1979
USENET - Users Network.
1981
CSNET - Computer Science Network.
1981
BITNET - Because It's Time Network
1983
FidoNet.
1983
Internet (TCP/IP)
1984
NSFNET - National Science Foundation Network.
1987
OSI - Open System Interconnection.
1988
GOSIP - Government OSI Profile.
Początkowo każdy z komputerów pracował jako autonomiczna, odrębna jednostka. Przenoszenie
danych pomiędzy komputerami odbywało się za pomocą magnetycznych nośników danych takich jak
dyskietki czy taśmy. Do pewnego stopnia było to wykonalne. Problem zaczynał się w momencie
natychmiastowej potrzeby przesłania ważnych danych do innego komputera oddalonego o np.
kilkadziesiąt kilometrów. Właśnie w tym celu połączono kilka komputerów ze sobą
tworząc sieć. Graficznie ewaluowanie sieci przedstawić można tak:
1. Izolowane systemy
2. Pierwsze sieci
komputerowe
3. Sieć globalna
Rys.1 Rozwój sieci
Wojciech Międlar
Topologie sieci komputerowych - część 1
3
Na początku sieci komputerowe funkcjonowały jako oddzielne formy połączeń, które jednocześnie
stanowiły integralną część rozwiązań głównie dla celów obliczeniowych. W skład standardowej
konfiguracji wchodziły terminale, które połączone były sprzętowo z kontrolerami urządzeń. Kontrolery
te umożliwiały wielodostęp do urządzeń komunikacyjnych, a te z kolei pozwalały na przyłączanie
innych urządzeń do sieci głównej. Sercem systemu był tzw. procesor czołowy, który umożliwiał wielu
urządzeniom komunikacyjnym współdzielenie pojedynczego kanału dostępu do sieci. Dlatego
ówczesne programy sieciowe funkcjonowały jedynie w środowisku obsługiwanym przez pojedynczy
system operacyjny, który mógł działać jedynie na urządzeniu jednego producenta. W wyniku takiej
sytuacji terminale użytkowników i urządzenia za pomocą których były one przyłączane do sieci także
musiały stanowić część zintegrowanego rozwiązania konkretnego producenta.
Wówczas zaistniała potrzeba podniesienia wydajności pracy
zintegrowanych w ten sposób rozwiązań systemowych.
Naukowcy z centrum badawczego firmy Xerox w Palo Alto
(Palo Alto Research Center), usprawnili sposób współdzielenia
plików i danych pomiędzy swoimi stacjami roboczymi. Do tej
pory udostępnianie danych realizowane było przy użyciu
dyskietek. Było to czasochłonne i nieporęczne. Rozwiązanie
opracowane w firmie Xerox polegało na utworzeniu pierwszej
tzw. sieci lokalnej LAN (Local Area Network), która otrzymała
nazwę Ethernet. Sieć funkcjonowała w oparciu o protokoły
współdziałania międzysieciowego wyższych warstw. Jej
możliwości rynkowe zostały dość szybko wykorzystane:
pierwotny Ethernet, obecnie znany pod nazwami: Ethernet
Parc lub Ethernet I, został zastąpiony przez jego nieco
udoskonaloną wersję - DIX Ethernet, zwaną również Ethernet
II. Autorzy tego opracowania firma Xerox, Digital oraz Intel
ustaliły wspólnie "standardy" sieciowe, do przestrzegania
których zobowiązały się przy produkcji jej elementów
składowych.
Rys. 2 Sprzętowy dostęp do sieci mainframe[1]
Powszechną konfiguracją stosowaną dawniej było sprzętowe połączenie terminali z kontrolerami
urządzeń. Kontrolery te umożliwiały wielodostęp do urządzeń komunikacyjnych, które z kolei
pozwalały na przyłączenie urządzeń do sieci głównej (mainframe). Wszelkie programy pracowały
jednak tylko w środowisku, które obsługiwał jeden system operacyjny. W konsekwencji terminale
użytkowników oraz urządzenia, dzięki którym były one przyłączane do sieci musiały być częścią
zintegrowanego rozwiązania jednego
producenta. Było to uciążliwe. Wtedy to
nastąpiły dwie ogromne zmiany.
Pierwszą z nich było pojawienie się pierwszych
komputerów klasy PC. Komputer, który do tej
pory zajmował sporych rozmiarów pokój, nagle
z powodzeniem mieścił się na biurku.
Drugą natomiast stanowiło poprawienie
wydajności pracy poprzez usprawnienie
współdzielenia plików między już inteligentnymi
stacjami roboczymi.
Rys. 3 Wczesny szkic sieci Ethernet autorstwa dr Roberta Metcalfe’a.
W zasadzie za początek sieci przyjmuje się pierwsze próby, które uwieńczone zostały stworzeniem
sieci o nazwie Ethernet. Historia Ethernetu zaczęła sie w 1970 roku, kiedy to firma XEROX stworzyła
prototyp sieci komputerowej. Pierwsza sieć będąca podstawą Ethernetu została zaprojektowana w
1976 r przez dr. Robert M. Metcalfe. Została ona zaprezentowana na konferencji National Computer
Conference w czerwcu tego roku.
W 1980 roku firmy Digital Equipment Corporation (DEC), Intel i Xerox zaczęły promocję
jednopasmowej sieci komputerowej na kablu koncentrycznym przy użyciu metody dostępu CSMA/CD i
opublikowały "Blue Book Standard" dla wersji I Ethernetu. Ten standard został rozszerzony w 1985 r
do wersji ETHERNET II.
Wojciech Międlar
Topologie sieci komputerowych - część 1
4
Model referencyjny OSI
W niedługim czasie po pojawieniu się pierwszych sieci nastąpił ich burzliwy rozwój. Wzrastała ilość
komputerów włączanych do sieci oraz odległości pomiędzy nimi. Na rynku pojawiały się nowe firmy
oferujące własne rozwiązania i technologie. Sytuacja ta wymusiła stworzenie pewnego wzorca zgodnie
z którym bez konfliktów
można by było łączyć ze sobą
sprzęt różnych producentów.
Taki standard powstał pod
kontrolą Międzynarodowej
Organizacji Normalizacyjnej
(ISO – International
Organization for
Standarization)
i nosi miano modelu OSI
(Open System
Interconnection). Wszystkie
nowe rozwiązania zmierzają
w kierunku zapewnienia pełnej
zgodności z tym standardem.
Rys. 4 Model referencyjny OSI.
Model OSI składa się z 7 warstw, z których każda pełni ściśle określone funkcje.
Warstwa 1-fizyczna: jej zadaniem jest właściwy dobór elektrycznych parametrów połączenia takich
jak napięcie czy długość fali. W warstwie tej przesyłane są strumienie bitów. Tu
odbierane są ramki danych z warstwy 2, i przesyłane są one szeregowo bit po bicie.
Warstwa ta „widzi” dane jako jedynki i zera.
Warstwa 2-łącza: jej zadaniem jest złożenie informacji w tzw. ramki. W tej warstwie pracują np.
karty sieciowe Ethernet. Odpowiedzialna jest ona za końcową zgodność przesyłanych
danych. Tu składane są strumienie binarne i umieszczane są w ramkach.
Warstwa 3-sieci: odpowiada za określenie trasy pomiędzy nadawcą a odbiorcą. Brak tu
mechanizmów kontroli i korekcji błędów. Posiada własną architekturę trasowania
niezależną od adresowania fizycznego. Jeśli sieć podzielona jest na segmenty przy użyciu
router’a korzystanie z tej warstwy jest obowiązkowe. Protokoły trasowane to: IP, IPX,
AppleTalk..
Warstwa 4-transportowa: jej rola zaczyna się po odebraniu informacji przez komputer docelowy
bądź inne urządzenie sieciowe. Jej zadaniem jest uszeregowanie odebranej informacji w
odpowiedniej kolejności i skierowanie jej do aplikacji która będzie umiała ją obsłużyć.
Warstwa ta potrafi także wykrywać pakiety odrzucone przez router i generować żądanie
ich ponownej transmisji.
Warstwa 5-sesji: przeznaczona jest dla użytkownika i jego procesów. W tej warstwie działają
programy, z których bezpośrednio korzystają użytkownicy.
Jak nazwa wskazuje czuwa ona nad przebiegiem komunikacji podczas połączenia dwóch
komputerów. Warstwa ta określa charakter połączenia: jedno lub dwukierunkowy.
Warstwy: 6-prezentacji: odpowiada za sposób kodowania wszelkich danych i ewentualna translacje
pomiędzy niezgodnymi schematami kodowania.
Warstwa 7-aplikacji: pełni rolę interfejsu pomiędzy dana aplikacja a usługami sieciowymi. Inicjuje
ona sesje komunikacyjne.
Pomimo faktu, że na model OSI składa się 7 warstw, to dana sesja komunikacyjna nie musi wcale
wykorzystywać wszystkich siedmiu. Pionowa orientacja modelu odzwierciedla przebieg procesów i
danych. Każda z warstw posiada interfejsy warstw sąsiednich. Komunikacja możliwa jest wtedy, gdy
komputery przesyłają dane, instrukcje, adresy etc. Między odpowiednimi warstwami.
Topologia typu gwiazda
Połączenie sieci LAN o topologii gwiazdy z przyłączonymi do niej urządzeniami rozchodzą się z
jednego, wspólnego punktu, którym jest serwer lub koncentrator. Każde urządzenie przyłączone do
sieci w topologii gwiazdy może uzyskiwać bezpośredni i niezależny od innych urządzeń dostęp do
nośnika. W tym celu urządzenia te muszą współdzielić dostępne szerokości pasma koncentratora.
Sposób połączenia przedstawia poniższy rysunek.
Wojciech Międlar
Topologie sieci komputerowych - część 1
5
Istnieją dwa rodzaje topologii typu gwiazda:
 aktywne (sygnał w koncentratorze jest regenerowany lub wzmacniany)
 bierne (cały transfer w sieci przechodzi poprzez hub, z którego sygnał może być nadawany do
kilku lub do wszystkich węzłów.
Topologie gwiazdy stały się dominującym we współczesnych sieciach LAN rodzajem topologii. Są one
elastyczne, skalowalne i stosunkowo tanie w porównaniu z bardziej skomplikowanymi sieciami LAN o
ściśle regulowanych metodach dostępu. Główną zaletą topologii gwiazdy jest to, że sieć może działać
nawet, gdy jeden lub kilka komputerów ulegnie awarii. Ponieważ każdy komputer jest połączony tylko
z koncentratorem, w wypadku awarii tego komputera dane mogą być przesyłane przez koncentrator
pomiędzy pozostałymi komputerami. Podstawową wadą tego rozwiązania jest to, że w wypadku awarii
centralnego koncentratora cała sieć przestaje działać. Ponieważ cały ruch w sieci jest obsługiwany
przez koncentrator, największe znaczenie ma odpowiednie zabezpieczenie tego komputera.



Zalety topologii typu gwiazda:
Sieć może działać nawet, gdy jeden lub
kilka komputerów ulegnie awarii.
Sieć jest elastyczna i skalowalna
Łatwość monitoringu, konserwacji,
wykrywania i lokalizacji kolizji


Wady topologii typu gwiazda:
Stosunkowo wysoki koszt spowodowany
jest dużą ilością kabla potrzebnego do
podłączenia każdego z węzłów
W wypadku awarii elementu centralnego
jakim jest koncentrator sieć nie działa
Metody dostępu do medium transmisyjnego w sieciach LAN
W każdej sieci istnieją mechanizmy regulujące dostęp do nośnika. Dostęp ten realizowany jest przez
warstwę 2 referencyjnego modelu OSI czyli przez warstwę danych. Istnieją 4 sposoby regulowania
dostępu do nośnika w sieciach lokalnych:
 rywalizacja
 przesyłanie tokenu
 priorytet żądań
 przełączanie
Dostęp do nośnika na zasadzie rywalizacji jest bardzo często stosowany w sieciach LAN które używają
rywalizacji jako podstawy do przyznania prawa do transmisji. Urządzenia sieciowe rywalizują ze sobą
o dostępne pasmo szerokości i tworzą tzw. domenę kolizji. Metoda ta przyjęta została w wielu
wersjach sieci Ethernet. Najbardziej znanymi z nich są:
- Ethernet II, znany też pod nazwą DIX Ethernet
- IEEE 802.3 - 10 Mbps Ethernet (CSMA/CD 2)
- IEEE 802.3 – 100 Mbps Fast Ethernet
- IEEE 802.3z - 2 Gpbs Gigabit Fast Ethernet
Początek sieci Ethernet był taki, że został on stworzony jako prowizoryczny mechanizm mający za
zadanie pomoc naukowcom w odkrywaniu nowych technologii. Pomysł przeszedł jednak oczekiwania i
stał się jedną z najbardziej wartościowych i trwałych technologii. Pierwotnie Ethernet funkcjonował
jako sieć lokalna utworzona przez naukowców w centrum badawczym firmy Xerox w Palo Alto i jako
taki nie miał być nigdy technologią mającą za zadanie podbój rynków informatychnych. Jego działanie
oparte było na odpowiedniej wielkości ramkach i lepiej zdefiniowanych protokołach warstwysieci i
transportu. Ethernet był siecią półdupleksową w której urządzenia połączone były grubym kablem
koncentrycznym.. Prędkość przesyłania sygnału sięgała 10 Mbps. Obecnie sieć tego typu nosi nazwę
PARC Ethernet lub Ethernet 1. Poznawszy możliwości Ethernetu jej twórcy docenili potencjał tej
technologii. Pozyskali partnerów w celu wprowadzenia jej na rynek. Były nimi firmy Intel oraz DEC
(Digital Equipment Corporation). Firmy te wspólnie ulepszyły pierwowzór Ethernetu, któremu nadano
nazwę Ethernet II używaną wymiennie z DIX Ethernet. Niestety nie stał się on standardem otwartym
ponieważ kontrolowany był przez jego głównych twórców.
2
CSMA/CD ang. Carier Sense Multiple Access/Collision Detection - wielodostęp do łącza sieci z badaniem stanu
kanału i wykrywaniem kolizji. W lutym 1980r instytut IEEEE wziął na siebie odpowiedzialność przekształceni
rozwijającego się Ethernetu w prawdziwy standard otwarty. Celem tego przedsięwzięcia było utworzenie
standardów dla sieci LAN i WAN. Uruchomiono projekt 802 z wieloma podkomisjami i grupami roboczymi.
Projekt 802 rozbił sieć na składniki funkcjonalne oraz pogrupował je w logiczne następujące po sobie warstwy.
Wojciech Międlar
Topologie sieci komputerowych - część 1
6
Rywalizacja
Dostęp na zasadzie rywalizacji to stosunkowo prosty sposób dostępu do nośnika ponieważ nie posiada
scentralizowanych mechanizmów zarządzających tym procesem. Po prostu każde urządzenie sieciowe
bierze na siebie zadanie samodzielnego przeprowadzenia transmisji. Każdorazowo przed przesłaniem
informacji, urządzenie sprawdza czy kanał
transmisyjny jest wolny. Jeśli kanał jest zajęty,
próba transmisji zostaje porzucona na ściśle
określony czas, po którym zostaje ponownie
podjęta.
Rys. 14 Transmisja pasmem podstawowym
Stosując tą metodę nośniki transmisji mogą jednocześnie
obsługiwać tylko jeden sygnał, który zajmuje całą dostępną
szerokość pasma transmisyjnego. Jest to transmisja w tzw.
paśmie podstawowym i oznacza komunikację z
wykorzystaniem tylko jednego kanału. Implikacją tego
stanu rzeczy jest:
- w danej chwili tylko jedno urządzenie może przesyłać
dane
- urządzenie może prowadzić odbiór lub nadawanie, ale
nigdy obie te czynności nie występują jednocześnie (tzw.
półdupleks)
W sieci, która wykorzystuje półdupleks tylko jedno
urządzenie może w określonej chwili przesyłać dane.
Pozostałe urządzenia muszą czekać i nasłuchiwać stanu
kanału transmisji co obrazuje poniższy rysunek.
Rys. 15 Półdupleksowa transmisja w paśmie podstawowym.
Innym trybem pracy sieci w kontekście przesyłania informacji jest pełny dupleks. Polega on na tym,
że dostępna szerokość pasma podzielona jest na odrębne kanały. W celu wyodrębnienia osobnego
kanału można użyć poszczególnych
przewodów kabla wielożyłowego. W
sieciach LAN typowy dupleks
realizowany jest dzięki technologii
przełączania. Dzięki niemu urządzenia
sieciowe mogą jednocześnie dane
wysyłać i je odbierać.
Omawiając metody rywalizacji dostępu
wymienić należy dwie główne:
a) z wykrywaniem kolizji
(CSMA/CD–Carier Sense Multiple
Access/Collision Detection)
b) z unikaniem kolizji
(CSMA/CA-Carier Sense Multiple
Access/Collision Avoidance)
Sieciowa transmisję z wykrywaniem
kolizji przedstawić można w
uproszczeniu wg. poniższego schematu
blokowego.
Rys. 16 Transmisja z wykrywaniem kolizji.
Stacja sprawdza czy ktoś już nadaje. Jeśli tak, czeka aż skończy. Stacja zaczyna nadawać cały czas
sprawdzając czy ktoś inny nie nadaje jednocześnie z nią. Jeśli nie, to może nadawać dalej. W
przypadku gdy ktoś nadawał (wykryto kolizję), przerywa nadawanie i odczekuje losowy odcinek
czasu. Potem zaczyna nadawać od początku.
Transmisja w sieci z unikaniem kolizji może być zrealizowana poprzez zgłoszenia żądania transmisji.
Algorytm działania takiej sieci wygląda następująco:
Wojciech Międlar
Topologie sieci komputerowych - część 1
7
Stacja sprawdza czy ktoś już nadaje. Jeśli tak czeka aż skończy. Jeśli nie, sprawdza czy od ostatniego
żądania transmisji opłynął czas T. Jeśli nie, powtarza sprawdzenia. Jeśli upłynął stacja zgłasza żądanie
transmisji i czeka przez ustalony czas T (jednakowy dla wszystkich stacji w danej sieci) nasłuchując
czy ktoś inny nie zgłosił żądania. Jeżeli stwierdzi inne żądanie, czeka losowy odcinek czasu i zaczyna
procedurę od początku.
Jeśli nie, zaczyna
nadawanie.
Inną metodą jest tzw.
przepytywanie.
Wyróżnione urządzenie
np. serwer cyklicznie
wysyła do innych stacji w
sieci pytanie, czy te mają
coś do wysłania. W
topologii gwiazdy
urządzeniem
przepytującym może być
hub.
Rys.17 Transmisja z unikaniem kolizji
Przesyłanie tokenu
Kolejną metodą dostępu do medium transmisji jest
dostęp na zasadzie pierścienia w sieciach FDDI 3.
Charakterystyczny zjawiskiem w sieciach LAN które
oparte są na topologii pierścienia jest przesyłanie
tokenu. Istnieją różne wersje sieci FDDI oraz Token
Ring. Token Ring jest specjalną ramką która
przesyłana jest w jednym kierunku do kolejnych
urządzeń wchodzących w skład pierścienia. Token
przesłany może być jedynie wtedy gdy sieć jest wolna.
Ramka tokenu ma długość kilku oktetów i zawiera
specjalny wzór bitów. Wzór ten ulega zmianie w celu
zmiany tokenu w sekwencję początku ramki. Jest to
informacja dla urządzeń znajdujących się w dalszej
części pierścienia, która mówi, że otrzymana ramka
jest ramką danych. Po sekwencji początku ramki
umieszczone są adresy nadawcy i odbiorcy. Token
decyduje o dostępie do nośnika co przedstawia
poniższy rysunek.
Rys.18 Sekwencyjne przekazywanie tokenu po drodze okrężnej.
Urządzenia Token Ring nie mogą nadawać niczego bez tokenu. Podstawowy token służy dwóm celom:
- jest używany do przyznawania przywilejów dostępu.
- podstawowa ramka tokenu jest przekształcana w nagłówki różnych, specjalnych ramek.
W rzeczywistości każda funkcja (w tym także przesyłanie danych) wymaga ramki o określonej
strukturze. Token Ring obsługuje następujące rodzaje ramek:
- Ramkę Token
- Ramkę danych
- Ramkę danych LLC
- Ramki zarządzania MAC
- Ramkę przerwania
3
FDDI-Fiber Distributed Data Interface –Interfejs Danych Przesyłanych Światłodowo. Standard znormalizowany w
połowie lat 80-tych jako specyfikacja ANSI X3T9.5. Cechuje ją solidność i niezawodność oraz szybkość
transmisji na poziomie 100 Mbps a także dwa przeciwbieżne pierścienie wykorzystujące kable światłowodowe.
Rozpiętość pierścienia dochodzić może do 200 km.
Wojciech Międlar
Topologie sieci komputerowych - część 1
8
Idea przekazywania znacznika (token passing) nie jest nowa. Metoda ta jest naturalną dla topologii
pierścienia, a innych topologiach pojawia się problem z określeniem kolejności w jakiej znacznik ma
obiegać stacje. Algorytm działania sieci z przekazywaniem znacznika w topologii magistrali lub
gwiazdy jest mniej więcej taki:
Stacja otrzymuje znacznik, wysyła dane do adresata i przekazuje znacznik następnej stacji.
W sieci o topologii pierścienia przedstawia się to trochę bardziej skomplikowanie.
Przyjmijmy kierunek przepływu danych taki jak na rondzie, czyli stacja odbiera z lewej i wysyła w
prawo. Stacja odbiera dane od lewego sąsiada, sprawdza czy jest to znacznik. Jeśli tak, to wysyła
swoje dane do prawego i czeka. Jeśli były to dane to sprawdza czy były one wysłane przez nią samą.
Jeśli tak, wysyła znacznik do prawego sąsiada. Jeśli nie przekazuje otrzymane dane do prawego
sąsiada. Najbliższą analogią jest "głuchy telefon". Oczywiście dochodzi jeszcze sprawdzenie
poprawności transmisji itp. Nie zmienia to jednak ogólnej zasady działania.
Niezależnie od topologii interesującym problemem jest co zrobić jeśli znacznik zaginął lub kto ma
wysłać pierwszy znacznik w chwili uruchomienia sieci.
Priorytet żądań
Metoda ta wykorzystywana jest w sieciach zgodnych ze specyfikacją http://www.ieee.org/IEEE 802.124
100 Mbps w których dostęp przyznawany jest cyklicznie. Sieć VG-Any-LAN umożliwia łączenie ramek
o formatach FDDi oraz Token Ring. Niewątpliwą zaletą tej sieci jest stosunkowo duża jej niezależność
od rodzaju zastosowanego nośnika. Jest to możliwe dzięki zastosowaniu czterech par nieekranowanej
skrętki dwużyłowej kategorii 3, nieekranowanej skrętki kategorii 5, ekranowanej skrętki kategorii 5
oraz kabla światłowodu o średnicy 62,5 mikrona. Sieć tego typu daje możliwość uzyskania
priorytetów, tzn. pozwala pakietom krytycznym na uzyskanie w razie potrzeby odpowiedniej
szerokości pasma.
Sieci VG-Any-LAN mają też swoje ograniczenia. Wymagają one użycia aż czterech par skrętki
dwużyłowej. Użytkownik dotychczasowego okablowania 10Base-T zmuszony będzie do ponownego
okablowania swoich stacji. Poza tym technologia ta nie współpracuje z popularnym „czystym
Ethernetem” ponieważ używa innej metody dostępu do nośnika.
Metodę pracy sieci standardu 802.12 przedstawić można w następujący sposób:
centralny wzmacniak (koncentrator) regularnie sprawdza stan portów przyłączonych do niego.
Wykonywane jest to w kolejności portów w celu sprawdzenia które z nich zgłaszają żądanie
transmisji. Po rozpoznaniu zgłoszenia koncentrator określa jego priorytet - normalny lub wysoki.
Wprowadzenie priorytetów umożliwia na uprzywilejowany dostęp do nośnika procesom które muszą
być obsłużone w określonym czasie. Każdy port, który nie przeprowadza transmisji przesyła sygnał
nośny (informację, że jest wolny). Sygnał ten usuwany jest przez wzmacniak w chwili wybrania
urządzenia jako kolejnego do rozpoczęcia transmisji. Wzmacniak informuje także pozostałe stacje, że
mogą odebrać wiadomość przychodzącą oraz
kontroluje działanie domeny priorytetów
Przełączanie
Przełącznik jest urządzeniem pracującym w warstwie
łącza danych 5. Często bywa on nazywany
wieloportem. Pracując „uczy się” adresów sterowania
dostępem do nośnika i przechowuje je w specjalnej
wewnętrznej tablicy zwanej tablicą wyszukiwania.
Pomiędzy nadawcą a odbiorcą ramki tworzone są
tymczasowe ścieżki przełączane (tzw. komutowane) a
potem ramki przesyłane są właśnie wzdłuż tych
ścieżek. Typową sieć lokalną opartą o topologię
przełączaną obrazuje poniższy rysunek.
Rys. 19 Sieć LAN o topologii przełączanej (komutowanej).
Standard 802.12 należy do grupy 802 dotyczącej technologii sieci lokalnych (LAN). Specyfikacja 802.12 określa
własną strukturę szkieletu, fizyczne nośniki transmisji oraz metodę dostępu do nich.
5
Jest to druga warstwa referencyjnego siedmiowarstwowego modelu OSI.
4
Download