Ministerium für Bildung und Wissenschaft der Russischen Föderation

Staatliche Technische Universität Nowosibirsk

Abteilung für VT

DIV_ADBLOCK97">

Der Begriff „Netzwerktechnologie“ wird am häufigsten im oben beschriebenen engen Sinne verwendet, manchmal wird seine erweiterte Interpretation jedoch auch für alle Werkzeuge und Regeln zum Aufbau eines Netzwerks verwendet, beispielsweise „End-to-End-Routing-Technologie“. „sichere Kanaltechnologie“, „IP-Technologie.“ Netzwerke.“

Die Protokolle, auf denen ein Netzwerk einer bestimmten Technologie (im engeren Sinne) aufgebaut ist, wurden speziell für die gemeinsame Arbeit entwickelt, sodass der Netzwerkentwickler keinen zusätzlichen Aufwand zur Organisation ihrer Interaktion benötigt. Manchmal werden Netzwerktechnologien als Basistechnologien bezeichnet, was bedeutet, dass die Grundlage jedes Netzwerks auf ihrer Grundlage aufgebaut ist. Beispiele für grundlegende Netzwerktechnologien sind neben Ethernet auch bekannte lokale Netzwerktechnologien wie Token Ring und FDDI oder X.25 und Frame-Relay-Technologien für territoriale Netzwerke. Um in diesem Fall ein funktionsfähiges Netzwerk zu erhalten, reicht es aus, Software und Hardware zu erwerben, die auf derselben Basistechnologie basieren – Netzwerkadapter mit Treibern, Hubs, Switches, Kabelsystem usw. – und diese gemäß den Anforderungen des Standards zu verbinden für diese Technologie.

Die grundlegenden Netzwerktechnologien Token Ring, FDDI, l00VGAny-LAN weisen zwar viele individuelle Merkmale auf, verfügen aber gleichzeitig über viele allgemeine Eigenschaften mit Ethernet. Dabei handelt es sich zunächst einmal um die Nutzung regulärer fester Topologien (hierarchischer Stern und Ring) sowie gemeinsam genutzter Datenübertragungsmedien. Wesentliche Unterschiede zwischen einer Technologie und einer anderen hängen mit den Merkmalen der Methode zusammen, mit der auf die gemeinsame Umgebung zugegriffen wird. Somit werden die Unterschiede zwischen der Ethernet-Technologie und der Token-Ring-Technologie weitgehend durch die Besonderheiten der darin eingebetteten Methoden zur Medientrennung bestimmt – dem Direktzugriffsalgorithmus in Ethernet und der Zugriffsmethode durch Übergabe eines Tokens an Token Ring.

2. Ethernet-Technologie (802.3).

2.1. Hauptmerkmale der Technologie.

Ethernet ist heute der am weitesten verbreitete lokale Netzwerkstandard. Die Gesamtzahl der Netzwerke, die derzeit das Ethernet-Protokoll nutzen, wird auf 5 Millionen geschätzt, und die Zahl der Computer mit installierten Ethernet-Netzwerkadaptern beträgt 50 Millionen.

Wenn man Ethernet sagt, meint man normalerweise alle Varianten dieser Technologie. Im engeren Sinne ist Ethernet ein Netzwerkstandard, der auf dem experimentellen Ethernet-Netzwerk basiert, das Xerox 1975 entwickelt und implementiert hat. Die Zugriffsmethode wurde noch früher getestet: In der zweiten Hälfte der 60er Jahre nutzte das Funknetz der University of Hawaii verschiedene Optionen für den wahlfreien Zugriff auf die allgemeine Funkumgebung, zusammenfassend Aloha genannt. 1980 entwickelten und veröffentlichten DEC, Intel und Xerox gemeinsam den Ethernet-Standard Version II für Koaxialkabelnetzwerke, der zur endgültigen Version des proprietären Ethernet-Standards wurde. Daher wird die proprietäre Version des Ethernet-Standards als Ethernet DIX- oder Ethernet II-Standard bezeichnet.

Basierend auf dem Ethernet DIX-Standard wurde der IEEE 802.3-Standard entwickelt, der weitgehend mit seinem Vorgänger übereinstimmt, es aber dennoch einige Unterschiede gibt. Während IEEE 802.3 zwischen der MAC- und der LLC-Schicht unterscheidet, kombiniert das ursprüngliche Ethernet beide Schichten in einer einzigen Datenverbindungsschicht. Ethernet DIX definiert ein Ethernet-Konfigurationstestprotokoll, das in IEEE 802.3 nicht zu finden ist. Auch das Rahmenformat unterscheidet sich etwas, obwohl die minimalen und maximalen Rahmengrößen in diesen Standards gleich sind. Um Ethernet, das durch den IEEE-Standard definiert ist, und proprietäres Ethernet DIX zu unterscheiden, wird die erste häufig als 802.3-Technologie bezeichnet, und der proprietäre Name wird ohne zusätzliche Bezeichnungen hinter dem Namen Ethernet zurückgelassen.

Abhängig von der Art des physischen Mediums weist der IEEE 802.3-Standard verschiedene Modifikationen auf: l0Base-5, l0Base-2, l0Base-T, l0Base-FL, l0Base-FB.

Im Jahr 1995 wurde der Fast-Ethernet-Standard eingeführt, der in vielerlei Hinsicht kein unabhängiger Standard ist, was sich daran zeigt, dass es sich bei seiner Beschreibung lediglich um einen zusätzlichen Abschnitt zum Hauptstandard 802.3 – Abschnitt 802.3h – handelt. Ebenso wird der 1998 verabschiedete Gigabit-Ethernet-Standard im Abschnitt 802.3z des Hauptdokuments beschrieben.

Bei allen Varianten der physikalischen Schicht der Ethernet-Technologie, die einen Durchsatz von 10 Mbit/s bieten, wird der Manchester-Code zur Übertragung binärer Informationen über das Kabel verwendet.

Alle Arten von Ethernet-Standards (einschließlich Fast Ethernet und Gigabit Ethernet) verwenden die gleiche Methode zur Trennung des Datenübertragungsmediums – die CSMA/CD-Methode.

2.2. Zugriffsmethode CSMA/CD.

Ethernet-Netzwerke verwenden eine Medienzugriffsmethode namens Carrier-Sense-Multiply-Access mit Kollisionserkennung (CSMA/CD).

Diese Methode wird ausschließlich in Netzwerken mit einem logischen gemeinsamen Bus verwendet (einschließlich der Funknetzwerke, aus denen diese Methode hervorgegangen ist). Alle Computer in einem solchen Netzwerk haben direkten Zugriff auf einen gemeinsamen Bus, sodass über diesen Daten zwischen zwei beliebigen Netzwerkknoten übertragen werden können. Gleichzeitig haben alle Computer im Netzwerk die Möglichkeit, sofort (unter Berücksichtigung der Verzögerung der Signalausbreitung durch das physische Medium) Daten zu empfangen, die einer der Computer an den gemeinsamen Bus zu übertragen begann (Abb. 1). Die Einfachheit des Verbindungsschemas ist einer der Faktoren, die den Erfolg des Ethernet-Standards bestimmt haben. Sie sagen, dass das Kabel, an das alle Stationen angeschlossen sind, im Multiply Access (MA)-Modus arbeitet.

Reis. 1. Direktzugriffsmethode CSMA/CD

Stufen des Zugangs zur Umwelt

Alle über das Netzwerk übertragenen Daten werden in Rahmen einer bestimmten Struktur platziert und mit einer eindeutigen Adresse der Zielstation versehen.

Um einen Frame übertragen zu können, muss die Station sicherstellen, dass das gemeinsam genutzte Medium frei ist. Dies wird erreicht, indem man auf die Grundharmonische des Signals hört, die auch Carrier-Sense (CS) genannt wird. Ein Zeichen für ein unbesetztes Medium ist das Fehlen einer Trägerfrequenz, die beim Manchester-Kodierungsverfahren je nach aktuell übertragener Einsen- und Nullenfolge 5-10 MHz beträgt.

Wenn das Medium frei ist, hat der Knoten das Recht, mit der Übertragung des Frames zu beginnen. Dieser Rahmen ist in Abb. dargestellt. 1. zuerst. Knoten 1 stellte fest, dass das Medium klar war und begann mit der Übertragung seines Rahmens. In einem klassischen Ethernet-Netzwerk über ein Koaxialkabel sendet der Knoten Signale 1 werden in beide Richtungen verteilt, so dass alle Netzwerkknoten sie erhalten. Der Datenrahmen wird immer begleitet Präambel, welches aus 7 Bytes bestehend aus Werten und einem 8. Byte gleich besteht. Die Präambel wird benötigt, damit der Empfänger eine bitweise Synchronisierung mit dem Sender eingehen kann.

Alle an das Kabel angeschlossenen Stationen können erkennen, dass ein Frame übertragen wurde, und jede Station, die ihre eigene Adresse in den Headern des Frames erkennt, schreibt ihren Inhalt in ihren internen Puffer, verarbeitet die empfangenen Daten, leitet sie auf ihrem Stapel nach oben und sendet dann den Frame das Kabel runter -Antwort. Die Adresse der Quellstation ist im ursprünglichen Frame enthalten, sodass die Zielstation weiß, an wen sie die Antwort senden muss.

Knoten 2 während der Frame-Übertragung durch den Knoten 1 Ich habe auch versucht, mit der Übertragung seines Frames zu beginnen, habe aber festgestellt, dass das Medium ausgelastet war – es gab eine Trägerfrequenz darauf – also der Knoten 2 gezwungen zu warten, bis der Knoten 1 stoppt die Übertragung des Frames nicht.

Nach dem Ende der Frame-Übertragung müssen alle Netzwerkknoten eine technologische Pause (Inter Packet Gap) von 9,6 μs überstehen. Diese Pause, auch Interframe-Intervall genannt, ist erforderlich, um die Netzwerkadapter in ihren ursprünglichen Zustand zu versetzen und um zu verhindern, dass eine Station die Umgebung ausschließlich beansprucht. Nach Ablauf der technologischen Pause haben die Knoten das Recht, mit der Übertragung ihres Frames zu beginnen, da das Medium frei ist. Aufgrund von Verzögerungen bei der Signalausbreitung entlang des Kabels zeichnen nicht alle Knoten genau gleichzeitig die Tatsache auf, dass der Knoten die Frame-Übertragung abgeschlossen hat 1.

Im gegebenen Beispiel der Knoten 2 wartete auf das Ende der Frameübertragung durch den Knoten 1, pausierte bei 9,6 μs und begann mit der Übertragung seines Frames.

Auftreten einer Kollision

Mit dem beschriebenen Ansatz ist es möglich, dass zwei Stationen gleichzeitig versuchen, einen Datenrahmen über ein gemeinsames Medium zu übertragen. Der Mechanismus zum Abhören des Mediums und die Pause zwischen den Frames garantieren nicht, dass es zu einer Situation kommt, in der zwei oder mehr Stationen gleichzeitig entscheiden, dass das Medium frei ist, und mit der Übertragung ihrer Frames beginnen. Sie sagen, was passiert Kollision, Da die Inhalte beider Frames auf einem gemeinsamen Kabel kollidieren und Informationen verzerrt werden, ist es aufgrund der im Ethernet verwendeten Kodierungsmethoden nicht möglich, die Signale jeder Station vom gemeinsamen Signal zu trennen.

NOTIZ: Beachten Sie, dass sich diese Tatsache in der Komponente „Base(band)“ widerspiegelt, die in den Namen aller physikalischen Protokolle der Ethernet-Technologie enthalten ist (z. B. 10Base-2, 10Base-T usw.). Unter Basisbandnetzwerk versteht man ein Basisbandnetzwerk, in dem Nachrichten ohne Frequenzteilung digital über einen einzigen Kanal gesendet werden.

Kollisionen sind in Ethernet-Netzwerken eine normale Situation. Im Beispiel in Abb. 2 wurde die Kollision durch die gleichzeitige Übertragung von Daten durch die Knoten 3 und U verursacht. Damit es zu einer Kollision kommt, ist es nicht notwendig, dass mehrere Stationen absolut gleichzeitig mit der Übertragung beginnen; eine solche Situation ist unwahrscheinlich. Es ist viel wahrscheinlicher, dass es zu einer Kollision kommt, weil ein Knoten früher mit der Übertragung beginnt als der andere, die Signale des ersten jedoch einfach keine Zeit haben, den zweiten Knoten zu erreichen, bis der zweite Knoten beschließt, mit der Übertragung seiner Signale zu beginnen rahmen. Das heißt, Kollisionen sind eine Folge der verteilten Natur des Netzwerks.

Um eine Kollision richtig zu bewältigen, überwachen alle Stationen gleichzeitig die auf dem Kabel erscheinenden Signale. Unterscheiden sich die gesendeten und beobachteten Signale, dann ist das der Fall Kollisionserkennung (CD). Um die Wahrscheinlichkeit einer frühzeitigen Erkennung einer Kollision durch alle Stationen im Netzwerk zu erhöhen, unterbricht die Station, die eine Kollision erkannt hat, die Übertragung ihres Frames (an einer beliebigen Stelle, möglicherweise nicht an einer Bytegrenze) und verstärkt durch Senden die Kollisionssituation eine spezielle 32-Bit-Sequenz an das Netzwerk, genannt Jam-Sequenz.

Reis. 2. Diagramm des Auftretens und der Ausbreitung einer Kollision

Danach muss die Sendestation, die die Kollision erkennt, die Übertragung stoppen und für eine kurze, zufällige Zeitspanne pausieren. Anschließend kann erneut versucht werden, das Medium zu erfassen und den Frame zu übertragen. Eine zufällige Pause wird mit dem folgenden Algorithmus ausgewählt:

Pause = L *(Verzögerungsintervall),

wobei das Verzögerungsintervall 512 Bitintervallen entspricht (in der Ethernet-Technologie ist es üblich, alle Intervalle in Bitintervallen zu messen; das Bitintervall wird als BT bezeichnet und entspricht der Zeit zwischen dem Erscheinen zweier aufeinanderfolgender Datenbits auf dem Kabel; bei einer Geschwindigkeit von 10 Mbit/s beträgt das Bitintervall 0,1 μs oder 100 ns);

L ist eine ganze Zahl, die mit gleicher Wahrscheinlichkeit aus dem Bereich ausgewählt wird, wobei N die Anzahl der Neuübertragungen dieses Rahmens ist: 1,2,..., 10.

Nach dem 10. Versuch erhöht sich das Intervall, ab dem die Pause ausgewählt wird, nicht. Somit kann eine zufällige Pause Werte von 0 bis 52,4 ms annehmen.

Wenn 16 aufeinanderfolgende Versuche, einen Frame zu übertragen, zu einer Kollision führen, muss der Sender den Versuch abbrechen und den Frame verwerfen.

Aus der Beschreibung der Zugriffsmethode geht hervor, dass sie probabilistischer Natur ist und die Wahrscheinlichkeit, erfolgreich ein gemeinsames Medium zur Verfügung zu stellen, von der Netzwerklast, also von der Intensität des Bedarfs an Rahmenübertragung in Stationen, abhängt. Als dieses Verfahren Ende der 70er Jahre entwickelt wurde, ging man davon aus, dass die Datenübertragungsrate von 10 Mbit/s im Vergleich zu den Anforderungen von Computern an den gegenseitigen Datenaustausch sehr hoch sei und die Netzwerklast daher immer gering sein würde. Diese Annahme gilt teilweise bis heute, allerdings gibt es bereits Echtzeit-Multimedia-Anwendungen, die Ethernet-Segmente stark belasten. In diesem Fall kommt es deutlich häufiger zu Kollisionen. Wenn die Kollisionsintensität erheblich ist, sinkt der nutzbare Durchsatz des Ethernet-Netzwerks stark, da das Netzwerk fast ständig mit wiederholten Versuchen zur Übertragung von Frames beschäftigt ist. Um die Intensität von Kollisionen zu verringern, müssen Sie entweder den Datenverkehr reduzieren, indem Sie beispielsweise die Anzahl der Knoten in einem Segment reduzieren oder Anwendungen ersetzen, oder die Geschwindigkeit des Protokolls erhöhen, beispielsweise durch die Umstellung auf Fast Ethernet.

Es ist zu beachten, dass die Zugriffsmethode CSMA/CD keineswegs garantiert, dass ein Sender jemals auf das Medium zugreifen kann. Natürlich ist die Wahrscheinlichkeit eines solchen Ereignisses bei geringer Netzwerklast gering, aber wenn sich der Netzwerknutzungsfaktor 1 nähert, wird ein solches Ereignis sehr wahrscheinlich. Dieser Nachteil der Direktzugriffsmethode ist der Preis für ihre extreme Einfachheit, die Ethernet zur kostengünstigsten Technologie gemacht hat. Andere Zugriffsmethoden – Token-Zugriff von Token Ring- und FDDI-Netzwerken, Demand Priority-Methode von 100VG-AnyLAN-Netzwerken – weisen diesen Nachteil nicht auf.

Doppelte Rotationszeit und Kollisionserkennung

Eine eindeutige Erkennung von Kollisionen durch alle Netzwerkteilnehmer ist eine notwendige Voraussetzung für den korrekten Betrieb des Ethernet-Netzwerks. Wenn eine sendende Station die Kollision nicht erkennt und entscheidet, dass sie den Datenrahmen korrekt übertragen hat, geht dieser Datenrahmen verloren. Aufgrund der Überlappung von Signalen während einer Kollision werden die Rahmeninformationen verzerrt und von der empfangenden Station abgelehnt (möglicherweise aufgrund einer Nichtübereinstimmung der Prüfsumme). Höchstwahrscheinlich werden die beschädigten Informationen von einem Protokoll der oberen Schicht erneut übertragen, beispielsweise einem verbindungsorientierten Transport- oder Anwendungsprotokoll. Die erneute Übertragung der Nachricht durch Protokolle höherer Ebenen erfolgt jedoch nach einem viel längeren Zeitintervall (manchmal sogar nach mehreren Sekunden) im Vergleich zu den Mikrosekundenintervallen, die das Ethernet-Protokoll verwendet. Wenn also Kollisionen von Ethernet-Netzwerkknoten nicht zuverlässig erkannt werden, führt dies zu einer spürbaren Verringerung des nutzbaren Durchsatzes dieses Netzwerks.

Für eine zuverlässige Kollisionserkennung muss die folgende Beziehung erfüllt sein:

Dabei ist Tmin die Übertragungszeit eines Rahmens mit minimaler Länge und PDV die Zeit, in der sich das Kollisionssignal bis zum am weitesten entfernten Knoten im Netzwerk ausbreiten kann. Da das Signal im schlimmsten Fall zweimal zwischen den am weitesten voneinander entfernten Stationen des Netzwerks laufen muss (ein unverzerrtes Signal läuft in eine Richtung und ein bereits durch eine Kollision verzerrtes Signal breitet sich auf dem Rückweg aus), ist dies dieses Mal der Fall angerufen doppelte Umdrehungszeit (Path Delay Value, PDV).

Wenn diese Bedingung erfüllt ist, muss die sendende Station in der Lage sein, die durch ihren gesendeten Rahmen verursachte Kollision zu erkennen, noch bevor sie die Übertragung dieses Rahmens beendet hat.

Offensichtlich hängt die Erfüllung dieser Bedingung einerseits von der Länge des Mindestrahmens und der Netzwerkkapazität und andererseits von der Länge des Netzwerkkabelsystems und der Geschwindigkeit der Signalausbreitung im Kabel ab (dies Die Geschwindigkeit variiert je nach Kabeltyp geringfügig.

Alle Parameter des Ethernet-Protokolls sind so gewählt, dass im Normalbetrieb von Netzwerkknoten Kollisionen stets eindeutig erkannt werden. Bei der Auswahl der Parameter wurde natürlich die obige Beziehung berücksichtigt, die die minimale Rahmenlänge und die maximale Entfernung zwischen Stationen in einem Netzwerksegment verbindet.

Der Ethernet-Standard geht davon aus, dass die Mindestlänge eines Frame-Datenfelds 46 Byte beträgt (was zusammen mit den Servicefeldern eine minimale Frame-Länge von 64 Byte und zusammen mit der Präambel 72 Byte oder 576 Bit ergibt). Von hier aus kann eine Grenze für den Abstand zwischen Stationen ermittelt werden.

Bei 10-Mbit-Ethernet beträgt die minimale Übertragungszeit der Rahmenlänge also 575-Bit-Intervalle, daher sollte die doppelte Durchlaufzeit weniger als 57,5 ​​μs betragen. Die Entfernung, die das Signal in dieser Zeit zurücklegen kann, hängt vom Kabeltyp ab und ist bei dicken Koaxialkabeln ein Richtwert. Da das Signal in dieser Zeit die Kommunikationsleitung zweimal passieren muss, sollte der Abstand zwischen zwei Knoten nicht mehr als 6.635 m betragen. In der Norm wird der Wert dieses Abstands unter Berücksichtigung anderer, strengerer Einschränkungen deutlich geringer gewählt .

Eine dieser Einschränkungen betrifft die maximal zulässige Signaldämpfung. Um die erforderliche Signalleistung bei der Übertragung zwischen den am weitesten entfernten Stationen eines Kabelsegments sicherzustellen, wurde die maximale Länge eines durchgehenden Segments eines dicken Koaxialkabels unter Berücksichtigung der dadurch verursachten Dämpfung auf 500 m gewählt. Offensichtlich auf Bei einem 500-m-Kabel werden die Bedingungen für die Kollisionserkennung mit großem Spielraum für Frames jeder Standardlänge, einschließlich 72 Byte, erfüllt (die doppelte Durchlaufzeit entlang eines 500-m-Kabels beträgt nur 43,3-Bit-Intervalle). Daher könnte die minimale Rahmenlänge noch kürzer angesetzt werden. Die Technologieentwickler haben die minimale Rahmenlänge jedoch nicht reduziert, da sie Multisegment-Netzwerke berücksichtigen, die aus mehreren Segmenten bestehen, die durch Repeater verbunden sind.

Repeater erhöhen die Leistung der von Segment zu Segment übertragenen Signale, wodurch die Signaldämpfung verringert wird und ein viel längeres Netzwerk bestehend aus mehreren Segmenten genutzt werden kann. Bei koaxialen Ethernet-Implementierungen haben die Entwickler die maximale Anzahl der Segmente im Netzwerk auf fünf begrenzt, was wiederum die Gesamtlänge des Netzwerks auf 2500 Meter begrenzt. Selbst in einem solchen Netzwerk mit mehreren Segmenten wird die Kollisionserkennungsbedingung immer noch mit großem Spielraum erfüllt (vergleichen wir die Entfernung von 2500 m, die sich aus der zulässigen Dämpfungsbedingung ergibt, mit der maximal möglichen Entfernung von 6635 m in Bezug auf die berechnete Signallaufzeit). über). In der Realität ist der Zeitspielraum jedoch deutlich geringer, da in Mehrsegmentnetzwerken die Repeater selbst eine zusätzliche Verzögerung von mehreren zehn Bitintervallen in die Signalausbreitung einbringen. Natürlich wurde auch ein kleiner Spielraum berücksichtigt, um Abweichungen bei den Kabel- und Repeater-Parametern auszugleichen.

Unter Berücksichtigung all dieser und einiger weiterer Faktoren wurde das Verhältnis zwischen der minimalen Rahmenlänge und dem maximal möglichen Abstand zwischen Netzwerkstationen sorgfältig ausgewählt, was eine zuverlässige Kollisionserkennung gewährleistet. Dieser Abstand wird auch als maximaler Netzwerkdurchmesser bezeichnet.

Mit zunehmender Frame-Übertragungsrate, was bei neuen Standards, die auf dem gleichen CSMA/CD-Zugriffsverfahren basieren, wie etwa Fast Ethernet, der Fall ist, verringert sich die maximale Entfernung zwischen Netzwerkteilnehmern proportional zur Erhöhung der Übertragungsrate. Im Fast-Ethernet-Standard beträgt sie etwa 210 m und im Gigabit-Ethernet-Standard wäre sie auf 25 Meter begrenzt, wenn die Entwickler des Standards nicht einige Maßnahmen ergriffen hätten, um die minimale Paketgröße zu erhöhen.

In der Tabelle 2. Es werden die Werte der Hauptparameter des 802.3-Frame-Übertragungsverfahrens angegeben, die nicht von der Implementierung des physikalischen Mediums abhängen. Es ist wichtig zu beachten, dass jede physische Ethernet-Umgebungsoption zu diesen Einschränkungen ihre eigenen, oft strengeren Einschränkungen hinzufügt, die ebenfalls erfüllt werden müssen.

Tabelle 2. Parameter der MAC-Ethernet-Schicht

3. Token-Ring-Technologie (802.5).

3.1. Hauptmerkmale der Technologie.

Token-Ring-Netzwerke zeichnen sich wie Ethernet-Netzwerke durch ein gemeinsames Datenübertragungsmedium aus, das in diesem Fall aus Kabelsegmenten besteht, die alle Netzwerkstationen zu einem Ring verbinden. Der Ring wird als eine gemeinsam genutzte Ressource betrachtet, und der Zugriff darauf erfordert keinen zufälligen Algorithmus wie in Ethernet-Netzwerken, sondern einen deterministischen Algorithmus, der auf der Übertragung des Rechts zur Nutzung des Rings an Stationen in einer bestimmten Reihenfolge basiert. Dieses Recht wird über einen speziellen Formatrahmen namens übermittelt Marker oder Zeichen.

Die Token-Ring-Technologie wurde 1984 von IBM entwickelt und dann als Standardentwurf dem IEEE 802-Komitee vorgelegt, das darauf aufbauend 1985 den 802.5-Standard verabschiedete. IBM nutzt die Token-Ring-Technologie als Hauptnetzwerktechnologie zum Aufbau lokaler Netzwerke auf Basis von Computern verschiedener Klassen – Großrechner, Minicomputer und Personalcomputer. Derzeit ist IBM der wichtigste Trendsetter der Token-Ring-Technologie und produziert etwa 60 % der Netzwerkadapter für diese Technologie.

Token-Ring-Netzwerke arbeiten mit zwei Bitraten – 4 und 16 Mbit/s. Das Mischen von Mischstationen mit unterschiedlichen Geschwindigkeiten in einem Ring ist nicht zulässig. Token-Ring-Netzwerke, die mit 16 Mbit/s arbeiten, weisen im Vergleich zum 4-Mbit/s-Standard einige Verbesserungen im Zugriffsalgorithmus auf.

Die Token-Ring-Technologie ist eine komplexere Technologie als Ethernet. Es verfügt über Fehlertoleranzeigenschaften. Das Token-Ring-Netzwerk definiert Verfahren zur Steuerung des Netzwerkbetriebs, die Feedback einer ringförmigen Struktur nutzen – der gesendete Frame kehrt immer zur sendenden Station zurück. In manchen Fällen werden erkannte Fehler im Netzwerkbetrieb automatisch behoben, beispielsweise kann ein verlorener Token wiederhergestellt werden. In anderen Fällen werden Fehler lediglich erfasst und deren Behebung manuell durch das Wartungspersonal durchgeführt.

Zur Steuerung des Netzwerks fungiert eine der Stationen als sogenannte Aktiver Monitor. Der aktive Monitor wird während der Ringinitialisierung als die Station mit dem maximalen MAC-Adresswert ausgewählt. Wenn der aktive Monitor ausfällt, wird der Ringinitialisierungsvorgang wiederholt und ein neuer aktiver Monitor ausgewählt. Damit das Netzwerk den Ausfall eines aktiven Monitors erkennen kann, generiert dieser im Betriebszustand alle 3 Sekunden einen speziellen Frame seiner Anwesenheit. Wenn dieser Rahmen länger als 7 Sekunden nicht im Netzwerk erscheint, beginnen die verbleibenden Stationen im Netzwerk mit dem Verfahren zur Auswahl eines neuen aktiven Monitors.

3.2. Eine Token-Methode für den Zugriff auf eine gemeinsam genutzte Umgebung.

In Netzwerken mit Token-Zugriffsmethode(und dazu zählen neben Token-Ring-Netzen auch FDDI-Netze sowie dem 802.4-Standard nahestehende Netze – ArcNet, MAP-Industrienetze) Das Zugriffsrecht auf das Medium wird zyklisch von Station zu Station entlang eines logischen Rings übertragen.

Im Token-Ring-Netzwerk wird ein Ring durch Kabelabschnitte gebildet, die benachbarte Stationen verbinden. Somit ist jede Station mit ihrer Vorgänger- und Nachfolgestation verbunden und kann nur mit diesen direkt kommunizieren. Um den Stationen Zugang zur physischen Umgebung zu ermöglichen, zirkuliert ein Rahmen mit einem speziellen Format und Zweck – ein Token – um den Ring. Im Token-Ring-Netzwerk empfängt jede Station immer direkt Daten von nur einer Station – derjenigen, die im Ring vorherrscht. Diese Station heißt nächster aktiver Upstream-Nachbar(Daten) - Nächster aktiver flussaufwärts gelegener Nachbar, NAUN. Die Station überträgt Daten immer an ihren nächsten stromabwärts gelegenen Nachbarn.

Nach Erhalt der Markierung analysiert die Station diese und sorgt für die Weiterleitung zur nächsten Station, wenn keine Daten zur Übertragung vorhanden sind. Eine Station, die Daten zu übertragen hat, entfernt das Token nach Erhalt aus dem Ring und erhält so das Recht, auf das physische Medium zuzugreifen und seine Daten zu übertragen. Diese Station sendet dann Stück für Stück einen Datenrahmen des festgelegten Formats in den Ring. Die übertragenen Daten gelangen entlang des Rings immer in eine Richtung von einer Station zur anderen. Der Rahmen wird mit einer Zieladresse und einer Quelladresse versehen.

Alle Stationen im Ring leiten den Frame Stück für Stück weiter, ähnlich wie Repeater. Wenn der Rahmen die Zielstation durchläuft, kopiert diese Station, nachdem sie ihre Adresse erkannt hat, den Rahmen in ihren internen Puffer und fügt ein Bestätigungszeichen in den Rahmen ein. Die Station, die den Datenrahmen an den Ring gesendet hat, entfernt diesen Rahmen nach Erhalt mit Empfangsbestätigung aus dem Ring und sendet einen neuen Token an das Netzwerk, um anderen Netzwerkstationen die Übertragung von Daten zu ermöglichen. Dieser Zugriffsalgorithmus wird in Token-Ring-Netzwerken mit einer Geschwindigkeit von 4 Mbit/s verwendet, beschrieben im 802.5-Standard.

In Abb. 3. Der beschriebene Algorithmus zum Zugriff auf das Medium wird anhand eines Zeitdiagramms veranschaulicht. Dies zeigt, dass Paket A in einem 6-Stationen-Ring von der Station übertragen wird 1 zu der Station 3. Nach Passieren des Zielbahnhofs 3 Im Paket A sind zwei Zeichen gesetzt – das Zeichen der Adresserkennung und das Zeichen des Kopierens des Pakets in einen Puffer (der in der Abbildung mit einem Sternchen im Paket markiert ist). Nachdem das Paket an die Station zurückgegeben wurde 1 Der Absender erkennt sein Paket anhand der Quelladresse und entfernt das Paket aus dem Ring. Von der Station installiert 3 Die Zeichen teilen der sendenden Station mit, dass das Paket den Empfänger erreicht hat und von diesem erfolgreich in seinen Puffer kopiert wurde.

Reis. 3. Token-Zugriffsprinzip

Die Besitzdauer einer gemeinsamen Umgebung im Token Ring-Netzwerk ist begrenzt Token-Haltezeit Danach muss die Station die Übertragung ihrer eigenen Daten beenden (der aktuelle Frame darf abgeschlossen werden) und das Token weiter entlang des Rings weiterleiten. Abhängig von der Größe der Frames und der Marker-Haltezeit hat die Station möglicherweise Zeit, während der Marker-Haltezeit einen oder mehrere Frames zu übertragen. Normalerweise beträgt die Standard-Token-Haltezeit 10 ms und die maximale Frame-Größe ist im 802.5-Standard nicht definiert. Bei 4-Mbit/s-Netzwerken sind es normalerweise 4 KB und bei 16-Mbit/s-Netzwerken normalerweise 16 KB. Dies liegt daran, dass die Station während der Zeit, in der die Markierung gehalten wird, Zeit haben muss, mindestens einen Frame zu übertragen. Bei einer Geschwindigkeit von 4 Mbit/s können 5000 Bytes in 10 ms übertragen werden, bei einer Geschwindigkeit von 16 Mbit/s kann das entsprechende Byte übertragen werden. Die maximalen Rahmengrößen wurden mit einigem Vorbehalt gewählt.

16-Mbit/s-Token-Ring-Netzwerke verwenden auch einen etwas anderen Ringzugriffsalgorithmus, den sogenannten Frühzeitige Token-Veröffentlichung. Danach übermittelt eine Station unmittelbar nach Ende der Übertragung des letzten Bits des Rahmens ein Zugriffstoken an die nächste Station, ohne auf die Rückkehr dieses Rahmens entlang des Rings mit einem Bestätigungsbit zu warten. In diesem Fall wird die Ringkapazität effizienter genutzt, da sich Frames von mehreren Stationen gleichzeitig entlang des Rings bewegen. Allerdings kann immer nur eine Station ihre Frames generieren – diejenige, die aktuell den Zugriffstoken besitzt. Zu diesem Zeitpunkt wiederholen die verbleibenden Stationen nur die Frames anderer Personen, sodass das Prinzip der zeitlichen Aufteilung des Rings erhalten bleibt und lediglich der Vorgang zur Übertragung des Eigentums am Ring beschleunigt wird.

Für verschiedene Nachrichtentypen können übertragene Frames unterschiedlich zugeordnet werden Prioritäten: von 0 (am niedrigsten) bis 7 (am höchsten). Die Entscheidung über die Priorität eines bestimmten Frames wird von der sendenden Station getroffen (das Token-Ring-Protokoll empfängt diesen Parameter über schichtübergreifende Schnittstellen von Protokollen der oberen Schicht, beispielsweise dem Anwendungsprotokoll). Ein Token hat auch immer eine gewisse aktuelle Priorität. Eine Station hat nur dann das Recht, einen an sie übertragenen Token zu beschlagnahmen, wenn die Priorität des Rahmens, den sie übertragen möchte, höher (oder gleich) der Priorität des Tokens ist. Andernfalls muss die Station den Token an die nächste Station im Ring weitergeben.

Der aktive Monitor ist für das Vorhandensein einer Markierung und ihrer einzigen Kopie im Netzwerk verantwortlich. Wenn der aktive Monitor längere Zeit (z. B. 2,6 s) kein Token empfängt, erzeugt er ein neues Token.

4. FDDI-Technologie.

Technologie FDDI (Fiber Distributed Data Interface)- Die verteilte Glasfaser-Datenschnittstelle ist die erste lokale Netzwerktechnologie, bei der das Datenübertragungsmedium ein Glasfaserkabel ist. Die Arbeiten zur Entwicklung von Technologien und Geräten zur Nutzung von Glasfaserkanälen in lokalen Netzen begannen in den 80er Jahren, kurz nach Beginn des industriellen Betriebs solcher Kanäle in territorialen Netzen. Die HZT9.5-Problemgruppe des ANSI-Instituts hat es zwischen 1986 und 1988 entwickelt. erste Versionen des FDDI-Standards, der eine Frame-Übertragung mit einer Geschwindigkeit von 100 Mbit/s über einen bis zu 100 km langen Doppel-Glasfaserring ermöglicht.

4.1. Hauptmerkmale der Technologie.

Die FDDI-Technologie basiert weitgehend auf der Token-Ring-Technologie und entwickelt und verbessert deren Grundideen. Als höchste Priorität haben sich die Entwickler der FDDI-Technologie folgende Ziele gesetzt:

    Erhöhen Sie die Bitrate der Datenübertragung auf 100 Mbit/s; Erhöhen Sie die Fehlertoleranz des Netzwerks durch Standardverfahren zur Wiederherstellung nach verschiedenen Arten von Ausfällen – Kabelschäden, fehlerhafter Betrieb eines Knotens, Hubs, starke Interferenzen auf der Leitung usw.; Nutzen Sie die potenzielle Netzwerkbandbreite sowohl für asynchronen als auch für synchronen (latenzempfindlichen) Datenverkehr optimal aus.

Das FDDI-Netzwerk basiert auf zwei Glasfaserringen, die die Haupt- und Backup-Datenübertragungspfade zwischen Netzwerkknoten bilden. Zwei Ringe sind die wichtigste Möglichkeit, die Fehlertoleranz in einem FDDI-Netzwerk zu erhöhen, und Knoten, die dieses erhöhte Zuverlässigkeitspotenzial nutzen möchten, müssen mit beiden Ringen verbunden sein.

Im normalen Netzwerkbetriebsmodus passieren Daten nur alle Knoten und alle Kabelabschnitte des Primärrings; dieser Modus wird als „ Durch- „End-to-End“ oder „Transit“. Der sekundäre Ring wird in diesem Modus nicht verwendet.

Im Falle eines Ausfalls, wenn ein Teil des Primärrings keine Daten übertragen kann (z. B. Kabelbruch oder Knotenausfall), wird der Primärring mit dem Sekundärring kombiniert (Abb. 4.) und bildet wiederum einen einzigen Ring . Dieser Modus des Netzwerkbetriebs wird aufgerufen Wickeln, das heißt, das „Falten“ oder „Falten“ der Ringe. Der Zusammenbruchvorgang wird mithilfe von FDDI-Hubs und/oder Netzwerkadaptern durchgeführt. Um dieses Verfahren zu vereinfachen, werden die Daten auf dem Primärring immer in eine Richtung übertragen (in den Diagrammen ist diese Richtung gegen den Uhrzeigersinn dargestellt), auf dem Sekundärring in die entgegengesetzte Richtung (dargestellt im Uhrzeigersinn). Wenn daher ein gemeinsamer Ring aus zwei Ringen gebildet wird, bleiben die Sender der Stationen weiterhin mit den Empfängern benachbarter Stationen verbunden, was eine korrekte Übertragung und den Empfang von Informationen durch benachbarte Stationen ermöglicht.

Reis. 4. Neukonfiguration von FDDI-Ringen bei Ausfall

FDDI-Standards legen großen Wert auf verschiedene Verfahren, mit denen Sie feststellen können, ob ein Fehler im Netzwerk vorliegt, und dann die erforderliche Neukonfiguration durchführen können. Das FDDI-Netzwerk kann bei einzelnen Ausfällen seiner Elemente seine Funktionalität vollständig wiederherstellen. Bei mehreren Ausfällen spaltet sich das Netzwerk in mehrere nicht verbundene Netzwerke auf. Die FDDI-Technologie ergänzt die Fehlererkennungsmechanismen der Token-Ring-Technologie durch Mechanismen zur Neukonfiguration des Datenübertragungspfads im Netzwerk, basierend auf dem Vorhandensein redundanter Verbindungen, die vom zweiten Ring bereitgestellt werden.

Ringe in FDDI-Netzwerken gelten als gemeinsames gemeinsames Datenübertragungsmedium, weshalb für sie eine spezielle Zugriffsmethode definiert ist. Dieses Verfahren kommt dem Zugriffsverfahren von Token-Ring-Netzwerken sehr nahe und wird auch Token-Ring-Verfahren genannt.

Die Unterschiede in der Zugriffsmethode bestehen darin, dass die Token-Haltezeit im FDDI-Netzwerk kein konstanter Wert ist, wie im Token-Ring-Netzwerk. Diese Zeit hängt von der Belastung des Rings ab – bei einer kleinen Belastung steigt sie an und bei großen Überlastungen kann sie auf Null sinken. Diese Änderungen in der Zugriffsmethode wirken sich nur auf den asynchronen Verkehr aus, was für kleine Verzögerungen bei der Frame-Übertragung unkritisch ist. Für synchronen Verkehr ist die Token-Haltezeit immer noch ein fester Wert. Ein Frame-Prioritätsmechanismus ähnlich dem, der in der Token-Ring-Technologie verwendet wird, fehlt in der FDDI-Technologie. Die Technologieentwickler entschieden, dass die Aufteilung des Datenverkehrs in 8 Prioritätsstufen überflüssig ist und es ausreicht, den Datenverkehr in zwei Klassen zu unterteilen – asynchron und synchron, wobei letztere immer bedient wird, auch wenn der Ring überlastet ist.

Ansonsten entspricht die Frame-Weiterleitung zwischen Ringstationen auf MAC-Ebene vollständig der Token-Ring-Technologie. FDDI-Stationen verwenden einen frühen Token-Release-Algorithmus, ähnlich wie Token-Ring-Netzwerke mit einer Geschwindigkeit von 16 Mbit/s.

Adressen auf MAC-Ebene haben ein Standardformat für IEEE 802-Technologien. Das FDDI-Frame-Format ähnelt dem Token-Ring-Frame-Format; die Hauptunterschiede bestehen im Fehlen von Prioritätsfeldern. Anzeichen von Adresserkennung, Frame-Kopieren und Fehlern ermöglichen es Ihnen, die in Token-Ring-Netzwerken verfügbaren Verfahren zur Verarbeitung von Frames durch die sendende Station, Zwischenstationen und die empfangende Station beizubehalten.

In Abb. 5. Der Aufbau der FDDI-Technologieprotokolle entspricht dem siebenschichtigen OSI-Modell. FDDI definiert das Protokoll der physikalischen Schicht und das MAC-Protokoll (Media Access Sublayer) der Datenverbindungsschicht. Wie viele andere lokale Netzwerktechnologien verwendet die FDDI-Technologie das im IEEE 802.2-Standard definierte LLC-Data-Link-Control-Sublayer-Protokoll. Obwohl die FDDI-Technologie von ANSI und nicht von IEEE entwickelt und standardisiert wurde, passt sie vollständig in den Rahmen der 802-Standards.

Reis. 5. Struktur der FDDI-Technologieprotokolle

Eine Besonderheit der FDDI-Technologie ist die Stationsleitebene - Stationsmanagement (SMT). Es ist die SMT-Schicht, die alle Funktionen zur Verwaltung und Überwachung aller anderen Schichten des FDDI-Protokollstapels ausführt. Jeder Knoten im FDDI-Netzwerk ist an der Verwaltung des Rings beteiligt. Daher tauschen alle Knoten spezielle SMT-Frames aus, um das Netzwerk zu verwalten.

Die Fehlertoleranz von FDDI-Netzwerken wird durch Protokolle anderer Schichten gewährleistet: Mit Hilfe der physikalischen Schicht werden Netzwerkausfälle aus physikalischen Gründen, beispielsweise aufgrund eines Kabelbruchs, beseitigt und mit Hilfe der MAC-Schicht logische Netzwerke Ausfälle werden eliminiert, beispielsweise der Verlust des erforderlichen internen Pfades zur Übertragung eines Tokens und von Datenrahmen zwischen Hub-Ports.

4.2. Merkmale der FDDI-Zugriffsmethode.

Um synchrone Frames zu übertragen, hat die Station immer das Recht, den Token bei der Ankunft zu erfassen. In diesem Fall hat die Markerhaltezeit einen vorgegebenen festen Wert.

Wenn die FDDI-Ringstation einen asynchronen Rahmen übertragen muss (die Art des Rahmens wird durch die Protokolle der oberen Schichten bestimmt), dann ermitteln Sie die Möglichkeit Erfassen des Markers während seines nächsten Bei der Ankunft muss die Station die Zeitspanne messen, die seit der letzten Ankunft des Tokens vergangen ist. Dieses Intervall heißt Token-Umlaufzeit (TRT). Das TRT-Intervall wird mit einem anderen Wert verglichen - maximal zulässige Zeit für die Markerrotation um den Ring T_0ðг. Wenn in der Token-Ring-Technologie die maximal zulässige Token-Umlaufzeit ein fester Wert ist (2,6 s basierend auf 260 Stationen im Ring), einigen sich die Stationen in der FDDI-Technologie während der Ringinitialisierung auf den Wert von T_0rg. Jede Station kann ihren eigenen Wert von T_0rg anbieten, dadurch wird die minimale Zeit der von den Stationen vorgeschlagenen Zeiten für den Ring festgelegt. Dadurch können die Bedürfnisse der auf den Stationen laufenden Anwendungen berücksichtigt werden. Typischerweise müssen synchrone Anwendungen (Echtzeitanwendungen) häufiger Daten in kleinen Blöcken an das Netzwerk senden, während asynchrone Anwendungen seltener, dafür aber in größeren Blöcken auf das Netzwerk zugreifen müssen. Bevorzugt werden Stationen, die synchronen Verkehr übertragen.

Wenn also das nächste Mal ein Token zur Übertragung eines asynchronen Frames eintrifft, wird die tatsächliche Token-Umlaufzeit TRT mit der maximal möglichen T_0rg verglichen. Wenn der Ring nicht überlastet ist, kommt der Token vor Ablauf des Intervalls T_0rg, also TRT, an< Т_0рг. В этом случае станции разрешается захватить маркер и передать свой кадр (или кадры) в кольцо. Время удержания маркера ТНТ равно разности T_0pr - TRT, и в течение этого времени станция передает в кольцо столько асинхронных кадров, сколько успеет.

Wenn der Ring überlastet ist und der Marker zu spät kommt, ist das TRT-Intervall größer als T_0rg. In diesem Fall darf die Station den Token für den asynchronen Frame nicht erfassen. Wenn alle Stationen im Netzwerk nur asynchrone Frames übertragen möchten und der Token zu langsam eine Runde um den Ring gemacht hat, geben alle Stationen das Token im Wiederholungsmodus weiter, das Token macht schnell eine weitere Runde und beim nächsten Zyklus bereits die Stationen haben das Recht, den Token zu erfassen und ihre Frames zu übertragen.

Die FDDI-Zugriffsmethode für asynchronen Datenverkehr ist adaptiv und bewältigt vorübergehende Netzwerküberlastungen gut.

4.3. Fehlertoleranz der FDDI-Technologie.

Um die Fehlertoleranz zu gewährleisten, sieht der FDDI-Standard die Schaffung von zwei Glasfaserringen vor – primär und sekundär. Der FDDI-Standard ermöglicht zwei Arten der Anbindung von Stationen an das Netzwerk. Die gleichzeitige Verbindung zum Primär- und Sekundärring wird als Dual-Verbindung bezeichnet – Dual Attachment, DA. Die Verbindung nur mit dem Primärring wird als Einzelverbindung bezeichnet – Single Attachment, SA.

Der FDDI-Standard sieht das Vorhandensein von Endknoten im Netzwerk vor – Stationen (Station) sowie Konzentratoren (Concentrator). Für Stationen und Hubs ist jede Art der Verbindung zum Netzwerk akzeptabel – sowohl Einzel- als auch Doppelverbindung. Dementsprechend tragen solche Geräte die passenden Namen: SAS (Single Attachment Station), DAS (Dual Attachment Station), SAC (Single Attachment Concentrator) und DAC (Dual Attachment Concentrator).

Typischerweise verfügen Hubs über eine Doppelverbindung und Stationen über eine Einzelverbindung, wie in Abb. 6., obwohl dies nicht notwendig ist. Um den korrekten Anschluss der Geräte an das Netzwerk zu erleichtern, sind deren Anschlüsse gekennzeichnet. Geräte mit Doppelanschlüssen müssen über Anschlüsse vom Typ A und B verfügen; für einen Einzelanschluss einer Station stehen am Hub Anschlüsse M (Master) zur Verfügung, der entsprechende Anschluss muss vom Typ S (Slave) sein.

Reis. 6. Knoten mit FDDI-Ringen verbinden

Im Falle eines einzelnen Kabelbruchs zwischen zwei angeschlossenen Geräten kann das FDDI-Netzwerk den normalen Betrieb fortsetzen, indem es die internen Frame-Pfade zwischen den Hub-Ports automatisch neu konfiguriert (Abbildung 7). Ein zweimaliger Kabelbruch führt zu zwei isolierten FDDI-Netzwerken. Wenn das Kabel, das zu einer Station mit einer Einzelverbindung führt, unterbrochen wird, wird diese vom Netzwerk getrennt und der Ring funktioniert aufgrund der Neukonfiguration des internen Pfads im Hub weiter – der M-Port, an den diese Station angeschlossen war, bleibt erhalten vom allgemeinen Pfad ausgeschlossen.

Reis. 7. Neukonfiguration des FDDI-Netzwerks, wenn ein Kabel unterbrochen ist

Um die Netzwerkfunktionalität während eines Stromausfalls aufrechtzuerhalten, müssen Dual-Connection-Stationen, also DAS-Stationen, mit einem optischen Bypass-Schalter ausgestattet sein, der einen Bypass-Pfad für die Lichtströme schafft, wenn der Strom, den sie von der Station erhalten, wegfällt.

Schließlich können DAS-Stationen oder DAC-Hubs an zwei M-Ports von einem oder zwei Hubs angeschlossen werden, wodurch eine Baumstruktur mit Primär- und Backup-Links entsteht. Standardmäßig unterstützt Port B die primäre Kommunikation und Port A die Backup-Kommunikation. Diese Konfiguration wird als Dual Homing-Verbindung bezeichnet.

Die Fehlertoleranz wird durch die ständige Überwachung des SMT-Levels von Hubs und Stationen hinsichtlich der Zeitintervalle der Token- und Frame-Zirkulation sowie des Vorhandenseins einer physischen Verbindung zwischen benachbarten Ports im Netzwerk gewährleistet. In einem FDDI-Netzwerk gibt es keinen dedizierten aktiven Monitor – alle Stationen und Hubs sind gleich, und wenn Anomalien erkannt werden, beginnen sie mit der Neuinitialisierung und anschließenden Neukonfiguration des Netzwerks.

Die Neukonfiguration interner Pfade in Hubs und Netzwerkadaptern erfolgt durch spezielle optische Schalter, die den Lichtstrahl umleiten und ein recht komplexes Design haben.

4.4. Vergleich von FDDI mit Ethernet- und Token-Ring-Technologien.

In der Tabelle 1. Die Ergebnisse des Vergleichs der FDDI-Technologie mit Ethernet- und Token-Ring-Technologien werden vorgestellt.

Tabelle 1. Eigenschaften der FDDI-, Ethernet- und Token-Ring-Technologien

Die FDDI-Technologie wurde für den Einsatz in kritischen Bereichen von Netzwerken entwickelt – an Backbone-Verbindungen zwischen großen Netzwerken, beispielsweise Gebäudenetzwerken, sowie für die Anbindung von Hochleistungsservern an das Netzwerk. Daher ging es den Entwicklern vor allem darum, hohe Datenübertragungsgeschwindigkeiten, Fehlertoleranz auf Protokollebene und große Entfernungen zwischen Netzwerkknoten sicherzustellen. Alle diese Ziele wurden erreicht. Infolgedessen erwies sich die FDDI-Technologie als hochwertig, aber sehr teuer. Selbst das Aufkommen einer günstigeren Twisted-Pair-Option hat die Kosten für den Anschluss eines einzelnen Knotens an ein FDDI-Netzwerk nicht wesentlich gesenkt. Die Praxis hat daher gezeigt, dass das Hauptanwendungsgebiet der FDDI-Technologie das Rückgrat von Netzwerken, die aus mehreren Gebäuden bestehen, sowie von Skalennetzwerken geworden ist große Stadt, also Klasse MAN. Die Technologie erwies sich als zu teuer, um Client-Computer und sogar kleine Server anzuschließen. Und da FDDI-Geräte seit etwa 10 Jahren in Produktion sind, ist eine wesentliche Kostensenkung nicht zu erwarten.

Infolgedessen begannen Netzwerkspezialisten Anfang der 90er Jahre nach Möglichkeiten zu suchen, relativ kostengünstige und gleichzeitig schnelle Technologien zu entwickeln, die auf allen Ebenen des Unternehmensnetzwerks genauso erfolgreich funktionieren würden, wie es Ethernet- und Token-Ring-Technologien taten die 80er.

5. Fast Ethernet und 100VG – AnyLAN als Weiterentwicklung der Ethernet-Technologie.

Das klassische 10-Mbit-Ethernet war für die meisten Benutzer etwa 15 Jahre lang geeignet. Anfang der 90er Jahre machte sich jedoch die unzureichende Kapazität bemerkbar. Für Computer an Intel-Prozessoren 80286 oder 80386 mit ISA-Bussen (8 MB/s) oder EISA-Bussen (32 MB/s) betrug die Bandbreite des Ethernet-Segments 1/8 oder 1/32 des Speicher-zu-Festplatten-Kanals, was gut mit dem Verhältnis übereinstimmte der lokal verarbeiteten Datenmengen und der über das Netzwerk übertragenen Datenmengen. Bei leistungsstärkeren Client-Stationen mit PCI-Bus (133 MB/s) sank dieser Anteil auf 1/133, was eindeutig nicht ausreichte. Infolgedessen wurden viele 10-Mbit/s-Ethernet-Segmente überlastet, die Reaktionsfähigkeit des Servers sank erheblich und die Kollisionsraten stiegen deutlich an, was den nutzbaren Durchsatz weiter verringerte.

Es besteht die Notwendigkeit, ein „neues“ Ethernet zu entwickeln, also eine Technologie, die mit einer Leistung von 100 Mbit/s ebenso kostengünstig wäre. Als Ergebnis von Recherchen und Recherchen wurden die Experten in zwei Lager gespalten, was letztendlich zur Entstehung zweier neuer Technologien führte – Fast Ethernet und l00VG-AnyLAN. Sie unterscheiden sich im Grad der Kontinuität zum klassischen Ethernet.

Im Jahr 1992 gründete eine Gruppe von Netzwerkgeräteherstellern, darunter führende Ethernet-Technologieanbieter wie SynOptics, 3Com und mehrere andere, die Fast Ethernet Alliance, einen gemeinnützigen Verein, um einen Standard zu entwickeln neue Technologie, das die Eigenschaften der Ethernet-Technologie so weit wie möglich bewahren sollte.

Das zweite Lager wurde von Hewlett-Packard und AT&T angeführt, die anboten, die Gelegenheit zu nutzen, einige der bekannten Mängel der Ethernet-Technologie zu beheben. Nach einiger Zeit schloss sich diesen Unternehmen auch IBM an, das einen Beitrag leistete, indem es vorschlug, in der neuen Technologie eine gewisse Kompatibilität mit Token-Ring-Netzwerken zu gewährleisten.

Gleichzeitig gründete das IEEE-Komitee 802 eine Forschungsgruppe, um das technische Potenzial neuer Hochgeschwindigkeitstechnologien zu untersuchen. Zwischen Ende 1992 und Ende 1993 untersuchte das IEEE-Team 100-Mbit-Lösungen verschiedener Anbieter. Neben den Vorschlägen der Fast Ethernet Alliance prüfte die Gruppe auch die von Hewlett-Packard und AT&T vorgeschlagene Hochgeschwindigkeitstechnologie.

Im Mittelpunkt der Diskussion stand die Frage der Aufrechterhaltung der zufälligen CSMA/CD-Zugriffsmethode. Der Vorschlag der Fast Ethernet Alliance behielt diese Methode bei und gewährleistete dadurch Kontinuität und Konsistenz zwischen 10-Mbit/s- und 100-Mbit/s-Netzwerken. Die HP-AT&T-Koalition, die von deutlich weniger Anbietern in der Netzwerkbranche unterstützt wurde als die Fast Ethernet Alliance, schlug eine völlig neue Zugriffsmethode namens „ Nachfragepriorität- Vorrangiger Zugang auf Anfrage. Es veränderte das Verhalten der Knoten im Netzwerk erheblich, sodass es nicht in die Ethernet-Technologie und den 802.3-Standard passte. Daher wurde ein neues IEEE 802.12-Komitee gegründet, um es zu standardisieren.

Im Herbst 1995 wurden beide Technologien zu IEEE-Standards. Das IEEE 802.3-Komitee hat die Fast Ethernet-Spezifikation als 802.3-Standard übernommen, die kein eigenständiger Standard ist, sondern eine Ergänzung zum bestehenden 802.3-Standard in Form der Kapitel 21 bis 30 darstellt. Das 802.12-Komitee hat die l00VG-AnyLAN-Technologie übernommen, die verwendet eine neue Demand Priority-Zugriffsmethode und unterstützt zwei Frame-Formate – Ethernet und Token Ring.

5.1. Merkmale der 100VG-AnyLAN-Technologie.

Die 100VG-AnyLAN-Technologie unterscheidet sich deutlich stärker vom klassischen Ethernet als Fast Ethernet. Die Hauptunterschiede sind unten aufgeführt.

    Verwendet eine andere Zugriffsmethode, Demand Priority, die im Vergleich zur CSMA/CD-Methode eine gerechtere Verteilung der Netzwerkbandbreite bietet. Darüber hinaus unterstützt diese Methode den Prioritätszugriff für synchrone Anwendungen. Frames werden nicht an alle Netzwerkstationen übertragen, sondern nur an die Zielstation. Das Netzwerk verfügt über einen dedizierten Zugriffsarbiter – einen Konzentrator – und dies unterscheidet diese Technologie erheblich von anderen, die einen auf Netzwerkstationen verteilten Zugriffsalgorithmus verwenden. Es werden Frames von zwei Technologien unterstützt – Ethernet und Token Ring (dieser Umstand verleiht dem Namen der Technologie den Zusatz AnyLAN). Die Datenübertragung erfolgt gleichzeitig über 4 Paare UTP-Kabel der Kategorie 3. Jedes Paar überträgt Daten mit einer Geschwindigkeit von 25 Mbit/s, also insgesamt 100 Mbit/s. Im Gegensatz zu Fast Ethernet gibt es in 100VG-AnyLAN-Netzwerken keine Kollisionen, sodass für die Übertragung alle vier Paare eines Standardkabels der Kategorie 3 verwendet werden konnten. Bei der Datenkodierung kommt ein 5V/6V-Code zum Einsatz, der ein Signalspektrum im Bereich von 5V/6V bereitstellt bis zu 16 MHz (UTP-Bandbreite der Kategorie 3) bei einer Datenübertragungsrate von 25 Mbit/s. Die Zugriffsmethode „Demand Priority“ basiert auf der Übertragung der Funktionen eines Schiedsrichters auf den Konzentrator, der das Problem des Zugriffs auf das gemeinsam genutzte Medium löst. Das 100VG-AnyLAN-Netzwerk besteht aus einem zentralen Hub, auch Root genannt, und damit verbundenen Endknoten und anderen Hubs (Abb. 8.).

Reis. 8. 100VG-AnyLAN-Netzwerk

Es sind drei Stufen der Kaskadierung zulässig. Jeder l00VG-AnyLAN-Hub und Netzwerkadapter muss für die Verarbeitung von Ethernet-Frames oder Token-Ring-Frames konfiguriert sein, und beide Arten von Frames dürfen nicht gleichzeitig zirkulieren.

Der Hub fragt die Ports zyklisch ab. Eine Station, die ein Paket übertragen möchte, sendet ein spezielles Niederfrequenzsignal an den Hub, fordert die Übertragung des Frames an und gibt seine Priorität an. Das l00VG-AnyLAN-Netzwerk verwendet zwei Prioritätsstufen – niedrig und hoch. Eine niedrige Prioritätsstufe entspricht normalen Daten (Dateidienst, Druckdienst usw.), und eine hohe Prioritätsstufe entspricht zeitkritischen Daten (z. B. Multimedia). Anforderungsprioritäten haben statische und dynamische Komponenten, d. h. eine Station mit niedriger Prioritätsstufe, die längere Zeit keinen Zugriff auf das Netzwerk hatte, erhält eine hohe Priorität.

Wenn das Netzwerk frei ist, ermöglicht der Hub die Übertragung des Pakets. Nach der Analyse der Empfängeradresse im empfangenen Paket sendet der Hub das Paket automatisch an die Zielstation. Wenn das Netzwerk ausgelastet ist, stellt der Hub die empfangene Anfrage in eine Warteschlange, die entsprechend der Reihenfolge, in der die Anfragen eingegangen sind, und unter Berücksichtigung der Prioritäten verarbeitet wird. Wenn ein anderer Hub mit dem Port verbunden ist, wird die Abfrage ausgesetzt, bis der Downstream-Hub die Abfrage abgeschlossen hat. Stationen, die mit Konzentratoren verschiedener Hierarchieebenen verbunden sind, haben keine Vorteile beim Zugriff auf das gemeinsam genutzte Medium, da die Entscheidung über die Gewährung des Zugriffs getroffen wird, nachdem alle Konzentratoren alle ihre Ports abgefragt haben.

Unklar bleibt die Frage: Woher weiß der Hub, mit welchem ​​Port die Zielstation verbunden ist? Bei allen anderen Technologien wurde der Frame einfach an alle Stationen im Netzwerk übertragen und die Zielstation, nachdem sie ihre Adresse erkannt hatte, kopierte den Frame in einen Puffer. Um dieses Problem zu lösen, ermittelt der Hub die MAC-Adresse der Station in dem Moment, in dem sie physisch per Kabel mit dem Netzwerk verbunden wird. Wenn in anderen Technologien das physikalische Verbindungsverfahren die Kabelkonnektivität (Verbindungstest in der l0Base-T-Technologie), den Porttyp (FDDI-Technologie), die Portgeschwindigkeit (Auto-Negotiation-Verfahren in Fast Ethernet) bestimmt, dann ist in der l00VG-AnyLAN-Technologie der Hub wann Beim Aufbau einer physischen Verbindung wird die MAC-Adresse der Station ermittelt. Und speichert es in der MAC-Adresstabelle, ähnlich der Bridge/Switch-Tabelle. Der Unterschied zwischen dem l00VG-AnyLAN-Hub und der Bridge/Switch besteht darin, dass er keinen internen Puffer zum Speichern von Frames hat. Daher empfängt er nur einen Frame von Netzwerkstationen, sendet ihn an den Zielport und bis dieser Frame vollständig von der Zielstation empfangen wurde, akzeptiert der Hub keine neuen Frames. Der Effekt der gemeinsamen Umgebung bleibt also bestehen. Lediglich die Netzwerksicherheit verbessert sich – Frames erreichen nicht die Ports anderer Personen und sind schwieriger abzufangen.

Ein wichtiges Merkmal der l00VG-AnyLAN-Technologie ist die Beibehaltung der Ethernet- und Token-Ring-Frameformate. Befürworter von l00VG-AnyLAN argumentieren, dass dieser Ansatz die Vernetzung über Bridges und Router hinweg erleichtern und auch Kompatibilität mit vorhandenen Netzwerkverwaltungstools, insbesondere Protokollanalysatoren, gewährleisten wird.

Trotz vieler guter technischer Lösungen hat die l00VG-AnyLAN-Technologie nicht viele Anhänger gefunden und ist der Fast-Ethernet-Technologie deutlich unterlegen. Dies könnte auf die Tatsache zurückzuführen sein, dass die technischen Möglichkeiten der ATM-Technologie zur Unterstützung verschiedener Verkehrsarten wesentlich größer sind als die von l00VG-AnyLAN. Wenn es daher erforderlich ist, eine differenzierte Servicequalität sicherzustellen, wird die ATM-Technologie eingesetzt (oder steht kurz davor). Und für Netzwerke, in denen es nicht erforderlich ist, die Servicequalität auf der Ebene gemeinsam genutzter Segmente aufrechtzuerhalten, hat sich die Fast-Ethernet-Technologie als häufiger eingesetzt. Um Anwendungen zu unterstützen, die hinsichtlich der Datenübertragungsgeschwindigkeit sehr anspruchsvoll sind, gibt es außerdem die Gigabit-Ethernet-Technologie, die unter Beibehaltung der Kontinuität zu Ethernet und Fast Ethernet eine Datenübertragungsgeschwindigkeit von 1000 Mbit/s bietet.

6. Hochgeschwindigkeits-Gigabit-Ethernet-Technologie.

6.1. Allgemeine Merkmale des Standards.

Schon recht bald nach der Markteinführung von Fast-Ethernet-Produkten spürten Netzwerkintegratoren und Administratoren gewisse Einschränkungen beim Aufbau von Unternehmensnetzwerken. In vielen Fällen überlasteten Server, die über einen 100-Mbit/s-Kanal verbunden waren, Netzwerk-Backbones, die ebenfalls mit 100-Mbit/s-Geschwindigkeit arbeiteten – FDDI- und Fast-Ethernet-Backbones. Es bestand Bedarf an der nächsten Ebene der Geschwindigkeitshierarchie. Im Jahr 1995 konnten nur ATM-Switches eine höhere Geschwindigkeit bieten, und da es zu diesem Zeitpunkt noch keine praktischen Möglichkeiten gab, diese Technologie auf lokale Netzwerke zu migrieren (obwohl die LAN-Emulation-LANE-Spezifikation Anfang 1995 eingeführt wurde, war ihre praktische Umsetzung noch nicht abgeschlossen). ), um sie zu implementieren. Fast niemand wagte es, ein lokales Netzwerk aufzubauen. Darüber hinaus war die Geldautomatentechnologie durch ein sehr hohes Kostenniveau gekennzeichnet.

Daher bestand der nächste logische Schritt des IEEE darin, dass die IEEE High Speed ​​​​Technology Research Group fünf Monate nach der endgültigen Einführung des Fast Ethernet-Standards im Juni 1995 angewiesen wurde, die Möglichkeit der Entwicklung eines Ethernet-Standards mit noch höherer Geschwindigkeit zu prüfen Bitrate.

Im Sommer 1996 wurde die Gründung der 802.3z-Gruppe angekündigt, um ein Protokoll zu entwickeln, das Ethernet möglichst ähnlich ist, jedoch eine Bitrate von 1000 Mbit/s aufweist. Wie bei Fast Ethernet wurde die Botschaft von den Ethernet-Befürwortern mit großer Begeisterung aufgenommen.

Der Hauptgrund für die Begeisterung war die Aussicht auf eine ebenso reibungslose Übertragung der Netzwerk-Backbones. Gigabit-Ethernet, ebenso wie überlastete Ethernet-Segmente auf niedrigeren Ebenen der Netzwerkhierarchie auf Fast Ethernet übertragen wurden. Darüber hinaus gab es bereits Erfahrungen mit der Übertragung von Daten mit Gigabit-Geschwindigkeit, sowohl in territorialen Netzwerken (SDH-Technologie) als auch in lokalen Netzwerken – der Fibre-Channel-Technologie, die hauptsächlich zum Anschluss von Hochgeschwindigkeitsperipheriegeräten an große Computer verwendet wird und Daten über Glasfaser überträgt Kabel mit Geschwindigkeiten nahe Gigabit über 8V/10V-Redundanzcode.

Zur Koordinierung der Bemühungen in diesem Bereich gegründet, umfasste die Gigabit Ethernet Alliance von Anfang an Branchenführer wie Bay Networks, Cisco Systems und 3Com. Im Laufe des Jahres ihres Bestehens ist die Zahl der Teilnehmer der Gigabit Ethernet Alliance deutlich gewachsen und liegt mittlerweile bei über 100. Als erste Option für die physikalische Schicht wurde die Fibre-Channel-Technologieebene mit ihrem 8V/10V-Code übernommen ( wie im Fall von Fast Ethernet, als es zur Beschleunigung der Arbeit auf der physischen Schicht (FDDI) eingeführt wurde.

Die erste Version des Standards wurde im Januar 1997 überprüft und der 802.3z-Standard wurde schließlich am 29. Juni 1998 auf einer Sitzung des IEEE 802.3-Komitees verabschiedet. Die Arbeiten zur Implementierung von Gigabit-Ethernet auf Twisted-Pair-Kabeln der Kategorie 5 wurden an ein Sonderkomitee 802.3ab übertragen, das bereits mehrere Optionen für den Entwurf dieses Standards geprüft hat, und seit Juli 1998 ist das Projekt ziemlich stabil geworden.

Ohne auf die Verabschiedung des Standards zu warten, brachten einige Unternehmen im Sommer 1997 die ersten Gigabit-Ethernet-Geräte über Glasfaserkabel auf den Markt.

Die Hauptidee der Entwickler des Gigabit-Ethernet-Standards besteht darin, die Ideen der klassischen Ethernet-Technologie so weit wie möglich beizubehalten und gleichzeitig eine Bitgeschwindigkeit von 1000 Mbit/s zu erreichen.

Da bei der Entwicklung einer neuen Technologie natürlich einige technische Innovationen zu erwarten sind, die dem allgemeinen Trend der Entwicklung der Netzwerktechnologie folgen, ist es wichtig zu beachten, dass Gigabit Ethernet, wie seine langsameren Gegenstücke, auf Protokollebene Folgendes nicht unterstützt:

    Servicequalität; redundante Verbindungen; Testen der Leistung von Knoten und Geräten (im letzteren Fall – mit Ausnahme des Testens der Port-zu-Port-Kommunikation, wie es für Ethernet l0Base-T und l0Base-F und Fast Ethernet durchgeführt wird).

Alle drei dieser Eigenschaften gelten als sehr vielversprechend und nützlich für moderne Netzwerke und insbesondere für Netzwerke der nahen Zukunft. Warum geben die Autoren von Gigabit Ethernet sie auf?

Zur Servicequalität lässt sich kurz und knapp antworten: „Du hast Macht, du brauchst keine Intelligenz.“ Wenn das Netzwerk-Backbone mit einer Geschwindigkeit arbeitet, die um ein Vielfaches höher ist als die durchschnittliche Geschwindigkeit der Netzwerkaktivität eines Client-Computers und 100-mal höher als die durchschnittliche Netzwerkaktivität eines Servers mit einem 100-Mbit/s-Netzwerkadapter, dann ist dies in vielen Fällen der Fall Sie müssen sich überhaupt keine Gedanken über Paketverzögerungen im Backbone machen. Bei einem kleinen Buslastfaktor von 1000 Mbit/s sind die Warteschlangen in Gigabit-Ethernet-Switches klein und die Puffer- und Umschaltzeit beträgt bei dieser Geschwindigkeit einige oder sogar Bruchteile von Mikrosekunden.

Bei ausreichender Auslastung des Backbones kann mit der Prioritätstechnik in Switches verzögerungsempfindlicher oder durchschnittlich geschwindigkeitsintensiver Verkehr priorisiert werden – entsprechende Standards für Switches sind bereits verabschiedet. Es wird jedoch möglich sein, eine sehr einfache (fast wie Ethernet) Technologie zu verwenden, deren Funktionsprinzipien fast allen Netzwerkspezialisten bekannt sind.

Die Grundidee der Entwickler der Gigabit-Ethernet-Technologie besteht darin, dass es viele Netzwerke gibt und geben wird, in denen die hohe Geschwindigkeit des Backbones und die Möglichkeit, Paketen in Switches Prioritäten zuzuweisen, völlig ausreichen, um die Qualität des Transportdienstes sicherzustellen an alle Netzwerk-Clients. Und nur in den seltenen Fällen, in denen die Autobahn stark überlastet ist und die Anforderungen an die Servicequalität sehr hoch sind, ist der Einsatz der ATM-Technologie erforderlich, die aufgrund ihrer hohen technischen Komplexität wirklich die Servicequalität für alle wichtigen Verkehrsarten garantiert Verkehr.

Redundante Kommunikation und Hardwaretests werden von der Gigabit-Ethernet-Technologie nicht unterstützt, da Protokolle höherer Ebenen wie Spanning Tree, Routing-Protokolle usw. für diese Aufgaben gut geeignet sind. Daher haben sich die Technologieentwickler für die niedrigere Ebene entschieden Es müssen lediglich Daten schnell übertragen werden, und komplexere und seltener auftretende Aufgaben (z. B. Verkehrspriorisierung) sollten auf höhere Schichten übertragen werden.

Was hat die Gigabit-Ethernet-Technologie im Vergleich zu Ethernet- und Fast-Ethernet-Technologien gemeinsam?

    Alle Ethernet-Frameformate bleiben erhalten. Es wird weiterhin eine Halbduplex-Version des Protokolls geben, die die CSMA/CD-Zugriffsmethode unterstützt, und eine Vollduplex-Version, die mit Switches arbeitet. Auch die Entwickler von Fast Ethernet hatten Zweifel an der Beibehaltung der Halbduplex-Version des Protokolls, da es schwierig ist, den CSMA/CD-Algorithmus bei hohen Geschwindigkeiten zum Laufen zu bringen. Allerdings blieb die Zugriffsmethode bei der Fast-Ethernet-Technologie unverändert und man entschied sich für den Verbleib bei der neuen Gigabit-Ethernet-Technologie. Die Beibehaltung einer kostengünstigen Lösung für gemeinsam genutzte Umgebungen ermöglicht die Verwendung von Gigabit-Ethernet in kleinen Arbeitsgruppen mit schnellen Servern und Workstations. Alle wichtigen Kabeltypen, die in Ethernet und Fast Ethernet verwendet werden, werden unterstützt: Glasfaser, Twisted-Pair-Kabel der Kategorie 5, Koaxialkabel.

Um die oben genannten Eigenschaften beizubehalten, mussten die Entwickler der Gigabit-Ethernet-Technologie jedoch nicht nur Änderungen an der physikalischen Schicht vornehmen, wie dies bei Fast Ethernet der Fall war, sondern auch an der MAC-Schicht.

Die Entwickler des Gigabit-Ethernet-Standards standen vor mehreren schwierigen Problemen, die es zu lösen galt. Eine davon war die Aufgabe, einen akzeptablen Netzwerkdurchmesser für den Halbduplex-Betriebsmodus sicherzustellen. Aufgrund der Kabellängenbeschränkungen von CSMA/CD würde eine Shared-Media-Version von Gigabit-Ethernet eine Segmentlänge von nur 25 Metern ermöglichen, während die Rahmengröße und alle CSMA/CD-Parameter unverändert bleiben würden. Da es eine Vielzahl von Anwendungen gibt, bei denen es notwendig ist, den Netzwerkdurchmesser auf mindestens 200 Meter zu vergrößern, war es notwendig, dieses Problem durch minimale Änderungen in der Fast-Ethernet-Technologie irgendwie zu lösen.

Eine weitere große Herausforderung bestand darin, bei den wichtigsten Kabeltypen eine Bitrate von 1000 Mbit/s zu erreichen. Selbst für Glasfaser stellt das Erreichen einer solchen Geschwindigkeit einige Probleme dar, da die Fibre-Channel-Technologie, deren physikalische Schicht als Grundlage für die Glasfaserversion von Gigabit-Ethernet diente, eine Datenübertragungsrate von nur 800 Mbit/s (die .) bietet Die Bitrate auf der Leitung beträgt in diesem Fall etwa 1000 Mbit/s, bei der 8V/10V-Kodierungsmethode ist die nutzbare Bitrate jedoch 25 % geringer als die Impulsrate auf der Leitung.

Und schließlich ist die schwierigste Aufgabe die Unterstützung von Twisted-Pair-Kabeln. Auf den ersten Blick erscheint eine solche Aufgabe unlösbar – schließlich mussten auch bei 100-Mbit-Protokollen recht komplexe Kodierverfahren eingesetzt werden, um das Signalspektrum in die Kabelbandbreite einzupassen. Der Erfolg von Codierungsspezialisten manifestierte sich jedoch in In letzter Zeit in neuen Modemstandards gezeigt, dass das Problem eine Chance hat, gelöst zu werden. Um die Einführung der Hauptversion des Gigabit-Ethernet-Standards mit Glasfaser und Koax nicht zu verlangsamen, wurde ein separates 802.3ab-Komitee gegründet, um den Gigabit-Ethernet-Standard über Twisted Pair der Kategorie 5 zu entwickeln.

Alle diese Aufgaben wurden erfolgreich gelöst.

6.2. Mittel zur Sicherstellung eines Netzwerkdurchmessers von 200 m auf einem gemeinsamen Medium.

Um den maximalen Durchmesser eines Gigabit-Ethernet-Netzwerks im Halbduplex-Modus auf 200 m zu erweitern, haben Technologieentwickler recht natürliche Maßnahmen ergriffen, die auf dem bekannten Verhältnis von Rahmenübertragungszeit zur Mindestlänge und doppelter Durchlaufzeit basieren.

Die minimale Framegröße wurde (ohne Präambel) von 64 auf 512 Byte oder 4096 Byte erhöht. Dementsprechend konnte nun auch die doppelte Durchlaufzeit auf 4095 BT erhöht werden, wodurch bei Verwendung eines einzelnen Repeaters ein Netzwerkdurchmesser von etwa 200 m möglich ist. Bei einer doppelten Signalverzögerung von 10 Bbit/m tragen 100 m Glasfaserkabel zu doppelten 1000 Bt-Rundfahrten bei, und wenn der Repeater und die Netzwerkadapter zu denselben Verzögerungen beitragen wie bei Fast-Ethernet-Technologien (Daten dafür wurden in angegeben). (siehe vorheriger Abschnitt), dann ergibt die Verzögerung eines Repeaters von 1000 BT und eines Netzwerkadapterpaars von 1000 BT eine doppelte Gesamtdurchlaufzeit von 4000 BT, was die Bedingung für die Kollisionserkennung erfüllt. Um die Framelänge auf den in der neuen Technologie geforderten Wert zu erhöhen, muss der Netzwerkadapter das Datenfeld wie folgt auf eine Länge von 448 Bytes erweitern: Erweiterung genannt Dabei handelt es sich um ein Feld voller verbotener 8B/10B-Codezeichen, die nicht mit Datencodes verwechselt werden können.

Um den Aufwand zu verringern, der durch die Verwendung zu langer Frames zur Übertragung kurzer Empfangsbestätigungen entsteht, haben die Entwickler des Standards den Endknoten erlaubt, mehrere Frames hintereinander zu übertragen, ohne das Medium an andere Stationen zu übertragen. Dieser Modus wird Burst-Modus genannt – exklusiver Burst-Modus. Eine Station kann mehrere Frames hintereinander mit einer Gesamtlänge von maximal einem Bit bzw. 8192 Bytes übertragen. Wenn eine Station mehrere kleine Frames übertragen muss, darf sie diese nicht bis zu einer Größe von 512 Bytes auffüllen, sondern in einer Reihe senden, bis die Grenze von 8192 Bytes ausgeschöpft ist (diese Grenze umfasst alle Bytes des Frames, einschließlich der Präambel). , Header, Daten und Prüfsumme). Die Grenze von 8192 Bytes wird BurstLength genannt. Wenn eine Station mit der Übertragung eines Frames beginnt und das BurstLength-Limit in der Mitte des Frames erreicht wird, darf der Frame bis zum Ende übertragen werden.

Durch die Erhöhung des „kombinierten“ Frames auf 8192 Byte verzögert sich der Zugriff auf das gemeinsame Medium anderer Stationen etwas, bei einer Geschwindigkeit von 1000 Mbit/s fällt diese Verzögerung jedoch nicht so stark ins Gewicht.

7. Fazit.

Die Gigabit-Ethernet-Technologie fügt der Geschwindigkeitshierarchie der Ethernet-Familie eine neue 1000-Mbit/s-Stufe hinzu. In dieser Phase können Sie effektiv große lokale Netzwerke aufbauen, in denen leistungsstarke Server und Backbones der unteren Ebenen des Netzwerks mit einer Geschwindigkeit von 100 Mbit/s arbeiten und ein Gigabit-Ethernet-Backbone sie verbindet, wodurch eine ausreichend große Bandbreitenreserve bereitgestellt wird.

Die Entwickler der Gigabit-Ethernet-Technologie haben ein hohes Maß an Kontinuität mit den Ethernet- und Fast-Ethernet-Technologien gewahrt. Gigabit Ethernet verwendet die gleichen Frame-Formate wie frühere Ethernet-Versionen, arbeitet im Vollduplex- und Halbduplex-Modus und unterstützt die gleiche CSMA/CD-Zugriffsmethode auf den gemeinsam genutzten Medien mit minimalen Änderungen.

8. Liste der verwendeten Literatur.

Olifer-Netzwerk. Prinzipien, Technologien, Protokolle: Lehrbuch für Universitäten /, St. Petersburg: Peter - 672 S.

Netzwerktechnologien lokaler Netzwerke

In lokalen Netzwerken wird in der Regel ein gemeinsames Datenübertragungsmedium (Monokanal) verwendet und die Protokolle der physikalischen und Datenverbindungsschicht spielen die Hauptrolle, da diese Ebenen die Besonderheiten lokaler Netzwerke am besten widerspiegeln.

Netzwerktechnologie ist ein koordinierter Satz von Standardprotokollen sowie Software und Hardware, die diese implementieren und ausreichen, um ein lokales Computernetzwerk aufzubauen. Netzwerktechnologien werden genannt grundlegende Technologien oder Netzwerkarchitekturen lokale Netzwerke.

Die Netzwerktechnik bzw. -architektur bestimmt die Topologie und Art des Zugriffs auf das Datenübertragungsmedium, das Kabelsystem bzw. Datenübertragungsmedium, das Format der Netzwerkrahmen, die Art der Signalkodierung, die Übertragungsgeschwindigkeit des lokalen Netzwerks. In modernen lokalen Netzwerken werden Technologien oder Netzwerkarchitekturen wie: Ethernet, Token-Ring, ArcNet, FDDI.

2.4.1. Netzwerktechnologien für lokale Netzwerke IEEE802.3/Ethernet

Derzeit ist diese Netzwerktechnologie die beliebteste der Welt. Für Popularität sorgen einfache, zuverlässige und kostengünstige Technologien. Ein klassisches Ethernet-LAN ​​verwendet zwei Arten von Standard-Koaxialkabeln (dick und dünn).

Allerdings hat sich die Ethernet-Version, die Twisted-Pair als Übertragungsmedium nutzt, immer weiter verbreitet, da ihre Installation und Wartung deutlich einfacher ist. Lokale Ethernet-Netzwerke verwenden Bus- und passive Sterntopologien, und die Zugriffsmethode ist CSMA/CD ( Mehrfachzugriffsverfahren mit Abhören des Trägers und Lösen von Kollisionen oder Konflikten).

Der IEEE802.3-Standard weist je nach Art des Datenübertragungsmediums Modifikationen auf:

· 10BASE5 (dickes Koaxialkabel) – bietet eine Datenübertragungsrate von 10 Mbit/s und eine Segmentlänge von bis zu 500 m;

· 10BASE2 (dünnes Koaxialkabel) – bietet eine Datenübertragungsrate von 10 Mbit/s und eine Segmentlänge von bis zu 200 m;;

· 10BASE-T (ungeschirmtes Twisted Pair) – ermöglicht den Aufbau eines Netzwerks mit Sterntopologie. Die Entfernung vom Hub zum Endknoten beträgt bis zu 100 m. Die Gesamtzahl der Knoten sollte 1024 nicht überschreiten;

· 10BASE-F (Glasfaserkabel) – ermöglicht den Aufbau eines Netzwerks mit Sterntopologie. Die Entfernung vom Hub zum Endknoten beträgt bis zu 2000 m.

Bei der Entwicklung der Ethernet-Netzwerktechnologie wurden Hochgeschwindigkeitsoptionen geschaffen: IEEE802.3u/Fast Ethernet und IEEE802.3z/Gigabit Ethernet. Die in Fast-Ethernet- und Gigabit-Ethernet-LANs verwendete Haupttopologie ist die passive Sterntopologie.

Die Fast-Ethernet-Netzwerktechnologie bietet eine Übertragungsgeschwindigkeit von 100 Mbit/s und verfügt über drei Modifikationen:

· 100BASE-T4 – verwendet ungeschirmtes Twisted Pair (Quad Twisted Pair). Die Entfernung vom Hub zum Endknoten beträgt bis zu 100 m;

· 100BASE-TX – verwendet zwei verdrillte Paare (ungeschirmt und geschirmt). Die Entfernung vom Hub zum Endknoten beträgt bis zu 100 m;

· 100BASE-FX – es wird Glasfaserkabel verwendet (zwei Fasern im Kabel). Die Entfernung vom Hub zum Endknoten beträgt bis zu 2000 m;

Gigabit-Ethernet-LAN-Netzwerktechnologie – bietet Übertragungsgeschwindigkeiten von 1000 Mbit/s. Es gibt folgende Modifikationen des Standards:

· 1000BASE-SX – es wird ein Glasfaserkabel mit einer Lichtsignalwellenlänge von 850 nm verwendet.

· 1000BASE-LX – verwendet ein Glasfaserkabel mit einer Lichtsignalwellenlänge von 1300 nm.

· 1000BASE-CX – es wird ein abgeschirmtes Twisted-Pair-Kabel verwendet.

· 1000BASE-T – Es wird ein vierfach ungeschirmtes Twisted-Pair-Kabel verwendet.

Lokale Fast-Ethernet- und Gigabit-Ethernet-Netzwerke sind mit lokalen Netzwerken kompatibel, die mit der Ethernet-Technologie (Standard) erstellt wurden, sodass es einfach und unkompliziert ist, Ethernet-, Fast-Ethernet- und Gigabit-Ethernet-Segmente in einem einzigen Computernetzwerk zu verbinden.

Ethernet, eine der kostengünstigsten und am weitesten verbreiteten Technologien, wird immer produktiver, verfügt über die notwendigen Mittel zur Fehlertoleranz, Verkehrsdifferenzierung und QoS und gilt daher als eine der Komponenten von Kommunikationsnetzen der nächsten Generation, insbesondere von Stadtnetzen (MAN), auf dessen Basis sich effektive Multiservice-Lösungen erstellen lassen.

Netzwerktechnologien für lokale Netzwerke IEEE802.5/Token-Ring

Beim Token-Ring-Netzwerk kommt ein gemeinsames Datenübertragungsmedium zum Einsatz, das durch die Zusammenfassung aller Knoten zu einem Ring entsteht. Das Token-Ring-Netzwerk verfügt über eine Stern-Ring-Topologie(Hauptring- und Stern-Zusatztopologie). Für den Zugriff auf das Datenübertragungsmedium wird das Token-Verfahren verwendet(deterministische Markermethode). Der Standard unterstützt Twisted-Pair-Kabel (geschirmt und ungeschirmt) und Glasfaserkabel. Die maximale Anzahl der Knoten am Ring beträgt 260, die maximale Länge des Rings beträgt 4000 m. Die Datenübertragungsgeschwindigkeit beträgt bis zu 16 Mbit/s.

Netzwerktechnologien für lokale Netzwerke IEEE802.4/ArcNet

Die Topologie des lokalen ArcNet-Netzwerks kann „Bus“ und „Passivstern“ sein. Aber tatsächlich ist diese Technologie beabsichtigt zur Organisation eines LANs in einer sternförmigen Netzwerktopologie.

Die Basis der Kommunikationsausrüstung ist:

  • schalten;
  • Passiv/Aktiv-Hub (HUB).

Aktive Hubs werden verwendet, wenn der Arbeitsplatz weit entfernt ist (sie stellen die Signalform wieder her und verstärken sie). Passive Hubs werden verwendet, wenn die Workstation nur geringfügig entfernt ist. Das Netzwerk verwendet ein bestimmtes Zugriffsprinzip für Workstations, das heißt, die Station, die den sogenannten Software-Token vom Server erhalten hat, hat das Senderecht. Also implementiert werden deterministisch Netzwerktraffic. Unterstützt geschirmte und ungeschirmte Twisted-Pair- und Glasfaserkabel. Das lokale Netzwerk ArcNet - Dies ist eines der ältesten Netzwerke und erfreute sich großer Beliebtheit. Zu den Hauptvorteilen des lokalen ArcNet-Netzwerks zählen hohe Zuverlässigkeit, niedrige Adapterkosten und Flexibilität. Der Hauptnachteil des Netzwerks ist die geringe Geschwindigkeit der Informationsübertragung (2,5 Mbit/s). Die maximale Teilnehmerzahl beträgt 255. Die maximale Netzwerklänge beträgt 6000 Meter.

Bei der Netzwerktechnologie handelt es sich um einen Mindestsatz an Standardprotokollen sowie Software und Hardware, die diese implementieren und zum Aufbau eines Computernetzwerks ausreichen. Netzwerktechnologien werden Kerntechnologien genannt. Derzeit gibt es eine Vielzahl von Netzwerken mit unterschiedlichem Standardisierungsgrad, aber bekannte Technologien wie Ethernet, Token-Ring und Arcnet haben sich weit verbreitet.

Derzeit ist Ethernet die am weitesten verbreitete Technologie in lokalen Netzwerken. Mehr als 7 Millionen lokale Netzwerke und mehr als 80 Millionen Computer, die über eine Netzwerkkarte verfügen, die diese Technologie unterstützt, arbeiten auf Basis dieser Technologie. Abhängig von der Geschwindigkeit und den verwendeten Kabeltypen gibt es mehrere Untertypen von Ethernet.

Einer der Begründer dieser Technologie ist Xerox, das 1975 das Ethernet-Netzwerk-Testnetzwerk entwickelte und schuf. Die meisten der im genannten Netzwerk umgesetzten Prinzipien werden auch heute noch verwendet.

Nach und nach wurde die Technologie verbessert, um den steigenden Benutzeranforderungen gerecht zu werden. Dies hat dazu geführt, dass die Technologie ihren Anwendungsbereich auf Datenübertragungsmedien wie Glasfaser oder ungeschirmtes Twisted-Pair ausgeweitet hat.

Der Grund für den Einsatz dieser Kabelsysteme war der relativ schnelle Anstieg der Anzahl lokaler Netzwerke in verschiedenen Organisationen sowie die geringe Leistung lokaler Netzwerke mit Koaxialkabeln. Gleichzeitig entstand ein Bedarf an einer bequemen und kostengünstigen Verwaltung und Wartung dieser Netzwerke, die mit herkömmlichen Netzwerken nicht mehr möglich waren.

Grundprinzipien des Ethernet-Betriebs. Alle Computer im Netzwerk sind an ein gemeinsames Kabel angeschlossen, das als gemeinsamer Bus bezeichnet wird. Ein Kabel ist ein Übertragungsmedium und kann von jedem Computer in einem bestimmten Netzwerk zum Empfangen oder Übertragen von Informationen verwendet werden.

Ethernet-Netzwerke verwenden eine Paketdatenübertragungsmethode. Der sendende Computer wählt die zu sendenden Daten aus. Diese Daten werden in kurze Pakete (manchmal auch Frames genannt) umgewandelt, die die Absender- und Empfängeradressen enthalten. Das Paket ist mit Dienstinformationen – einer Präambel (markiert den Anfang des Pakets) – und Informationen über den Wert der Paketprüfsumme ausgestattet, die zur Überprüfung der korrekten Übertragung des Pakets über das Netzwerk erforderlich sind.

Bevor ein Paket gesendet wird, überprüft der sendende Computer das Kabel und stellt sicher, dass es keine Trägerfrequenz enthält, auf der die Übertragung erfolgen soll. Wenn eine solche Frequenz nicht eingehalten wird, beginnt die Übertragung des Pakets an das Netzwerk.

Das Paket wird von allen Netzwerkkarten der Computer akzeptiert, die an dieses Netzwerksegment angeschlossen sind. Netzwerkkarten steuern die Zieladresse des Pakets. Wenn die Zieladresse nicht mit der Adresse dieses Computers übereinstimmt, wird das Paket ohne Verarbeitung abgelehnt. Wenn die Adressen übereinstimmen, empfängt und verarbeitet der Computer das Paket, entfernt alle Dienstdaten daraus und transportiert die erforderlichen Informationen „nach oben“ durch die Ebenen des OSI-Modells bis zur Anwendungsebene.

Nachdem der Computer das Paket übertragen hat, wartet er eine kurze Pause von 9,6 μs und wiederholt dann den Paketübertragungsalgorithmus erneut, bis die erforderlichen Daten vollständig transportiert sind. Die Pause ist erforderlich, damit ein Computer nicht die physische Fähigkeit hat, das Netzwerk bei der Übertragung großer Informationsmengen zu blockieren. Während dieser technischen Pause kann der Kanal von jedem anderen Computer im Netzwerk genutzt werden.

Wenn zwei Computer gleichzeitig den Kanal überprüfen und versuchen, Datenpakete über ein gemeinsames Kabel zu senden, kommt es infolge dieser Aktionen zu einer Kollision, da die Inhalte beider Frames auf einem gemeinsamen Kabel kollidieren, was die übertragenen Daten erheblich verzerrt.

Nachdem eine Kollision festgestellt wurde, muss der sendende Computer die Übertragung für einen kurzen, zufälligen Zeitraum stoppen.

Eine wichtige Voraussetzung für den ordnungsgemäßen Betrieb des Netzwerks ist die zwingende gleichzeitige Erkennung von Kollisionen durch alle Computer. Wenn ein sendender Computer die Kollision nicht berechnet und zu dem Schluss kommt, dass das Paket korrekt übertragen wurde, geht dieses Paket einfach verloren, da es vom empfangenden Computer stark verzerrt und abgelehnt wird (Prüfsummeninkongruenz).

Es ist wahrscheinlich, dass verlorene oder beschädigte Informationen vom Protokoll der oberen Schicht erneut übertragen werden, das sich um den Verbindungsaufbau und die Identifizierung seiner Nachrichten kümmert. Es sollte auch berücksichtigt werden, dass die erneute Übertragung nach einem ziemlich langen Zeitintervall (mehrere zehn Sekunden) erfolgt, was zu einer erheblichen Verringerung des Durchsatzes eines bestimmten Netzwerks führt. Deshalb ist die rechtzeitige Erkennung von Kollisionen für die Stabilität des Netzwerks äußerst wichtig.

Alle Ethernet-Parameter sind so ausgelegt, dass Kollisionen immer eindeutig erkannt werden. Aus diesem Grund beträgt die Mindestlänge des Rahmendatenfelds mindestens 46 Byte (und unter Berücksichtigung der Dienstinformationen 72 Byte oder 576 Bit). Die Länge des Kabelsystems wird so berechnet, dass das Kollisionssignal während der Zeit, die ein Rahmen mit der Mindestlänge für den Transport benötigt, Zeit hat, den am weitesten entfernten Computer im Netzwerk zu erreichen. Demnach darf bei einer Geschwindigkeit von 10 Mbit/s die maximale Entfernung zwischen beliebigen Netzwerkelementen 2500 m nicht überschreiten. Je höher die Datenübertragungsrate, desto kürzer die maximale Netzwerklänge (verringert sich proportional). Bei Verwendung des Fast-Ethernet-Standards ist die maximale Größe auf 250 m und bei Gigabit-Ethernet auf 25 m begrenzt.

Somit hängt die Wahrscheinlichkeit, erfolgreich eine gemeinsame Umgebung zu erhalten, direkt von der Netzwerklast (der Intensität des Bedarfs an Rahmenübertragung) ab.

Die ständig steigenden Anforderungen an den Netzwerkdurchsatz führten zur Entwicklung der Ethernet-Technologie, deren Übertragungsgeschwindigkeit 10 Mbit/s überstieg. 1992 wurde der Fast-Ethernet-Standard eingeführt, der den Informationstransport mit einer Geschwindigkeit von 100 Mbit/s unterstützt. Die meisten Funktionsprinzipien von Ethernet bleiben unverändert.

Im Kabelsystem haben einige Änderungen stattgefunden. Koaxialkabel waren nicht in der Lage, eine Informationsübertragungsrate von 100 Mbit/s bereitzustellen, daher werden sie im Fast Ethernet durch abgeschirmte ungeschirmte Twisted-Pair-Kabel sowie Glasfaserkabel ersetzt.

Es gibt drei Arten von Fast Ethernet:

  • - 100Base-TX;
  • - 100Base-T4;
  • - 100Base-FX.

Der 100Base-TX-Standard verwendet zwei Kabelpaare gleichzeitig: UTP oder STP. Ein Paar wird für die Datenübertragung benötigt, das zweite für den Empfang. Zwei Kabelstandards erfüllen diese Anforderungen: EIA/TIA-568 UTP Kategorie 5 und STP Typ 1 von IBM. 100Base-TX bietet die Möglichkeit des Vollduplex-Modus bei der Arbeit mit Netzwerkservern sowie die Nutzung von nur zwei der vier Paare eines achtadrigen Kabels – die restlichen zwei Paare bleiben frei und können künftig genutzt werden Erweitern Sie die Funktionalität dieses Netzwerks (z. B. ist es auf ihrer Grundlage möglich, ein Telefonnetzwerk zu organisieren).

Der 100Base-T4-Standard ermöglicht die Verwendung von Kabeln der Kategorien 3 und 5. Dies liegt daran, dass 100Base-T4 vier Paare achtadriger Kabel verwendet: eines zum Senden und eines zum Empfangen, der Rest kann sowohl zum Senden als auch zum Senden verwendet werden. und für den Empfang. Dementsprechend kann sowohl der Empfang als auch die Übertragung von Daten über drei Paare gleichzeitig erfolgen. Wenn die Gesamtbandbreite von 100 Mbit/s auf drei Paare verteilt wird, reduziert 100Base-T4 die Signalfrequenz, sodass für den Normalbetrieb ein Kabel geringerer Qualität ausreicht. UTP-Kabel der Kategorie 3 und 5 können für 100Base-T4-Netzwerke verwendet werden, genau wie UTP der Kategorie 5 und STP Typ 1.

Der 100Base-FX-Standard verwendet Multimode-Glasfaser mit einem 62,5-Mikrometer-Kern und einem 125-Mikrometer-Mantel für die Datenübertragung. Dieser Standard ist für Autobahnen gedacht – die Verbindung von Fast-Ethernet-Repeatern im selben Raum. Die Hauptvorteile des optischen Kabels wurden auf den betrachteten 100Base-FX-Standard übertragen: Immunität gegen elektromagnetisches Rauschen, erhöhte Informationssicherheit und größere Abstände zwischen Netzwerkgeräten.

Eine vergleichende Analyse lokaler Netzwerktechnologien ist in Anhang B dargestellt

Lange Zeit wurde die Firewire-Schnittstelle (High Speed ​​Serial Firewire, auch bekannt als IEEE1394) hauptsächlich für die Streaming-Videoverarbeitung verwendet. Im Allgemeinen wurde es ursprünglich dafür entwickelt. Der selbst nach heutigen Maßstäben höchste Durchsatz dieser Schnittstelle (400 Mbit/s) machte sie jedoch für moderne Hochgeschwindigkeits-Peripheriegeräte sowie für die Organisation kleiner Hochgeschwindigkeitsnetzwerke recht effektiv.

Dank WDM-Treiberunterstützung wird die Firewire-Schnittstelle von Betriebssystemen ab Windows 98 Second Edition unterstützt. Allerdings wurde die native Firewire-Unterstützung erstmals in Windows Millennium eingeführt und wird jetzt in Windows 2000 und Windows XP unterstützt. Alle Betriebssysteme außer Windows 98SE unterstützen auch die Hot-Netzwerkinstallation. Wenn ein Firewire-Controller im System vorhanden ist, installiert Windows automatisch einen virtuellen Netzwerkadapter mit der Möglichkeit, direkt auf Standardnetzwerkeinstellungen zuzugreifen und diese zu ändern.

Standardmäßig unterstützt das Firewire-Netzwerk das TCP/IP-Protokoll, was völlig ausreicht, um die meisten modernen Netzwerkaufgaben zu lösen, beispielsweise die im Microsoft-Betriebssystem integrierte Funktion zur gemeinsamen Nutzung von Internetverbindungen.

Firewire bietet einen erheblichen Geschwindigkeitsvorteil gegenüber einem Standard-100BaseT-Ethernet-Netzwerk. Dies ist jedoch nicht der Hauptvorteil des Firewire-Netzwerks. Wichtiger ist die einfache Erstellung eines solchen Netzwerks, das auch einem Benutzer mit nicht dem höchsten Ausbildungsniveau zugänglich ist. Es ist auch wichtig, Vielseitigkeit und niedrige Kosten zu beachten.

Der Hauptnachteil eines Firewire-Netzwerks ist die begrenzte Länge des Kabels. Um mit einer Geschwindigkeit von 400 Mbit/s zu arbeiten, sollte die Kabellänge laut Spezifikation 4,5 Meter nicht überschreiten. Um dieses Problem zu lösen, werden verschiedene Repeater-Optionen verwendet.

Vor einigen Jahren wurde ein neuer Ethernet-Standard entwickelt – Gigabit Ethernet. Im Moment ist es noch nicht weit verbreitet. Die Gigabit-Ethernet-Technologie nutzt optische Kanäle und abgeschirmte Twisted-Pair-Verbindungen als Medium zur Informationsübertragung. Eine solche Umgebung kann die Datenübertragungsgeschwindigkeit verzehnfachen, was eine notwendige Voraussetzung für die Durchführung von Videokonferenzen oder die Ausführung komplexer Programme ist, die große Informationsmengen verarbeiten.

Diese Technologie nutzt die gleichen Prinzipien wie frühere Ethernet-Standards. Darüber hinaus kann ein Netzwerk, das auf abgeschirmten Twisted-Pair-Kabeln basiert, durch den Wechsel zur Gigabit-Ethernet-Technologie implementiert werden, indem die im Netzwerk verwendeten Netzwerkkarten und Netzwerkgeräte ersetzt werden. 1000Base-X enthält drei physikalische Schnittstellen, deren Parameter und Eigenschaften die unten aufgeführt sind:

  • - Die 1000Base-SX-Schnittstelle definiert Laser mit einer zulässigen Strahlungslänge im Bereich von 770-860 nm, der Sendestrahlungsleistung im Bereich von 10 bis 0 dBm, mit dem vorhandenen EIN/AUS-Verhältnis (es liegt ein Signal/kein Signal vor). ) von mindestens 9 dB. Die Empfindlichkeit eines solchen Empfängers beträgt 17 dBm und seine Sättigung beträgt 0 dBm.
  • - Die 1000Base-LX-Schnittstelle definiert Laser mit einer akzeptablen Strahlungslänge im Bereich von 1270–1355 nm, der Senderstrahlungsleistung im Bereich von 13,5 bis 3 dBm, mit dem vorhandenen EIN/AUS-Verhältnis (es gibt ein Signal/kein Signal). ) von mindestens 9 dB. Die Empfindlichkeit eines solchen Empfängers beträgt 19 dBm und seine Sättigung beträgt 3 dBm.
  • - 1000Base-CX – abgeschirmtes Twisted-Pair-Kabel, konzipiert für den Datentransport über kurze Distanzen. Alle vier Kupferkabelpaare dienen der Datenübertragung, die Übertragungsgeschwindigkeit über ein Paar beträgt 250 Mbit/s. Die Gigabit-Ethernet-Technologie ist die derzeit schnellste verfügbare lokale Netzwerktechnologie. Schon bald werden die meisten Netzwerke auf Basis dieser Technologie entstehen.

Wi-Fi ist eine drahtlose Kommunikationstechnologie. Dieser Name steht für Wireless Fidelity (aus dem Englischen – drahtlose Präzision). Konzipiert für den Zugang über kurze Distanzen und gleichzeitig mit relativ hohen Geschwindigkeiten. Es gibt drei Modifikationen dieses Standards – IEEE 802.11a, b und g. Ihr Unterschied besteht in der Datenübertragungsgeschwindigkeit und der Entfernung, über die sie Daten übertragen können. Die maximale Betriebsgeschwindigkeit beträgt jeweils 11/ 54/ 320 Mbit/s und die Übertragungsentfernung beträgt etwa 100 Meter. Der Vorteil der Technologie liegt darin, dass es keinen großen Aufwand erfordert, Computer in ein Netzwerk einzubinden, und die Unannehmlichkeiten vermeidet, die beim Verlegen von Kabeln entstehen. Derzeit können Dienste in Cafés, Flughäfen, Parks usw. genutzt werden.

USB-Netzwerk. Hauptsächlich für Laptop-Nutzer konzipiert, weil... Wenn Ihr Laptop keine Netzwerkkarte hat, kann es ziemlich teuer werden. Der Vorteil besteht darin, dass das Netzwerk ohne den Einsatz von Netzwerkkarten und Hubs erstellt werden kann, Vielseitigkeit und die Möglichkeit, jeden Computer anzuschließen.

Datenübertragungsgeschwindigkeit 5-7 Mbit/s. Lokales Netzwerk über elektrische Leitungen. 220V. Elektrische Netze sind nicht mit lokalen und globalen Netzen zu vergleichen. In jeder Wohnung und in jedem Zimmer gibt es eine Steckdose. Sie können Dutzende Meter Kabel rund um das Haus verlegen und so alle Computer, Drucker und andere Netzwerkgeräte verbinden.

Aber dann wird jeder Computer zu einem „Arbeitsplatz“, der dauerhaft im Raum steht. Wenn Sie es verschieben, müssen Sie auch das Netzwerkkabel verschieben. Sie können zu Hause ein drahtloses IEEE 802.11b-Netzwerk installieren, es kann jedoch zu Problemen mit der Signaldurchdringung durch Wände und Decken kommen, und außerdem handelt es sich um unnötige Strahlung, die im modernen Leben bereits ausreicht. Aber es gibt noch eine andere Möglichkeit – die Nutzung vorhandener elektrischer Leitungen und Steckdosen in den Wänden. Hierzu benötigen Sie lediglich die entsprechenden Adapter. Die Neüber elektrische Leitungen beträgt 14 Mbit/s. Die Reichweite beträgt ca. 500 Meter.

Es ist jedoch zu bedenken, dass das Verteilungsnetz dreiphasig ist und die Häuser mit einer Phase und einem Neutralleiter versorgt werden, wodurch jede Phase gleichmäßig belastet wird. Wenn also ein Benutzer an eine Phase angeschlossen ist und der zweite an eine andere, ist die Verwendung eines solchen Systems nicht möglich.

Computernetzwerke werden in drei Hauptklassen unterteilt:

1. Lokale Computernetzwerke (LAN – LocalAreaNetwork) sind Netzwerke, die Computer verbinden, die sich geografisch an einem Ort befinden. Ein lokales Netzwerk vereint Computer, die sich physisch nahe beieinander befinden (im selben Raum oder Gebäude).

2. Regionale Computernetzwerke (MAN – MetropolitanAreaNetwork) sind Netzwerke, die mehrere lokale Computernetzwerke verbinden, die sich innerhalb desselben Gebiets (Stadt, Region oder Region, zum Beispiel Fernost) befinden.

3. Wide Area Networks (WAN – WideAreaNetwork) sind Netzwerke, die viele lokale, regionale Netzwerke vereinen und

Computer einzelner Benutzer, die sich in beliebiger Entfernung voneinander befinden (Internet, FIDO).

Derzeit werden folgende Standards zum Aufbau lokaler Netzwerke verwendet:

Arcnet;(IEEE 802.4)

Token-Ring;(802.5)

Ethernet.(802.3)

Schauen wir uns jeden von ihnen genauer an.

Die IEEE 802.4 ARCNET-Technologie (oder ARCnet, vom englischen Attached Resource Computer NETwork) ist eine LAN-Technologie, deren Zweck dem Zweck von Ethernet oder Token Ring ähnelt. ARCNET war die erste Technologie zum Aufbau von Mikrocomputernetzwerken und erfreute sich in den 1980er Jahren großer Beliebtheit bei der Unternehmensautomatisierung. Entwickelt für die Organisation eines LAN in einer „Stern“-Netzwerktopologie.

Die Basis der Kommunikationsausrüstung ist:

schalten

Passiver/aktiver Hub

Switching-Geräte haben einen Vorteil, da sie die Bildung von Netzwerkdomänen ermöglichen. Aktive Hubs werden verwendet, wenn der Arbeitsplatz weit entfernt ist (sie stellen die Signalform wieder her und verstärken sie). Passiv – wenn klein. Das Netzwerk verwendet ein zugewiesenes Zugriffsprinzip für Workstations, das heißt, die Station, die den sogenannten Software-Token vom Server erhalten hat, hat das Recht zur Übertragung. Das heißt, es wird deterministischer Netzwerkverkehr implementiert.

Vorteile des Ansatzes:

Anmerkungen: Von Workstations gesendete Nachrichten bilden eine Warteschlange auf dem Server. Wenn die Warteschlangendienstzeit die maximale Paketzustellungszeit zwischen den beiden am weitesten entfernten Stationen erheblich (mehr als das Zweifache) überschreitet, wird davon ausgegangen, dass die Netzwerkkapazität ihre maximale Grenze erreicht hat. In diesem Fall ist ein weiterer Ausbau des Netzwerks nicht möglich und die Installation eines zweiten Servers erforderlich.



Technische Eigenschaften begrenzen:

Der Mindestabstand zwischen Arbeitsplätzen, die an dasselbe Kabel angeschlossen sind, beträgt 0,9 m.

Die maximale Netzlänge entlang der längsten Strecke beträgt 6 km.

Einschränkungen sind mit Hardwareverzögerungen bei der Informationsübertragung bei einer großen Anzahl von Schaltelementen verbunden.

Die maximale Entfernung zwischen dem Passiv-Hub und der Workstation beträgt 30 m.

Der maximale Abstand zwischen aktivem und passivem Hub beträgt 30 m.

Zwischen aktivem Hub und aktivem Hub - 600 m.

Vorteile:

Geringe Kosten für Netzwerkausrüstung und die Möglichkeit, erweiterte Netzwerke zu erstellen.

Mängel:

Niedrige Datenübertragungsgeschwindigkeit. Nach der Verbreitung von Ethernet als LAN-Technologie fand ARCNET Anwendung in eingebetteten Systemen.

Unterstützt die ARCNET-Technologie (insbesondere Verbreitung von Spezifikationen) gemeinnützige Organisation ARCNET Trade Association (ATA).

Technologie – Die ArcNET-Architektur wird durch zwei Haupttopologien repräsentiert: Bus und Stern. Das Übertragungsmedium ist ein RG-62-Koaxialkabel mit einem Wellenwiderstand von 93 Ohm, gecrimpt auf BNC-Stecker mit entsprechendem Anschlussdurchmesser (im Gegensatz zu 10Base-2-Steckern („dünnes“ Ethernet)).

Netzwerkgeräte bestehen aus Netzwerkadaptern und Hubs. Netzwerkadapter können für Bustopologie, für Sterntopologie und universell sein. Hubs können aktiv oder passiv sein. Passive Hubs werden verwendet, um Sternabschnitte des Netzwerks zu erstellen. Aktive Hubs können für Bus-, Stern- und gemischte Topologien verwendet werden. Die Ports für die Bustopologie sind physikalisch nicht kompatibel zu den Ports für die Sterntopologie, obwohl sie über den gleichen physikalischen Anschluss (BNC-Buchse) verfügen.

Bei einer Bustopologie werden Workstations und Server über T-Stecker (wie bei 10Base-2 („dünnes“ Ethernet)) miteinander verbunden, mit Netzwerkadaptern und Hubs verbunden und per Koaxialkabel verbunden. Die äußersten Punkte des Segments werden mit Spitzen mit einem Widerstand von 93 Ohm abgeschlossen. Die Anzahl der Geräte an einem Bus ist begrenzt. Der Mindestabstand zwischen den Anschlüssen beträgt 0,9 Meter und muss ein Vielfaches dieses Wertes sein. Um das Schneiden zu erleichtern, können Markierungen auf dem Kabel angebracht werden. Einzelne Busse können über Busknotenpunkte zusammengefasst werden.



Bei der Verwendung einer Sterntopologie werden aktive und passive Hubs verwendet. Der passive Hub ist ein Widerstandsteiler-Anpasser, der den Anschluss von vier Kabeln ermöglicht. Alle Kabel darin

In diesem Fall sind sie Punkt-zu-Punkt verbunden, ohne Busse zu bilden. Zwischen zwei aktiven Geräten sollten nicht mehr als zwei passive Hubs angeschlossen sein. Die Mindestlänge eines Netzwerkkabels beträgt 0,9 Meter und muss ein Vielfaches dieses Wertes sein. Es gibt eine Begrenzung der Kabellänge zwischen aktiven und passiven Ports, zwischen zwei passiven Ports und zwischen zwei aktiven Ports.

Bei einer gemischten Topologie kommen aktive Hubs zum Einsatz, die beide Verbindungsarten unterstützen.

Auf Netzwerkadaptern von Workstations und Servern wird über Jumper oder DIP-Schalter eine eindeutige Netzwerkadresse festgelegt, die Berechtigung zur Verwendung eines BIOS-Erweiterungschips, der das Remote-Booten der Workstation ermöglicht (kann ohne Festplatte sein), Verbindungstyp (Bus- oder Sterntopologie), Anschluss eines eingebauten Terminators (die letzten beiden Punkte sind optional). Die Anzahl der Arbeitsplätze ist auf 255 begrenzt (abhängig von der Breite des Netzwerkadressregisters). Wenn zwei Geräte die gleiche Netzwerkadresse haben, verlieren beide ihre Funktionalität, diese Kollision hat jedoch keinen Einfluss auf den Betrieb des Netzwerks als Ganzes.

In einer Bustopologie führt ein defektes Kabel oder ein defekter Abschlusswiderstand zur Funktionsunfähigkeit des Netzwerks für alle Geräte, die an das Segment angeschlossen sind, das dieses Kabel enthält (d. h. von Abschlusswiderstand zu Abschlusswiderstand). Bei einer Sterntopologie führt ein Bruch eines beliebigen Kabels zum Ausfall des Segments, das über dieses Kabel vom Dateiserver getrennt ist.

Die logische Architektur von ArcNET ist ein Token-Ring. Da diese Architektur grundsätzlich keine Kollisionen mit einer relativ großen Anzahl von Hosts zulässt (in der Praxis wurden 25 bis 30 Workstations getestet), fiel die Leistung des ArcNET-Netzwerks mit vier höher aus als 10Base-2 Mal geringere Geschwindigkeit in der Umgebung (2,5 gegenüber 10 Mbit/s).

Die 802.5 Token Ring-Technologie ist eine LAN-Ringtechnologie (Local Area Network) mit „Token Access“ – einem lokalen Netzwerkprotokoll, das sich auf der Datenverbindungsschicht (DLL) des OSI-Modells befindet. Es verwendet einen speziellen Drei-Byte-Rahmen, einen sogenannten Marker, der sich im Ring bewegt. Der Besitz eines Markers gibt dem Eigentümer das Recht, Informationen auf dem Medium zu übermitteln. Token-Ring-Netzwerkrahmen werden in einer Schleife übertragen. Stationen in einem lokalen Token-Ring-Netzwerk (LAN) sind logisch in einer Ringtopologie organisiert, wobei die Daten sequentiell von einer Ringstation zur anderen übertragen werden, wobei ein Kontrolltoken um den Kontrollzugriffsring zirkuliert. Dieser Token-Passing-Mechanismus wird von ARCNET, dem Token-Bus und FDDI gemeinsam genutzt und bietet theoretische Vorteile gegenüber stochastischem CSMA/CD-Ethernet.

Token-Passing Token-Ring und IEEE 802.5 sind Paradebeispiele für Token-Passing-Netzwerke. Token-Passing-Netzwerke bewegen einen kleinen Datenblock, ein sogenanntes Token, über das Netzwerk. Der Besitz dieses Tokens garantiert das Recht zur Übertragung. Wenn der Knoten, der das Token empfängt, keine Informationen zum Senden hat, leitet er das Token einfach an den nächsten Endpunkt weiter. Jede Station kann einen Marker für eine bestimmte maximale Zeit (Standard: 10 ms) halten.

Diese Technologie bietet eine Lösung für das Problem der Kollisionen, die beim Betrieb eines lokalen Netzwerks auftreten. In der Ethernet-Technologie kommt es zu solchen Kollisionen, wenn Informationen gleichzeitig von mehreren Workstations übertragen werden, die sich innerhalb desselben Segments befinden, also über einen gemeinsamen physikalischen Datenkanal.

Wenn die Station, die das Token besitzt, Informationen zum Übertragen hat, erfasst sie das Token, ändert ein Bit davon (was dazu führt, dass das Token zu einer Sequenz „Anfang des Datenblocks“ wird), vervollständigt es mit den Informationen, die es übertragen möchte, und sendet es diese Informationen an das Ringnetz der nächsten Station weiter. Wenn ein Informationsblock im Ring zirkuliert, gibt es kein Token im Netzwerk (es sei denn, der Ring bietet eine frühzeitige Token-Freigabe), sodass andere Stationen, die Informationen übertragen möchten, warten müssen. Daher kann es in Token-Ring-Netzwerken zu keinen Kollisionen kommen. Wenn eine frühzeitige Token-Freigabe gewährleistet ist, kann nach Abschluss der Übertragung des Datenblocks ein neuer Token freigegeben werden.

Der Informationsblock zirkuliert im Ring, bis er die vorgesehene Zielstation erreicht, die die Informationen zur weiteren Verarbeitung kopiert. Der Informationsblock zirkuliert weiterhin im Ring; es wird dauerhaft gelöscht, nachdem es die Station erreicht hat, die den Block gesendet hat. Die sendende Station kann den zurückgegebenen Block überprüfen, um sicherzustellen, dass er von der Zielstation angezeigt und dann kopiert wurde.

Anwendungsbereich Im Gegensatz zu CSMA/CD-Netzwerken (z. B. Ethernet) sind Token-Passing-Netzwerke deterministische Netzwerke. Damit ist es möglich, die maximale Zeit zu berechnen, die vergeht, bis eine Endstation senden kann. Diese Eigenschaft sowie einige Zuverlässigkeitsmerkmale machen das Token-Ring-Netzwerk ideal für Anwendungen, bei denen die Latenz vorhersehbar sein muss und die Netzwerkstabilität wichtig ist. Beispiele für solche Anwendungen sind das Umfeld automatisierter Stationen in Fabriken.

Sie wird als kostengünstigere Technologie eingesetzt und hat überall dort Verbreitung gefunden, wo es kritische Anwendungen gibt, bei denen es nicht so sehr auf die Geschwindigkeit, sondern vielmehr auf die zuverlässige Bereitstellung von Informationen ankommt. Derzeit steht Ethernet dem Token Ring in puncto Zuverlässigkeit in nichts nach und weist eine deutlich höhere Leistung auf.

Modifikationen von Token Ring Es gibt 2 Modifikationen für Übertragungsgeschwindigkeiten: 4 Mbit/s und 16 Mbit/s. Token Ring verwendet 16 Mbit/s

Technologie zur frühen Markerfreisetzung. Der Kern dieser Technologie besteht darin, dass eine Station, die einen Token „erfasst“ hat, nach Abschluss der Datenübertragung einen kostenlosen Token generiert und ihn in das Netzwerk einführt. Versuche, die 100-Mbit/s-Technologie einzuführen, waren kommerziell erfolglos. Die Token-Ring-Technologie wird derzeit nicht unterstützt.

Technologie 802.3 Ethernet aus dem Englischen. Ether „Ether“) ist eine Pakettechnologie zur Übertragung von Daten vor allem in lokalen Computernetzwerken.

Ethernet-Standards definieren Kabelverbindungen und elektrische Signale auf der physikalischen Ebene, Rahmenformate und Medienzugriffskontrollprotokolle auf der Datenverbindungsebene des OSI-Modells. Ethernet wird hauptsächlich durch die Standards der IEEE-Gruppe 802.3 beschrieben. Ethernet wurde Mitte der 1990er Jahre zur am weitesten verbreiteten LAN-Technologie und verdrängte ältere Technologien wie Arcnet, FDDI und Token Ring.

Bei der Erstellung eines lokalen Netzwerks müssen Sie Folgendes berücksichtigen:

* Erstellen eines lokalen Netzwerks und Einrichten von Geräten für den Zugang zum Internet;

* Die Auswahl der Ausrüstung sollte auf technischen Merkmalen basieren, die den Anforderungen an die Datenübertragungsgeschwindigkeit gerecht werden.

* Das Gerät muss sicher und vor Stromschlägen für Personen geschützt sein.

* Jeder Arbeitsplatz muss über ein Netzwerkkabel verfügen, um eine Verbindung zum Netzwerk herzustellen.

* Mögliche Verfügbarkeit von WLAN im gesamten Büro;

* Der Standort der Arbeitsplätze muss den Anforderungen der Geräteplatzierungsnormen in Bildungseinrichtungen entsprechen;

* Die Kosten für den Aufbau eines lokalen Netzwerks müssen wirtschaftlich gerechtfertigt sein;

* Zuverlässigkeit des lokalen Netzwerks.

EINFÜHRUNG……………………………………………………………………………..3

1 ETHERNET UND FAST ETHERNET-NETZWERKE……………………………5

2 TOKEN-RING-NETZWERK…………………………………………………….9

3 ARCNET-NETZWERK………………………………………………………….14

4 FDDI-NETZWERK………………………………………………………………………………18

5 100VG-AnyLAN-NETZWERK…………………………………………………………….23

6 ULTRA-SPEED-NETZWERKE…………………………………………………….25

7 DRAHTLOSE NETZWERKE……………………………………………………….31

FAZIT…………………………………………………………….36

LISTE DER VERWENDETEN QUELLEN………………………39


EINFÜHRUNG

Seit dem Aufkommen der ersten lokalen Netzwerke wurden mehrere hundert verschiedene Netzwerktechnologien entwickelt, doch nur wenige haben eine nennenswerte Verbreitung erlangt. Dies ist vor allem auf den hohen Standardisierungsgrad der Vernetzungsprinzipien und deren Unterstützung durch namhafte Unternehmen zurückzuführen. Standardnetzwerke weisen jedoch nicht immer rekordverdächtige Eigenschaften auf und bieten die optimalsten Austauschmodi. Doch die großen Produktionsmengen ihrer Anlagen und die damit einhergehenden geringen Kosten verschaffen ihnen enorme Vorteile. Wichtig ist auch, dass sich auch Softwarehersteller vorrangig auf die gängigsten Netzwerke konzentrieren. Daher hat ein Benutzer, der sich für Standardnetzwerke entscheidet, die volle Garantie für die Kompatibilität von Geräten und Programmen.

Der Zweck dieser Kursarbeit besteht darin, bestehende lokale Netzwerktechnologien, ihre Eigenschaften und Vor- oder Nachteile gegenübereinander zu betrachten.

Ich habe mich für das Thema lokale Netzwerktechnologien entschieden, weil dieses Thema meiner Meinung nach gerade jetzt besonders relevant ist, wo Mobilität, Geschwindigkeit und Komfort auf der ganzen Welt geschätzt werden und dabei möglichst wenig Zeit verschwendet wird.

Derzeit ist die Reduzierung der Anzahl der verwendeten Netzwerktypen zu einem Trend geworden. Tatsache ist, dass die Erhöhung der Übertragungsgeschwindigkeit in lokalen Netzwerken auf 100 oder sogar 1000 Mbit/s den Einsatz modernster Technologien und kostspielige wissenschaftliche Forschung erfordert. Natürlich können sich das nur die größten Unternehmen leisten, die ihre Standardnetzwerke und ihre fortschrittlicheren Varianten unterstützen. Darüber hinaus haben viele Verbraucher bereits ein Netzwerk installiert und möchten Netzwerkgeräte nicht sofort und vollständig ersetzen. Es ist unwahrscheinlich, dass in naher Zukunft grundlegend neue Standards verabschiedet werden.

Der Markt bietet standardmäßige lokale Netzwerke aller möglichen Topologien an, sodass Benutzer die Wahl haben. Standardnetze bieten ein breites Spektrum akzeptabler Netzgrößen, Teilnehmerzahlen und nicht zuletzt der Gerätepreise. Aber eine Wahl zu treffen ist immer noch nicht einfach. Im Gegensatz zu Software, die nicht schwer zu ersetzen ist, hält Hardware in der Regel viele Jahre. Ihr Austausch führt nicht nur zu erheblichen Kosten und der Notwendigkeit, Kabel neu zu verkabeln, sondern auch zu einer Überarbeitung des Computersystems der Organisation. Dabei sind Fehler bei der Geräteauswahl in der Regel deutlich teurer als Fehler bei der Softwareauswahl.

1 ETHERNET- UND FAST-ETHERNET-NETZWERKE

Das am weitesten verbreitete Standardnetzwerk ist das Ethernet-Netzwerk. Es erschien erstmals 1972 (entwickelt von der berühmten Firma Xerox). Das Netzwerk erwies sich als recht erfolgreich und wurde daher 1980 von so großen Unternehmen wie DEC und Intel unterstützt. Durch ihre Bemühungen wurde das Ethernet-Netzwerk 1985 zu einem internationalen Standard; es wurde von den größten internationalen Normungsorganisationen übernommen: IEEE Committee 802 (Institute of Electrical and Electronic Engineers) und ECMA (European Computer Manufacturers Association).

Der Standard heißt IEEE 802.3 (auf Englisch gelesen als „eight oh two dot three“). Es definiert den Mehrfachzugriff auf einen Monobus-Kanal mit Kollisionserkennung und Übertragungssteuerung. Einige andere Netzwerke erfüllten diesen Standard ebenfalls, da der Detaillierungsgrad gering ist. Infolgedessen waren IEEE 802.3-Netzwerke sowohl im Design als auch in den elektrischen Eigenschaften häufig nicht miteinander kompatibel. In letzter Zeit gilt jedoch der IEEE 802.3-Standard als Standard für das Ethernet-Netzwerk.

Hauptmerkmale des ursprünglichen IEEE 802.3-Standards:

  • Topologie – Bus;
  • Übertragungsmedium – Koaxialkabel;
  • Übertragungsgeschwindigkeit – 10 Mbit/s;
  • maximale Netzwerklänge – 5 km;
  • maximale Abonnentenzahl – bis zu 1024;
  • Netzwerksegmentlänge – bis zu 500 m;
  • Anzahl der Abonnenten in einem Segment – ​​bis zu 100;
  • Zugriffsmethode – CSMA/CD;
  • Schmalbandige Übertragung, also ohne Modulation (Monokanal).

Streng genommen gibt es geringfügige Unterschiede zwischen den Standards IEEE 802.3 und Ethernet, die jedoch normalerweise ignoriert werden.

Das Ethernet-Netzwerk ist mittlerweile das beliebteste der Welt (mehr als 90 % des Marktes) und wird dies voraussichtlich auch in den kommenden Jahren bleiben. Dies wurde erheblich dadurch erleichtert, dass die Eigenschaften, Parameter und Protokolle des Netzwerks von Anfang an offen waren, wodurch eine Vielzahl von Herstellern auf der ganzen Welt begannen, vollständig miteinander kompatible Ethernet-Geräte zu produzieren .

Das klassische Ethernet-Netzwerk verwendete zwei Arten von 50-Ohm-Koaxialkabeln (dick und dünn). In letzter Zeit (seit Anfang der 90er Jahre) ist die am weitesten verbreitete Version von Ethernet jedoch die Verwendung von Twisted-Pair-Kabeln als Übertragungsmedium. Auch für den Einsatz in Glasfaserkabelnetzen wurde ein Standard definiert. Um diesen Änderungen Rechnung zu tragen, wurden am ursprünglichen IEEE 802.3-Standard Ergänzungen vorgenommen. Im Jahr 1995 erschien ein zusätzlicher Standard für eine schnellere Version von Ethernet mit einer Geschwindigkeit von 100 Mbit/s (der sogenannte Fast Ethernet-Standard IEEE 802.3u), der Twisted-Pair- oder Glasfaserkabel als Übertragungsmedium verwendet. Im Jahr 1997 erschien auch eine Version mit einer Geschwindigkeit von 1000 Mbit/s (Gigabit Ethernet, IEEE 802.3z-Standard).

Neben der Standard-Bustopologie werden zunehmend auch passive Stern- und passive Baumtopologien eingesetzt.


Klassische Ethernet-Netzwerktopologie

Die maximale Kabellänge des gesamten Netzwerks (maximaler Signalweg) kann theoretisch 6,5 Kilometer erreichen, überschreitet jedoch praktisch 3,5 Kilometer nicht.

Ein Fast-Ethernet-Netzwerk verfügt über keine physische Bustopologie; es wird lediglich ein passiver Stern oder ein passiver Baum verwendet. Darüber hinaus gelten bei Fast Ethernet deutlich höhere Anforderungen an die maximale Netzwerklänge. Denn bei einer zehnfachen Steigerung der Übertragungsgeschwindigkeit und Beibehaltung des Paketformats wird dessen Mindestlänge zehnmal kürzer. Dadurch wird der zulässige Wert der doppelten Signalübertragungszeit durch das Netzwerk um das Zehnfache reduziert (5,12 μs gegenüber 51,2 μs bei Ethernet).

Der Standard-Manchester-Code wird zur Übertragung von Informationen in einem Ethernet-Netzwerk verwendet.

Der Zugriff auf das Ethernet-Netzwerk erfolgt über das zufällige CSMA/CD-Verfahren, wodurch die Gleichheit der Teilnehmer gewährleistet ist. Das Netzwerk verwendet Pakete variabler Länge mit Struktur.

Für ein Ethernet-Netzwerk mit einer Geschwindigkeit von 10 Mbit/s definiert der Standard vier Haupttypen von Netzwerksegmenten, die sich auf verschiedene Informationsübertragungsmedien konzentrieren:

  • 10BASE5 (dickes Koaxialkabel);
  • 10BASE2 (dünnes Koaxialkabel);
  • 10BASE-T (Twisted Pair);
  • 10BASE-FL (Glasfaserkabel).

Der Name des Segments besteht aus drei Elementen: Die Zahl „10“ bedeutet eine Übertragungsgeschwindigkeit von 10 Mbit/s, das Wort BASE bedeutet Übertragung im Basisfrequenzband (also ohne Modulation eines Hochfrequenzsignals) und das letzte Element ist die zulässige Länge des Segments: „5“ – 500 Meter, „2“ – 200 Meter (genauer 185 Meter) oder Art der Kommunikationsleitung: „T“ – Twisted Pair (vom englischen „twisted-pair“ ), „F“ – Glasfaserkabel (vom englischen „fiber optic“).

Ebenso definiert der Standard für ein Ethernet-Netzwerk mit einer Geschwindigkeit von 100 Mbit/s (Fast Ethernet) drei Arten von Segmenten, die sich in der Art der Übertragungsmedien unterscheiden:

  • 100BASE-T4 (vierfach verdrilltes Paar);
  • 100BASE-TX (Dual-Twisted-Pair);
  • 100BASE-FX (Glasfaserkabel).

Dabei bedeutet die Zahl „100“ eine Übertragungsgeschwindigkeit von 100 Mbit/s, der Buchstabe „T“ bedeutet Twisted Pair und der Buchstabe „F“ bedeutet Glasfaserkabel. Die Typen 100BASE-TX und 100BASE-FX werden manchmal unter dem Namen 100BASE-X zusammengefasst, und 100BASE-T4 und 100BASE-TX werden als 100BASE-T bezeichnet.

Die Entwicklung der Ethernet-Technologie entfernt sich immer weiter vom ursprünglichen Standard. Durch den Einsatz neuer Übertragungsmedien und Switches ist eine deutliche Vergrößerung des Netzwerks möglich. Die Eliminierung des Manchester-Codes (in Fast-Ethernet- und Gigabit-Ethernet-Netzwerken) sorgt für höhere Datenübertragungsgeschwindigkeiten und geringere Kabelanforderungen. Der Verzicht auf die CSMA/CD-Steuerungsmethode (mit Vollduplex-Austauschmodus) ermöglicht eine drastische Steigerung der Betriebseffizienz und die Beseitigung von Beschränkungen der Netzwerklänge. Alle neuen Netzwerkarten werden jedoch auch als Ethernet-Netzwerk bezeichnet.

2 TOKEN-RING-NETZWERK

Das Token-Ring-Netzwerk wurde 1985 von IBM vorgeschlagen (die erste Version erschien 1980). Es sollte alle von IBM hergestellten Computertypen vernetzen. Allein die Tatsache, dass es von IBM, dem größten Hersteller von Computerausrüstung, unterstützt wird, legt nahe, dass ihm besondere Aufmerksamkeit gewidmet werden muss. Aber ebenso wichtig ist, dass Token-Ring derzeit der internationale Standard IEEE 802.5 ist (obwohl es geringfügige Unterschiede zwischen Token-Ring und IEEE 802.5 gibt). Damit steht dieses Netzwerk auf dem gleichen Status wie Ethernet.

Token-Ring wurde als zuverlässige Alternative zu Ethernet entwickelt. Und obwohl Ethernet inzwischen alle anderen Netzwerke ersetzt, kann Token-Ring nicht als hoffnungslos veraltet angesehen werden. Mehr als 10 Millionen Computer auf der ganzen Welt sind über dieses Netzwerk verbunden.

IBM hat alles getan, um eine möglichst weite Verbreitung seines Netzwerks zu gewährleisten: Es wurde eine ausführliche Dokumentation bis hin zu den Schaltplänen der Adapter veröffentlicht. Infolgedessen begannen viele Unternehmen, beispielsweise 3COM, Novell, Western Digital, Proteon und andere, mit der Produktion von Adaptern. Das NetBIOS-Konzept wurde übrigens speziell für dieses Netzwerk sowie für ein anderes Netzwerk, das IBM PC Network, entwickelt. Wenn im zuvor erstellten PC-Netzwerk NetBIOS-Programme im integrierten Nur-Lese-Speicher des Adapters gespeichert waren, wurde im Token-Ring-Netzwerk bereits ein Programm verwendet, das NetBIOS emuliert. Dadurch konnte flexibler auf Hardware-Features reagiert werden und die Kompatibilität zu übergeordneten Programmen gewahrt bleiben.