ATM – Die Grundlagen

Hinrich Boog

Enver Haase

Die Entstehungsgeschichte von ATM; ATM, "wie man es kennt"

Die Entwicklung von ATM geht einher mit der Entwicklung von Breitband-ISDN, das die vorhandenen Dienste wie Telefonie und Kabelfernsehen integrieren soll. Üblicherweise sehen die Empfehlungen zu ATM und B-ISDN als Übertragungsmedium Glasfaserkabel vor, und zwar vornehmlich nach SDH, einer CCITT-Weiterentwicklung von AT&T's SONET-Standard. Daher stammen die heute üblichen Begriffe "155-Mbps-ATM" und "622-Mbps-ATM"; zum einen sind die 155Mbps in etwa das, was man braucht, um HDTV-Fernsehen zu übertragen (eine Anforderung des B-ISDN, das über ATM laufen soll), zum anderen ist 155Mbps die Geschwindigkeit des existierenden SDH mit Hierarchiestufe "STM-1"; 622Mbps das vierfache davon, die Geschwindigkeit der zweiten SDH-Hierarchiestufe "STM-4".

Allerdings ist es bei Entfernungen kleiner als 100m auch möglich, Koaxialkabel oder Twisted Pair Kabel der Kategorie 5 für ATM-Übertragungen zu benutzen. Die Verkabelung in ATM-Netzen stellt einen der größten Unterschiede zu herkömmlichen Netzen dar, denn bei ATM gibt es nur Punkt-zu-Punkt Verbindungen; daß heißt, entweder verläuft eine Leitung von einem Computer zu einem ATM-Switch oder zwischen zwei Switches. Hieran kann man schon sehen, daß bei der Nutzung von ATM zwangsläufig Probleme auftauchen müssen, wenn man mit existierenden Computernetzwerken zusammenarbeitet, denn Dinge wie das klassische "Broadcasting" sind hier alleine von der physischen Struktur her zunächst nicht möglich.

 

Die physische Schicht

Bei der physischen Schicht (physical layer) im ATM Modell handelt es sich eigentlich um zwei mehr oder weniger separate Schichten. Zum einen gibt es die Schicht zur Übertragungsanpassung (Transmission Convergence Layer, TCL), zum anderen die vom physischen Medium abhängige (physical medium dependent sublayer), die die direkte Schnittstelle zum Übertragungsmedium darstellt.

 

Der englische Name der letzten, "physical medium dependent", spricht für sich selbst, denn tatsächlich ist die Hardware auf dieser Schicht vom verwendeten Kabeltyp sowie von der Übertragungsgeschwindigkeit abhängig. Die Aufgabe, die dieser Schicht zukommt, besteht in der Einspeisung von Daten in das Kabel und der Entnahme von ankommenden Daten vom Kabel. Außerdem hat sie Zellkodierungsfunktionalität.

 

Komplizierter werden die Aufgaben schon für die Schicht zur Übertragungsanpassung (Transmission Convergence Layer, TCL).

Sie bekommt ihre Daten von der ATM - Schicht in Form von Zellen mit jeweils einem Header von 5 Bytes. Die ersten vier Bytes sind nach einem bestimmten Muster angeordnet und lediglich 8 Bits bilden die Prüfsumme, die als HEC (Header Error Control) bezeichnet wird.

 

 

Dieses System mag seltsam erscheinen, da nur die Header und nicht die gesamten Daten auf Fehler überprüft werden, aber dadurch wird viel Aufwand erspart und für viele potentiellen ATM-Anwendungen spielt es keine große Rolle, ob einige Zellen verlorengehen. Außerdem kann man von einer sehr geringen Menge an Übertragungsfehlern ausgehen, was diese Technik rechtfertigt. Desweiteren bleibt es den oberen Schichten überlassen, weitere Fehlerkontrollen auf die Nutzdaten durchzuführen.

Eine weitere Aufgabe ist die Generierung von Dummy - Zellen, die auf synchronen Übertragungsmedien eingefügt werden. Da hier immer im gleichen Zeittakt gesendet wird, sorgt die TCL - Schicht dafür, daß immer Zellen zum Senden vorhanden sind, auch wenn sie keine Daten enthalten. Somit gibt die TCL - Schicht einen durchgehenden Bitstrom an das Übertragungsmedium ab und empfängt ebenso einen durchgehenden Bitstrom von dort, den sie wieder sinnvoll aufteilen muß.

Neben den oben erwähnten Dummy-Zellen gibt es auch noch andere datenlose Zellen, die in ihrer Originalbezeichnung als OAM - Zellen (Operation and Maintenance- Betrieb und Wartung) behandelt werden. Sie werden benutzt, um zwischen den Switches Informationen auszutauschen. Die oben erwähnten Dummy – Zellen werden auch benutzt, um Geschwindigkeiten anzugleichen. Beispielsweise stimmt die Übertragungsrate von 155.52 Mbps (SDH) nur ungefähr mit der von SONET überein. Um die genaue Übereinstimmung zu erlangen, wird immer als 27. Zelle eine datenlose Zelle eingefügt und somit wird die Geschwindigkeit gedrosselt auf 149.76 Mbps, was genau der SONET - Geschwindigkeit entspricht. Beim Empfang werden die Dummy-Zellen wieder von der TCL-Schicht entfernt.

Die schwierigste Aufgabe für die TCL-Schicht ist das Erkennen der Rahmen in einem durchgehenden Datenstrom. Dies wird realisiert, indem die Schicht immer 40 Bits am Stück durch ein Register schiebt. Die rechten 8 Bits werden darauf überprüft, ob sie eine korrekte Prüfsumme für die restlichen 32 darstellen. Wenn ja, wird 53 Bytes weiter das gleiche gemacht und erst, wenn eine bestimmte Anzahl an gültigen Headern gefunden worden ist, geht die TCL-Schicht davon aus, das es sich um die korrekten Header handelt, entfernt diese und gibt den Rest an die ATM Schicht weiter.

Switching

Das Switching ist eines der Hauptvorteile von ATM-Netzen, da dies sehr schnell geschieht. Switches haben bis zu 1.024 Eingangsleitungen, auf denen die Daten mit etwa 150 Mbps ankommen. Das bedeutet bis zu 360.000 Rahmen pro Sekunde, die asynchron die Switches erreichen. Die ATM Vermittler können diese Datenmengen nur bewältigen, da die ATM Rahmen eine feste Länge von 53 Byte haben. Die Daten werden zunächst am Eingang durch einen Mastertakt synchronisiert, d.h. bei jedem Taktzyklus darf ein Rahmen eintreten. Switches in ATM Netzen fungieren als Pipeline, es dauert mehrere Taktzyklen, bis die Zellen den Vermittler wieder verlassen.

Probleme treten nun auf, wenn mehrere Eingangsleitungen auf eine Ausgangsleitung umgeleitet werden sollen. Es ist offensichtlich, daß mehrere Rahmen nicht im gleichen Taktzyklus den Switch auf einer Leitung verlassen können, also wurden Methoden für Warteschlangen gebildet. Eine Methode ist die, ankommende Rahmen bereits auf der Eingangsleitung zu blockieren, wenn die Ausgangsleitung schon anderweitig blockiert ist. Somit können die Daten je nach freien Kapazitäten durch den Switch geschleust werden. Ein entscheidender Nachteil ist hier aber, daß, wenn Rahmen auf der Eingangsleitung blockiert werden, nachfolgenden Zellen das Eintreten in den Vermittler verwehrt wird, obwohl diese eventuell auf einer anderen Leitung austreten sollen.

Die zweite Möglichkeit ist, an den Ausgangsleitungen Warteschlangen einzurichten. Hier werden dann die Rahmen nach Durchlaufen des Switches eingereiht und nach jeder austretenden Zelle wird die nächste auf die Ausgangsleitung gesetzt. Dieses Verfahren hat sich als das geschicktere von beiden bewährt und es gibt vielfältige Geräte, die diese Technik anwenden.

Ein an sich intelligenter Vermittler ist der sogenannte Knockout - Vermittler. Er verfügt über n Eingangsleitungen und n Ausgangsleitungen. Jeder Eingang hat hier einen Kreuzungspunkt mit einem Ausgang. Die Rahmen werden so entsprechend ihres Zieles auf dem entsprechendem Kreuzungspunkt umgeleitet. An der Ausgangsleitung befindet sich die oben erwähnte Warteschlange, d.h. eigentlich handelt es sich um mehrere Warteschlangen, da ja im ungünstigsten Fall 1024 Rahmen in einem Taktzyklus auf einen Ausgang gelegt werden sollen. Es ist unmöglich, diese Menge allein schon in die Warteschlange zu stellen, deshalb benutzt man mehrere Warteschlangen pro Ausgang und einen sogenannten Shifter, der die Aufteilung in einzelne Warteschlangen übernimmt. Beim Knockout Switch gibt es allerdings einen entscheidenden Nachteil: Die Zahl der Knotenpunkte nimmt bei n Eingängen und n Ausgängen mit zu.

 

Auch hierfür existiert eine Lösung, nämlich der Banyan – Switch. Dieser Vermittler verfügt über 3 sogenannte Phasen: Vermittlungselemente, die jeweils zwei Ein- und Ausgänge besitzen. Anhand ihrer Adressierung werden die Rahmen an den oberen oder unteren Ausgang des Vermittlungselementes weitergeleitet. Doch auch bei Banyan–Switches treten Probleme auf, denn wenn zwei Rahmen im gleichen Takt das gleiche Element über denselben Ausgang verlassen wollen, treten Kollisionen auf. Die Datenströme werden unterschiedlich gut je nach Ein- und Ausgang vermittelt, was Rahmen mit bestimmten Pfaden benachteiligt. Eine Erweiterung des Banyan-Switch schafft Abhilfe, nämlich den zusätzlichen Einsatz eines Batcher–Vermittlers. Dieser sortiert eingehende Datenströme nach den Angaben über ihre Austrittsleitungen und zwar nicht nur nach dem ersten Bit, sondern numerisch. Alle höherwertig adressierte Rahmen werden in eine Richtung gelenkt, alle niedriger adressierten in die andere Richtung, so daß die Zellen beim Austritt geordnet sind.

Diese werden nun gemischt und in den Banyan–Switch geleitet, daher der Name Batcher–Banyan–Switch. Allerdings gibt es auch hier Problem, wenn man Multicasting betreibt. Deshalb enthält auch dieser Vermittler einen Puffer an den Ausgängen.

Das ATM Adaptation Layer AAL

Die ATM-Adaptionsschicht (ATM Adaptation Layer) enthält vor allem die Maßnahmen zur Unterstützung unterschiedlicher Telekommunikationsdienste in einem ATM-Netz. Entsprechend der möglichen Dienstklassen und ihrer Merkmale (Synchronisation zwischen den Endeinrichtungen erforderlich oder nicht, Bitrate konstant oder Variabel, verbindungslose oder verbindungsorientierte Kommunikation) lassen sich wenigstens vier Diensttypen unterscheiden, man nennt sie Typ 1 (verbindungsorientiert, konstante Bitrate, Synchronisation erforderlich), Typ 2 (ebenso, aber Bitrate variabel), Typ 3 / 4 und Typ 5 (die letzteren beiden benötigen keine Synchronisation, die Bitrate ist variabel, die Kommunikationsart ist nicht festgelegt).

Das ATM Adaptation Layer gliedert sich nunmehr auf in Adaptation Layers für die verschiedenen Diensttypen.

Insbesondere Sprach- und Videokommunikation profitieren von den AALs 1 und 2, über ATM vernetzte oder durch ATM emulierte LANs nutzen meist AAL 3 / 4 und/oder AAL 5. Allgemein gliedert sich ein AAL in drei Unterschichten; auf jeden Fall zuunterst in Segmentation And Reassembly (SAR), eine Stufe höher das Common Part Convergence Sublayer und - eventuell, es existiert nur bei Bedarf - zuoberst das Service Specific Convergence Sublayer. Die beiden unteren Sublayer werden auch unter dem Namen "Common Part AAL" zusammengefaßt.

Die SCSS ist nur dann notwendig, wenn die AAL-Schicht eine verbindungsorientierte Kommunikation gewährleisten soll. Es muß in diesem Fall innerhalb der SCSS ein verbindungsorientiertes Protokoll realisiert werden. Laut [Badach] existierten noch 1995 bislang keine Festlegungen hinsichtlich des Protokolls.

Im Common Part Convergence Sublayer werden die zu übertragenden Datenblöcke (egal, ob nun für verbindungsorientierte oder verbindungslose Kommunikation) in Protokolleinheiten (sogenannte CPCS-PDUs) eingebettet. Die so entstandenen Einheiten werden dann segmentiert und als Nutzlast in SAR-PDUs eingebettet; also in Protokolleinheiten der Segmentation And Reassembly-Schicht. Diese Segmente werden mit einem SAR-Header und einem SAR-Trailer zu einem SAR-PDU ergänzt. Meist sind diese Segmente gleich lang, bei AAL 3 / 4 bis zu 44 Bytes. SAR-Trailer und -Header benötigen zusammen weitere 4 Bytes; diese 48 Bytes sind es, die dann an die ATM-Schicht weitergereicht werden, wo sie dann um weitere 5 Headerbytes zu den berühmten "53-Byte-ATM-Zellen" verlängert werden. AAL 5 ist sehr ähnlich wie AAL 3 / 4 aufgebaut; doch es ist simpler und unterstützt kein Multiplexing der ATM-Verbindung auf der AAL-Ebene. Es arbeitet dafür aber effizienter; und da über der AAL-Schicht liegende Dienste wie IP oder LAN-Emulation meist eh schon Multiplexing-Funktionalität aufweisen, ist diese "einfache" AAL-Variante (passend zum "einfachsten" ATM-Diensttyp) die zugleich heute wohl wichtigste, wenn es um die Integration von LAN und ATM geht.

 

 

 

Die AALs 1 und 2 sind ebenfalls sehr einfach gehalten; beispielsweise werden dort leere Zellen erzeugt, um einen kontinuierlichen Datenstrom zu gewährleisten, falls Zellen verlorengegangen sind. Das wird dann auf Kosten der Bitreinheit gewonnen, was aber für Audio- und Videoübertragungen (und das sind die Standardanwendungen für die Diensttypen 1 und 2) zumeist ausreicht.

"Signalling", Kontrolle der Verbindungsaufbauten und –abbauten

In ATM-Netzen werden bekanntlich grundsätzlich Ende-zu-Ende-Verbindungen aufgebaut. Das setzt voraus, daß die nacheinander auf dem Weg von einem Ende zum anderen durchlaufenen ATM-Knoten mit Steuerinformationen zum Aufbau der Verbindung versorgt werden müssen. Der erforderliche Steuerinformationsfluß wird als ATM-Signalisierung bezeichnet.

Diese Signalisierung ist der Signalisierung des Schmalband-ISDN ähnlich; es werden spezielle Signalisierungsverbindungen verwendet, die parallel zu den ATM-Verbindungen existieren. Wie eingangs erwähnt, existieren Verbindungen zwischen ATM-Geräten entweder derart, daß ein Endgerät mit einem Gerät im ATM-Netz verbunden wird oder aber es handelt sich nicht um ein Endgerät, sondern ein Gerät, das zwei oder mehrere ATM-Verbindungen hat. Entsprechend kann die Signalisierung in zwei Bereiche unterteilt werden:

Die UNI-Signalisierung ist für alle ATM-Dienste und ATM-Anschlußarten einheitlich spezifiziert; es existieren Q.2931 von ITU-T (eine Weiterentwicklung des vom S-ISDN bekannten D-Kanal-Protokolls Q.931, auch "EURO-D-Kanal", "DSS1" genannt) und ATM User-Network Interface Specification Version 3.0 und 3.1 von ATM-Forum. Im B-ISDN wird Q.2931 verwendet; die Variante von ATM Forum ist für private ATM-Netze konzipiert. Zentrale Aufgabe der UNI-Signalisierung ist der Auf- und Abbau von ATM-Verbindungen, was die Notwendigkeit der Standardisierung einsichtig macht.

NNI ist dagegen abhängig von den jeweiligen Diensten, die NNI benutzen; also jenen Schichten über dem AAL, und zwar genau genommen über dem Teil des AAL, der für die Signalisierung zuständig ist ("SIG-AAL" genannt). Am besten für Signalisierungszwecke eignet sich ein AAL Typ 5.

Routing in ATM – Netzen

Um die Bedeutung von ATM–Netzen richtig einschätzen zu können, muß man die Alternativen betrachten. Internet-Datenverkehr beispielsweise basiert auf Datagrammen und so wird jedes Paket, das einen Router erreicht, nach einer Routingtabelle und eventuell abhängig vom Datenverkehr auf einem individuellen Weg ans Ziel geleitet, was u.U. einen enormen Aufwand bedeutet.

ATM verfügt über permanent vermittelte virtuelle Verbindungen, die wie Standleitungen anzusehen sind. Das bedeutet, daß die Bandbreite ständig zur Verfügung gehalten wird.

Beim Aufbau einer virtuellen Verbindung wird in der Regel eine Anfrage an den nächsten Vermittler geschickt, die dieser weiterleitet und eine Bestätigung an den Sender zurückschickt. Erst wenn die Anfrage den Endpunkt erreicht hat, wird praktisch von hinten die Verbindung aufgebaut. Genau wie bei der Anfrage wird auch für jeden Teilbereich eine Bestätigung zurückgeschickt. Steht eine Verbindung erst einmal, wird ohne Bestätigungen gesendet und man nimmt einfach das geringe Risiko von Datenverlust in Kauf.

Bei ATM-Rahmen steht im ersten Teil eine Adresse, die den Empfänger lokalisiert. Jeder Router verfügt über eine Tabelle an seinen Eingängen, in die beim Aufbau von virtuellen Kanälen die Ausgangsleitung der Rahmen eingetragen wird. Wenn nun neue Rahmen für die gleiche virtuelle Verbindung eintreffen, werden sie dem ersten Rahmen hinterher geleitet. Somit laufen alle Rahmen über den gleichen Weg.

Braucht man nun für seine Anwendungen mehr Bandbreite, werden virtuelle Kanäle zu sogenannten virtuellen Pfaden zusammengefaßt. Das bedeutet, daß für die zusätzliche Bandbreite keine Vermittlung mehr stattfinden muß, sondern statt dessen orientieren sich die Rahmen an der existierenden Leitung. Man spricht hier von Kanalbündelung.

 

Ein Kabel mit vielen Aderpaaren entspricht dieser Technik sehr anschaulich. Der Vorteil ist hierbei, daß bei einem Router dann alle virtuellen Kanäle als ein Bündel vermittelt werden, das maximal 65.535 Kanäle enthält.

 

Die Reservierung sowie Bereitstellung von Kanälen und Pfaden muß zwischen Netzbetreiber und Kunden vertraglich geregelt sein. So muß z.B. der Kunde seine durchschnittliche Datenrate und seine Übertragungsgeschwindigkeit angeben, im Gegenzug der Netzbetreiber die minimal garantierte Bandbreite.

Integration von ATM in Bestehendes: LAN Emulation, Virtual LANs, IP over ATM...

Wie bereits erwähnt, ist ATM verbindungsorientiert. Daraus ergeben sich nachteilige Konsequenzen, wenn man betrachtet, daß bereits vorhandene Protokolle von verbindungsloser Kommunikation regen Gebrauch machen. Eine Idee für die Umgehung dieser Auflage vom ATM wäre, einen "Connectionless Server" zu verwenden, an den alle verbindungslosen Datagramme gesandt werden und der dann die Empfängeradresse(n) analysiert und die entsprechenden Verbindungen aufbaut. Das hat den großen Vorteil, daß Endsysteme dann jeweils nur eine Verbindung offenhalten müßten und ohne Signalisierung auskämen, wenn sie ihre Datagramme verschicken. In lokalen Netzen, in denen Verbindungsauf- und abbauten schneller sind als in Weitverkehrsnetzen, existieren jedoch effizientere Varianten.

Zunächst betrachten wir die bekannte Internet-Protokoll-Suite, und die entstehenden Probleme, wenn IP über ATM betrieben werden soll. Als erster Punkt fällt das Problem der Abbildung von IP- auf ATM-Adressen und Kanalnummern auf. Haben wir es mit permanenten Verbindungen zu tun, so wäre die Abbildung statisch; der Normalfall wäre aber der dynamische. Lösen läßt sich dieses Problem, wenn das Problem der IP-Adressauflösung (ARP) gelöst ist; da ARP aber normalerweise Broadcasting verwendet, muß hier anders vorgegangen werden, zum Beispiel nach RFC 1577 (s.u.). Hier muß dann wieder zwischen dem statischen (PVC – Permanent Virtual Connection) und dem dynamischen (Switched VC) unterschieden werden.

Jede über PVC verbundene Station setzt bei der Initialisierung eine RARP- (Reverse ARP)-Anfrage ab, und zwar an alle benachbarten Stationen; dann wird die Adressauflösungstabelle mit den Antworten gefüllt.

Für den dynamischen Fall wird ein ARP-Server eingerichtet, bei dem alle (ATM-Adresse, IP-Adresse)-Paare registriert sind. Er muß alle Stationen mittels RARP nach ihrem Paar fragen, und jede Station kann dann bei ihm Anfragen stellen.

 

Desweiteren benötigt man Strategien zum Verbindungsauf- und abbau, denn es wäre nicht effektiv, für jedes IP-Paket eine ATM-Verbindung zu schalten; hier wird "caching" benutzt, der Kanal wird einfach eine Zeit lang offengehalten, falls noch ein Paket zur Zielmaschine gesandt wird.

Als letztes benötigt man noch einen Mechanismus, um mehrere Protokolle und nicht nur IP über ATM fahren zu können. Dies wird auch als Multi-Protokoll über ATM oder kurz und englisch MPOA bezeichnet. Dies geschieht durch Einbettung der IP-Pakete in LLC/SNAP (Logical Link Control/Subnet Access Protocol)-Rahmen. Man könnte nach RFC 1483 auch IP-Pakete direkt in die CPCS-Pakete "Null-Encapsulation" einfügen; damit könnte man dann aber pro ATM-Verbindung nur ein Protokoll fahren, aber mehrere Protokolle über mehrere Verbindungen. Aus Gründen der Flexibilität wird daher meist die LLC/SNAP-Variante gewählt.

Bislang haben wir nur von IP über ATM gesprochen; oft ist es aber so, daß parallel zu IP in bisherigen LANs andere Protokolle wie IPX, NetBIOS, SNA usw. benutzt werden. Entweder also muß eine neue Architektur auf ATM-Basis für jeden erdenklichen Protokoll-Stack geschaffen werden oder aber man löst das Problem gleich auf einer tieferen Ebene. Letzteres wird durch LAN-Emulation (LANE) bzw. LAN Emulation Services (LES) bzw. Virtual LANs (VLAN) erreicht.

Die grundsätzlichen Probleme, die hier entstehen, ähneln stark denen von IP über ATM:

Die Abbildung zwischen unstrukturierten flachen MAC-Adressen muß definiert werden und ein Adressauflösungsmechanismus ähnlich RARP muß festgelegt werden.

Um allgemein Broadcasting zu erlauben (das ja nicht nur zur Adressauflösung benutzt wird), wird ein Server benutzt (Broadcast- and Unknown Server BUS), der im Falle eines Broadcast kontaktiert wird und dann eben die teure Operation des Jeden-einzelnen-kontaktierens ausführt. Er kann hierbei aber auch eine Filterfunktion wahrnehmen, so daß evtl. nicht wirklich jedes angeschlossene ATM-Gerät den Rundruf erhält.

Im Prinzip gibt es zwei verschiedene Möglichkeiten, Daten zwischen zwei LANE-Clients (LEC) auszutauschen. Entweder benutzt man den oben genannten Broadcasting-Server mit Filterfunktion, was einer exakten Nachbildung des "Broadcast-and-Filter"-Prinzips konventioneller LANs entspricht. Das ist allerdings so ineffizient, daß man nicht darum herumkommt, ähnlich wie schon bei IP transparent ATM-Verbindungen zu schalten. Dabei können ungewöhnlich hohe Laufzeiten für das erste Paket entstehen (die Verbindung muß erst aufgebaut werden). Um dies zu vermeiden, kann mit der Broadcast-and-Filter-Methode schon einmal das erste Paket versandt werden.

Die Erfahrung zeigt, daß die Effizienz von LAN mit ihrer Größe sinkt, besonders, wenn Broadcast-Nachrichten versandt werden. Es ist attraktiv, die Menge der Endsysteme nicht in eines, sondern in mehrere Virtual LANs aufzuspalten. Die Zuordnung von Endgeräten zu einem VLAN ist dynamisch konfigurierbar; es ist weiterhin denkbar, daß mehrere VLANs physisch dieselben oder aber andere Server verwenden; daher wird die Konfiguration der VLAN als ein eigener Problembereich betrachtet.

 

Beide Protokollarchitekturen, also IP over ATM und LANE ermöglichen die Kopplung von ATM mit anderen lokalen Netzen. Der RFC-1577-IP-Ansatz erlaubt eine schrittweise Integration von ATM-Subnetzen in eine IP-Infrastruktur. Die Verbindung der IP-Router im ATM-Netz erfolgt entweder statisch oder über einen Dienst, der CBDS genannt wird.

Die LAN-Emulation hingegen ünterstützt den "Bridging"-Ansatz, der schon zum Tragen kommt, wenn man etwa Ethernet- mit Token-Ring-Subnetzen verbindet.

Hier ist der große Vorteil der, daß man unabhängig vom Standort der Endeinrichtungen diese zu logische Netzen zusammenfassen kann; damit läßt sich auch leichter kontrollieren, welche Bandbreite welcher Anwendung mit welchem Protokollstack zur Verfügung steht, was in konventionellen Netzen nur viel aufwendiger möglich ist.

Die Zukunftschancen von ATM

Der Trend in den letzten Jahren geht zu immer größeren Bandbreiten hin, Applikationen werden umfangreicher, neue Techniken wie z.B. Video-on-Demand oder Videokonferenzen in Echtzeit fordern höhere Übertragungsraten und eigentlich wäre eine Umstellung auf ATM eine Lösung vieler Probleme. Leider ist ATM ohne erheblichen Aufwand nicht kompatibel zu existierenden Netzwerken, was die Entscheidung für ATM erschwert.

Fragt man Hersteller von Netzkomponenten, wie z.B. Cisco Systems oder 3Com, bieten diese sowohl ATM- als auch Ethernet- Komponenten gleichwertig an, denn obwohl Ethernet den Markt beherrscht, gibt es schon einen geringen aber beständigen Marktanteil von ATM.

Firmen, die bereits mit einem LAN arbeiten, sehen im Moment zwar den Nutzen von ATM – wirtschaftlich ist es aber oft nicht sinnvoll, denn in die bestehende Ethernet-Struktur können ohne größeren Aufwand schnellere Ethernet- Komponenten integriert werden, nicht jedoch ATM - Komponenten. Die Erweiterung des bestehenden Netzes bietet die Vorteile, relativ geringe Investitionen zu tätigen und trotzdem ansprechende Leistungen zu erhalten, vor allem aber keine Änderungen an der bestehenden Struktur der IT-Abteilung vornehmen zu müssen, da auch Gigabit-Ethernet voll abwärtskompatibel zu bestehender Technik ist. Mitarbeiterschulungen wegen neuer Technik sind selten nötig und vor allem der Preis der Komponenten spielt eine entscheidende Rolle. Die Preise für Switch- und Endgeräte liegen zur Zeit bei ATM etwa viermal über denen von Fast Ethernet. Sogar für Video– und Sprachübertragung zeichnen sich schon Ethernet- Lösungen ab. Da für Gigabit–Ethernet-Komponenten eine große Nachfrage erwartet wird, ist auch mit einem entsprechenden Preisverfall für die einzelnen Komponenten zu rechnen, denn die Entwicklung wird von den beteiligten Firmen schnell vorangetrieben.

Trotz der höheren Kosten und der fehlenden Kompatibilität bietet die ATM Technik allerdings doch einige Vorteile, mit denen sich ATM in Zukunft durchsetzen könnte. So könnte zum Beispiel die Verkabelung von Gebäuden eine wichtige Rolle spielen. Beim Ethernet verläuft die Verkabelung nicht notwendiger Weise aber in der Regel hierarchisch, jedes Kabel endet im Serverraum des Gebäudes und der Datenverkehr nimmt stark zu, je näher man zu den Servern kommt. Es ist vorstellbar, daß diese Struktur den zu erwartenden Datenmengen irgendwann nicht mehr gewachsen ist.

Bei ATM-Netzen entsteht diese Problematik gar nicht erst, da die Struktur nicht hierarchisch, sondern verteilt ist. Die Kabelnetze können hier Dreiecke und Kreise bilden, wodurch die einzelnen Teilstrecken stark entlastet werden. Der Datenverkehr läuft nicht mehr über den Hub sondern dezentral auf dem kürzesten Weg zum Zielort. Sowohl in privaten LANs als auch in öffentlichen Weitverkehrsnetzen bietet diese Anordnung schnellere Übertragung, geringere Belastung an kritischen Stellen und vor allem Redundanz. Fällt bei einer ringförmigen Anordnung ein Teilstück aus, so kann der Datenverkehr alternativ zum Ziel geleitet werden. Außerdem bieten ATM-Netze die Möglichkeit der virtuellen Teilnetze, in denen der Standort eines Rechners keine Rolle spielt sondern lediglich die logische Zugehörigkeit. Auch bietet ATM durch den Einsatz von virtuellen Kanälen und Pfaden eine hohe Sicherheitsstufe gegen die Manipulation der Daten.

 

Abschließend läßt sich bemerken, daß sich auch nach Bewertung von verschiedenen Quellen kaum Aussagen über die Entwicklung in den nächsten Jahren machen lassen. Wahrscheinlich werden in kleineren und mittleren Netzen auch weiterhin Ethernet-Techniken eingesetzt, wohingegen in großen Vernetzungen mit hohem Datenaufkommen sich schon jetzt ATM anbietet. Für die Zukunft bleibt zu hoffen, das sich ATM durchsetzen wird, denn es handelt sich um die fortschrittlichste Netzwerktechnologie, die zur Zeit auf dem Markt ist.

 

Inhaltsverzeichnis

 

ATM – Die Grundlagen *

Die Entstehungsgeschichte von ATM; ATM, "wie man es kennt" *

Die physische Schicht *

Switching *

Das ATM Adaptation Layer AAL *

"Signalling", Kontrolle der Verbindungsaufbauten und –abbauten *

Routing in ATM – Netzen *

Integration von ATM in Bestehendes: LAN Emulation, Virtual LANs, IP over ATM... *

Die Zukunftschancen von ATM *

 

Literaturangaben

 

Andrew S. Tanenbaum Computer Networks, 3rd Edition 1996, Prentice Hall inc.

Computerwoche Ausgabe 18/98, Schwerpunktthema ATM

Anatol Badach (Hrsg.) ATM-Anwendungen, VDE Verlag, Berlin 1995