Ausgewählter Beitrag

Digitalisierung braucht Glasfaser!

Mitte 2018 besteht Einvernehmen, dass der Breitbandausbau mit durchgehenden Glasfaser-Trassen bis zum Hausanschluss erfolgen sollte, um zu nachhaltigen Infrastrukturen zu kommen. Als ich dies vor etwa zehn Jahren gefordert habe, und zwar auch für den ländlichen Raum, stand ich damit ziemlich alleine. Das Interesse der Netzbetreiber lag damals auf der möglichst langfristigen Ausnutzung der zum Teil schon vor 100 Jahren verlegten Kupferdoppelader. Betriebswirtschaftlich ist das verständlich, Politik und Regulierer sollten aber eher das volkswirtschaftliche Interesse im Blick haben. In den zehn Jahren hätte man viel erreichen können durch den konsequenten Aufbau eines passiven Leerrohrnetzes, mit dem man heute große Teile der Republik mit Glasfaser ausrüsten könnte. Leider ist es beim "könnte" geblieben und heute braucht man Steuergelder, um die jetzt natürlich vorhandenen Deckungslücken auszugleichen.

Anstatt schon vor Jahren die Förderung des Breitbandausbaus in unterversorgten Flächen mit Glaasfaser-Infrastruktur voranzutreiben, hat der Staat auf die Förderung zur Ertüchtigung der vorhandenen Kupfer-Anschlussnetze gesetzt. Noch bei dem im Dezember 2015 veröffentlichten Bundesförderprogramm zum Breitbandausbau ist eine Präferenz für diesen Weg mit dem Ausbau der FTTC-Netze ("Fiber -To-The-Curb") herauszulesen. Entsprechend haben Netzzbetreiber in den ersten Förderaufrufen bevorzugt FTTC-Lösungen angeboten. Unter großzügiger Auslegung der Förderrichtlinie haben schon früh Gebietskörperschaften für unterversorgte Gebiete Mindestbandbreiten von 100 Mbit/s im Up- und Downstream gefordert, die eigentlich nur mit Richtfunk oder Glasfaser-Anschlussnetzen realisiert werden können. Es zeichnet sich ab, dass zukünftig nur noch Netzinfrastrukturen auf der Basis von FTTB ("Fiber-To-The-Building") förderfähig sind - spät aber immerhin!

Durchgehende Glasfaser-Anbindungen sind die Voraussetzung für die Digitalisierung. Dabei geht es nicht nur um die reine Übertragungsgeschwindigkeit, im Massenmarkt sind derzeit keine Anwendungen vorhanden oder in nächster Zeit zu erwarten, die mehr als 100 Mbit/s benötigen. Aber die steigende Nutzung von Cloud-Diensten erfordert schnelle Upload-Geschwindigkeiten und symmetrische Bandbreiten. Zunehmend mehr Anwendungen in Industrie 4.0, Medizin und z.B. beim autonomen Fahren erfordern kurze Latenzzeiten, hohe Verfügbarkeit bei niedrigen Ausfallzeiten. Und natürlich wächst das zu übertragende Datenvolumen weiterhin stetig, derzeit mit ca. 20% im Jahr. Mittelfristig gibt es keine Alternative zu Glasfaser-Infrastrukturen.


Bislang haben in Deutschland knapp 10% der Gebäude einen Glasfaseranschluss. Der Aufbau flächendeckender Glasfaser-Infrastrukturen ist nicht nur mit hohen Investitionskosten in Höhe von mehreren Tausend Euro pro Anschluss verbunden, die Umsetzung erfordert Tiefbauarbeiten in jeder Straße und zu jedem Gebäude. Die erforderlichen Tiefbaukapazitäten für den Breitbandausbau sind aber bereits heute nicht ausreichend, so dass für den flächendeckenden Ausbau in Deutschland wohl etwa zehn Jahre anzusetzen sind. Die von der Bundesregierung gesetzte Marke von 2025 ist auf jeden Fall unrealistisch, es sei denn man setzt das Ziel nicht auf eine nachhaltige Glasfaseranbindung, sondern auf ein neues Geschwindigkeitsziel von mindestens einem Gbit/s. Verzichtet man zudem auf die Forderung nach symmetrischen Bandbreiten auch für den Upload, dann können die Kabelnetze mit ihren Koaxialkabeln dies ermöglichen. Erforderlich ist eine Aufrüstung auf den Übertragungsstandard DOCSIS 3.1 und eine Verkleinerung der heutigen Versorgungscluster. Während ein für sich gesehen unsinniges Gigabit-Ziel damit für zwei Drittel der Anschlüsse erzielbar ist, bleibt die Forderung nach symmetrischen Bandbreiten ebenso unerfüllt wir die Forderung nach kurzen Latenzzeiten. Zudem bleibt das Kabelnetz auch unter DOCSIS 3.1 ein „shared-medium“, bei dem die zugeführte Bandbreite unter allen Nutzern im Cluster aufgeteilt wird. Sind viele Nutzer gleichzeitig aktiv, sinkt für den Einzelnen die Geschwindigkeit. Für das Ziel der Digitalisierung sind die Kabelnetze also eine Mogelpackung, auch wenn die erreichten Leistungswerte für viele Nutzer zunächst völlig ausreichen werden.

In den letzten Jahren wurde der Ausbau der Netze auf der Basis der Kupfer-Doppelader Anschlüsse von vielen Netzbetreibern erheblich vorangetrieben. „Vectoring“ heißt die Wunderformel, mit der die Breitbandversorgung erheblich vorangebracht werden soll. Technologisch ist Vectoring eine durchaus anspruchsvolle Lösung, bei der Störsignale auf der Leitung herausgefiltert werden und somit derzeit bis zu 100 Mbit/s im Downstream möglich sind, zukünftig vermutlich auch bis zu 250 Mbit/s. Symmetrische Bandbreiten und kurze Latenzzeiten sind aber auch mit Vectoring nicht möglich. Zudem macht sich eine auch mit komplexer Technologie nicht zu beseitigende physikalische Eigenschaft negativ bemerkbar. Je höher die Übertragungsgeschwindigkeit wird, desto höher ist die erforderliche Übertragungsfrequenz und je höher die Frequenz, desto höher wird die Dämpfung in der Kupferdoppelader. Anschlüsse, die dicht am Multifunktionsgehäuse sind, erhalten noch fast die volle Leistung. Aber schon nach 600 Metern ist vom Vectoring-Effekt nicht mehr viel übrig. Für den ländlichen Raum ist diese Technologie in vielen Fällen eigentlich nicht sinnvoll, wird aber trotzdem eingesetzt.

Trotz des bei der Genehmigung von Vectoring geforderten Entbündelungs-Vorprodukts VULA („Virtual-User-Line-Access“), dass anderen Netzbetreibern eine Vermarktung in Vectoring-Netzen ermöglichen soll, stellt Vectoring de facto eine Art von Re-Monopolisierung dar, da ein Vectoring-Knoten nur von einem Netzbetreiber betrieben werden kann. Es war erstaunlich, dass bei der Einführung der Brückentechnologie Vectoring kein größerer Widerstand aufkam, aber Vectoring wurde nicht nur genehmigt, sondern ist bis heute eine mit Fördermitteln unterstütze Technologie für den Breitbandausbau. Es dürfte auch den Netzbetreibern bewusst sein, dass Vectoring nur eine Brückentechnologie mit begrenzter „Haltbarkeit“ ist, aber Vectoring ermöglicht es auch durch die quasi Re-Monopolisierung im Wettbewerb „Claims“ abzustecken und die Anbindung der Kabelverzweiger mit Glasfasern in der Fläche voranzutreiben. Wird der Druck in einigen Jahren in Richtung von Glasfaser-Anschlussnetzen stärker, dann ist zu erwarten, dass vom Multifunktionsgehäuse Glasfaser-Anschlüsse zu den Gebäuden gezogen werden und das Multifunktionsgehäuse durch einen Splitter ersetzt wird, der die beim Multifunktionsgehäuse ankommende Leistung z.B. im Verhältnis 1 : 64 aufteilt. Auf diesem Wege entsteht statt einem Point-to-Point Glasfasernetz mit höchster Flexibilität und Leistungsfähigkeit GPON („Gigabit-Passive-Optical-Network“) mit einer „shared-medium“ Struktur. Individuelle Dienstemerkmale (Qualities-of-Service) sind in diesen Netzen auch nicht einfach zu realisieren.

Für die Netzbetreiber mit großen Vectoring-Netzen ergibt sich als vermutlich gewünschter Nebeneffekt, dass für viele Vectoring-Anschlüsse bei einer Erhöhung der Geschwindigkeit auf 150 Mbit/s auch in der nahen Zukunft keine Förderfähigkeit gegeben ist (Ausnahmen sind Gewerbeflächen, für die Vectoring bald als unterversorgt gelten dürfte). Selbst bei einer Anhebung der Aufgreifschwelle auf 100 Mbit/s wird kein anderer Netzbetreiber einen geförderten Überbau von großen Teilen der Vectoring-Netze durchführen können.

Neben dem geförderten gibt es natürlich auch den eigenwirtschaftlichen Ausbau mit FTTB-Netzen, z.B. durch Bürgerinitiativen oder auf dem Weg der Nachfragebündelung. Die Steigerung der Leistungsfähigkeit der Kabelnetze mit DOCSIS 3.1 und der Kupfer-Doppeladernetze mit Vectoring sorgt für eine vielen Nutzer in den nächsten Jahren (wenn auch nicht langfristig) ausreichende Leistung. Entsprechend sinken die Erfolgschancen für den eigenwirtschaftlichen Ausbau erheblich, wenn in dem betreffenden Gebiet Kabelnetze und / oder Vectoring verfügbar sind. Somit dürfte die Strategie der Netzbetreiber auch im Hinblick auf den eigenwirtschafltichen Ausbau aufgehen.

Unter diesen Voraussetzungen wird die für die erfolgreiche Digitalisierung notwendige Voraussetzung von flächendeckenden Glasfaser-Anschlussnetzen entweder für den Steuerzahler sehr viel teurer oder dauert erheblich länger. Vor zehn Jahren wäre eine Weichenstellung noch vergleichsweise einfach möglich gewesen, heute wären wesentlich weitergehende Regelungen erforderlich, z.B. die Schaffung von exklusiven, regionalen Lizenzen für die Errichtung und den Betrieb von passiven Glasfaser-Anschlussnetzen. Im Strom- und Gas-Markt funktionieren solche Regelungen problemlos. Exklusive Lizenzen könnten neue Investoren auf den Plan rufen und sie würden mögliche Strategien zur Verzögerung des FTTB-Ausbaus und der „Sicherung“ der quasi monopolisierten Vectoring-Anschlüsse aushebeln. Allerdings ist sicher, dass es umso länger dauert und umso teurer wird, je später man konsequent Rahmenbedingungen für den FTTB-Ausbau schafft. Denn an der Schaffung von Glasfaser-Anschlussnetzen führt kein Weg vorbei!

Jürgen Kaack 31.05.2018, 12.44

Kommentare hinzufügen

Die Kommentare werden redaktionell verwaltet und erscheinen erst nach Freischalten durch den Bloginhaber.



Kein Kommentar zu diesem Beitrag vorhanden