Netzneutralität
Am 27.10. beschloss die die Europäischen Union die Verordnung zum europäischen Binnenmarkt der elektronischen Kommunikation und zur Verwirklichung des vernetzten Kontinents. Heise betitelte den Beschluss als „Netzneutralität – mit großen Hintertüren”. Die Zeit nennt es Schlupflöcher für ein Zwei-Klassen-Internet.
Einen Tag später veröffentlichte die Telekom ihre Visionen.
Gegner von Spezialdiensten behaupten, kleine Anbieter könnten sich diese nicht leisten. Das Gegenteil ist richtig: Gerade Start-Ups brauchen Spezialdienste, um mit den großen Internetanbietern überhaupt mithalten zu können. Google und Co. können sich weltweite Serverparks leisten, damit die Inhalte näher zu den Kunden bringen und die Qualität ihrer Dienste so verbessern. Das können sich Kleine nicht leisten. Wollen sie Dienste auf den Markt bringen, bei denen eine gute Übertragungsqualität garantiert sein muss, brauchen gerade sie Spezialdienste. Nach unseren Vorstellungen bezahlen sie dafür im Rahmen einer Umsatzbeteiligung von ein paar Prozent. Das wäre ein fairer Beitrag für die Nutzung der Infrastruktur. Und es sorgt für mehr Wettbewerb im Netz.
Damit wurde die Debatte angeheizt. Sofort hagelte es kreativen Protest wie diesen:
Das größte Problem sind nicht diese Überlegungen an sich. Es ist die Telekom selber, die ihre visionären Geschäftsmodelle erst nach dem Beschluss offenlegte. Und es ist die selbe Telekom, die in der Vergangenheit sich nicht mit Ruhm bekleckert hat, den notwendigen Breitbandausbau voranzubringen.
Ich habe lange nach einen guten Artikel gesucht, der die Probleme der derzeitigen Regelung gut und nachvollziehbar erklärt. Bei Netzpolitik gibt es eine Übersetzung eines Beitrages von Barbara von Schewick, den ich sehr hilfreich fand. Ich zitiere daraus die vier grundliegenden Probleme:
Problem #1: Der Vorschlag erlaubt es ISPs, Überholspuren für solche Unternehmen einzurichten, die über die Ausnahme der Spezialdienste dafür bezahlen.
Problem #2: Der Vorschlag erlaubt „Zero-Rating“, bei dem bestimmte Internetinhalte nicht auf das Datenvolumen angerechnet werden (ökonomische Diskriminierung). Die Regulierungsbehörden hätten kaum Möglichkeiten, dies zu kontrollieren. Damit sind Verbraucher*innen und Unternehmen nicht geschützt – außer vor den ungeheuerlichsten Fällen von Begünstigung.
Problem #3: Der Vorschlag erlaubt die Diskriminierung von Inhalten, auf Basis sogenannter Verkehrkategorien. ISPs können solche Kategorien definieren und die Übertragung der ihnen zugewiesenen Daten jederzeit verlangsamen oder beschleunigen, nicht nur bei Kapazitätsengpässen.Problem #4: Der Vorschlag erlaubt es, auch eine „drohende“ Netzüberlastung zu verhindern. Das macht es einfacher für die ISPs, die Übertragungsgeschwindigkeit jederzeit herabzusetzen – nicht nur, wenn wirklich Kapazitätsengpässe vorliegen.
Beim Thema Zero-Rating (#2) ist kein weiterer Kommentar nötig. Das ist wettbewerbsverzerrend, wenn der Zugangsanbieter gleichzeitig Datenlieferant (z.B. Fernsehübetragung) ist und dabei in Mittbewerb gegenüber anderen Datenlieferanten ist.
Bei den anderen Themen ist das eine zweischneidige Sache. Es ist unbestritten, dass Daten unterschiedlich kritisch hinsichtlich Latenzen sind. Ebenso werden öffentliche Datennetze nicht so völlig überdimensioniert, dass jede Netzüberlastung schon akademisch ausgeschlossen werden kann. Von daher sind Konflikte vorprogrammiert, die es eben zu lösen gilt.
Dazu gibt es als proaktives Instrument die Verkehrsmanagementmaßnahmen (#3). Ich zitiere aus dem EU-Beschluss (Artikel 3 Nr. 2):
Unterabsatz 1 hindert die Anbieter von Internetzugangsdiensten nicht daran, angemessene Verkehrsmanagementmaßnahmen anzuwenden. Damit derartige Maßnahmen als angemessen gelten, müssen sie transparent, nichtdiskriminierend und verhältnismäßig sein und dürfen nicht auf kommerziellen Erwägungen, sondern auf objektiv unterschiedlichen technischen Anforderungen an die Qualität der Dienste bestimmter Arten des Datenverkehrs beruhen. Diese Maßnahmen dürfen nicht der Überwachung des konkreten Inhalts dienen und dürfen nicht länger als notwendig aufrechterhalten werden.
Dieser Absatz nimmt Bezug zur unterschiedlichen Datenkritikalität. Und doch ist er schwammig und damit gefährlich. Es hätten entweder konkrete Kriterien vorgegeben werden müssen oder diese Kompetenz wenigstens den Regulierungsbehörden übertragen werden müssen. So obliegt es bei den Anbieter, wenngleich sie die Regeln aber transparent machen müssen.
Aber: Woher kann ausgeschlossen werden, dass durch technische Kriterien, die einen unkritischen Dienst vermuten lassen nicht auch ein kritischer Dienst verborgen ist? Selbst Netzwerk-Ports sind kein Indiz, wenn man die Vielzahl an Diensten über Port 80 bedenkt.
Ein Kriterium, was ich nach ersten Durchdenken für gut halte: das Datenvolumen zwischen zwei Knoten. Je weniger, um so höher priorisiert.
Anstelle eines technischen Merkmals ist der Ansatz der Spezialdienste (#1) auch eine Lösung. Ich zitiere aus dem EU-Beschluss (Artikel 3 Nr. 5):
Den Anbietern öffentlicher elektronischer Kommunikation, einschließlich der Internetzugangsanbieter und der Anbieter von Inhalten, Anwendungen und Diensten, steht es frei, Dienste anzubieten, bei denen es sich nicht um Internetzugangsdienste handelt und die für bestimmte Inhalte, Anwendungen oder Dienste oder eine Kombination derselben optimiert sind, wenn die Optimierung erforderlich ist, um den Anforderungen der Inhalte, Anwendungen oder Dienste an ein spezifisches Qualitätsniveau zu genügen.
Wer einen Dienst bereitstellen will, kann am besten die Zeitkritikalität der Daten beurteilen. Und warum soll ein Unternehmen nicht für eine bessere Verbindung dafür mehr bezahlen dürfen? Diese Diskussion wird emotional über Start-Ups geführt, aber wie viele dieser Dienste sind wirklich zeitkritisch? Es birgt allerdings die Gefahr, dass größere, finanzstarke Unternehmen sämtliche ihrer Dienste für datenkritisch halten und das auch bezahlen können, so dass andere in die Röhre schauen müssen. Von daher wäre eine neutrale Instanz (Regulierungsbehörde) notwendig. In der Hinsicht bin ich noch gespalten. Zweifelsfrei schließe ich mich aber der Haltung von Barbara von Schewick an, dass diese Spezialdienste besser definiert hätten werden müssen.
Kommen wir zur Netzüberlastung (#4). Ich zitiere aus dem Paragrafen Artikel 3 Nr. 2:
insbesondere dürfen sie nicht bestimmte Inhalte, Anwendungen oder Dienste – oder bestimmte Kategorien davon – blockieren, verlangsamen, verändern, einschränken, stören, verschlechtern oder diskriminieren, es sei denn, dies ist notwendig und in diesem Fall nur so lange wie erforderlich – , um [..]
b) die Integrität und Sicherheit des Netzes, der über dieses Netz erbrachten Dienste und der Endgeräte der Endnutzer zu wahren;
c) eine drohende Netzüberlastung zu verhindern oder die Auswirkungen einer außergewöhnlichen oder vorübergehenden Netzüberlastung abzumildern, sofern gleichwertige Verkehrsarten auch gleich behandelt werden
Barbara van Schewick bemängelt hier vor allem das Wort drohend, was die Zugangsanbieter sehr weitgehend auslegen können. Ich frage mich aber: Warum muss das Kind erst in den Brunnen gefallen werden, ehe reagiert werden darf?
Das, was mich stört, ist der Umstand, dass das Ereignis der Überlast konsequenzfrei bleibt. Es wäre viel sinnvoller, die Zugangsanbieter zu verpflichten, bei (ggf. mehrfachen) Eintritt dieses Falles (egal, ob er ausgedacht oder real existierte) Maßnahmen einzuleiten, die eine erneute Wiederholung ausschließen.
Und darüber hinaus stört mich, dass Daten nicht nur verlangsamt oder ggf. auch blockiert werden, sondern sogar verändert werden dürfen.
Abschließend bin ich mit dieser EU-Regelung nicht glücklich.
Bisherige Kommentare (0)
Es wurde noch kein Kommentar geschrieben!
Was denkst du über den EU-Beschluss zur Netzneutralität?
Bisherige Trackbacks (0)
Es wurde noch kein Trackback empfangen!