Antworten von Rigo Wenning auf Fragen der Internet Enquête des Bundestages September 2012

Published in September 2012

Fragen

  1. Wie kann sichergestellt werden, dass die von Konsortien wie dem W3C erarbeiteten Standards nicht nur im Konsens der Beteiligten beschlossen werden, sondern vor allem auch in der Praxis breite Anwendung zum Vorteil der Nutzer finden? Welche Hindernisse sehen Sie bei der Umsetzung von Standards und in welchem Maße kann der Deutsche Bundestag Ihrer Meinung nach Unterstützung/Input liefern b.z.w.. Steine aus dem Weg räumen (sowohl nach innen als auch im Kontext international?)
  2. eGovernment ist eines der Kerngebiete für W3C (http://www.w3.org/egov/IG). Wie kann aus Sichtweise des W3C sichergestellt werden, dass bei nationalen Umsetzungen zwar die nationalen Besonderheiten und Anforderungen berücksichtigt werden, man aber trotzdem auf internationales Wirken hinarbeiten kann? Am Beispiel ‚Leben und Arbeiten in der Europäische Union‘ zeigt sich, dass die Nutzung eines durchgehenden eGovernment nicht möglich ist.

Antworten

Ich habe mit beiden Fragen Schwierigkeiten. Eines Teils sind es sehr weitreichende Fragen deren Beantwortung eine ganze Studie in Anspruch nehmen könnte. Andererseits kann ich der Aussage, durchgehendes eGovernment sei unrealistisch, nicht zustimmen. Alle hier gegebenen Antworten sind meine persönliche Ansicht und nicht mit dem W3C oder dem W3C Team abgestimmt. Dennoch versuche ich vorherrschende Strömungen wieder zu geben.

1. Konsortia Standards

Das Europäische Normensystem ist sehr gut organisiert. Es zieht die bitteren Lehren aus dem Desaster um die Stromstecker in Europa. Es gibt daher einen hierarchischen Aufbau. Gleichzeitig sorgt ein ausgeklügeltes System für die Vermeidung von Mehrfach-Arbeit. Das ist für Industrie-Standards durchaus sinnvoll. Bei IT-Standards hat das System Nachteile. Denn im Zuge der Vermeidung nationaler Alleingänge wurde ein Exklusivrecht der Europäischen Normungsgremien eingeführt, das sich gegen die nationale Standardisierung richtet. Grob gesagt werden nur Dinge von den sogenannten Europäischen Standardisierungsorgansationen ETSI, CEN und CENELEC akzeptiert. Nun richtet sich diese Exklusivität auch gegen die Internet-Standardisierung. Will eine Verwaltung im Bereich IT Normen der IETF oder des W3C einsetzen, so muss sie in der Beschaffungsentscheidung die Abweichung von ISO oder ESO Standards rechtfertigen. Im Bereich des Internet ist die Benutzung der Standards aus dem Bereich der Konsortien allerdings so weit verbreitet, daß inzwischen niemand mehr etwas rechtfertigt und daher normative Anforderungen und Praxis beim Einsatz von Standards auseinander klaffen. Dem hat die Europäische Kommission Rechnung getragen und 2006 eine Reform in Gang gebracht, die gerade im Parlament abgeschlossen wird.

Dieses neue System bedeutet eine limitierte Legitimation der Internet-Stanardisierer. Die juristische Möglichkeit der Legitimation kommt einher mit neuen Möglichkeiten für die Verwaltungen. Dabei sind die Institutionen nicht nur Konsumenten von Standards sondern sollen auch selbst beteiligt sein. Während in Deutschland die Koordination der Standardisierung in ISO via DIN koordiniert wird, während also in diesem Bereich Industriepolitik betrieben wird, werden die Möglichkeiten der Beteiligung an den Konsortien kaum genutzt. Und wenn sie genutzt werden, werden sie teilweise nicht ausreichend hinterfragt. Nicht alle Konsortien haben einen fairen, dokumentierten Prozess der allen eine Beteiligung ermöglicht.

Der ersten Frage könnte man die Vorstellung entnehmen, daß ein W3C oder IETF Standard allein durch den Konsens der Beteiligten entsteht. Dem ist nicht so. Obwohl es keinen vollständig durchformalisierten Prozess für die Beteiligung Dritter gibt, ist die Durchlässigkeit des Systems höher als bei der de-jure Standardisierung. Denn die Arbeitsgruppen arbeiten fast vollständig in der Öffentlichkeit. Die Spezifikationen sind frei im Netz verfügbar. Jeder kann einen Kommentar an die Arbeitsgruppe schicken. Der Prozess erfordert, das die Arbeitsgruppe auf alle substantiellen Kommentare auch mit substantiellen Antworten reagiert. Damit ist die Beteiligung der Öffentlichkeit nicht eine punktuelle Öffnung aus Gründen der Transparenz, sondern ein echtes Anliegen, um die Qualität der Standards zu erhöhen. Die Verwaltung verfügt über viele helle Köpfe, die sich so beteiligen können oder -noch besser- in der Arbeitsgruppe mitarbeiten.

Ein weiterer Unterschied zu Gesetzen oder der de-jure Standardisierung besteht darin, daß W3C Spezifikationen und auch IETF RFCs nur dann zu Standards werden können, wenn sie in der Praxis Anwendung finden. D.h. ohne Implementierung der Spezifikation kann diese nicht zum Standard werden. Das ist sicherlich auch für Gesetze eine interessante Idee. Wenn die Arbeitsgruppe zufrieden ist, beginnt die Implementierung. Implementierer liefern Rückmeldungen an die Gruppe, die den Standard anpassen kann.
Die Implementierung stellt normalerweise einen sehr sinnvollen Filter dar. Anstatt einer inflationären Produktion von Spezifikationen werden die Anforderungen so hoch geschraubt, daß nur bei einem wirklichen Interesse und Bedarf eine neue Spezifikation entsteht. Dies funktioniert bei Bereichen mit kommerziellem Horizont relativ gut. Allerdings hat das System bei Spezifikationen, die vor allem dem öffentlichen Interesse dienen, seine Schwächen. Zwar sendet der Staat Leute, die Forderungen und Bedingungen aufstellen. Aber die Implementierung hat kein Gewinn-Interesse und bleibt aus. Teilweise wird in teuren Konferenzen über Jahre Frustration dokumentiert. Für einen Bruchteil des Betrages hätte man die Dinge implementieren und damit die Welt verändern können. Die Möglichkeit der Finanzierung wurde in Deutschland schon einmal sehr erfolgreich bei der Förderung des GnuPrivacy Guard (GPG) eingesetzt. Die Regeln der öffentlichen Beschaffung sollten solche Dinge erleichtern. Dabei geht es teilweise gar nicht um hohe Beträge.

Ein weiterer Aspekt meiner Arbeit betrifft die Regeln des geistigen Eigentums in der Standardisierung. Viele Organisationen arbeiten mit FRAND. W3C selbst hat als eine der ersten Standardisierer Prozess-Regeln eingeführt, um eine möglichst unbeinträchtigte Implementierung seiner Standards zu gewährleisten. Alle am Standardisierungsprozess Beteiligten verpflichten sich, Patente kostenlos zur Implementierung der Spezifikation bereit zu stellen. Die sogenannte RF Policy duldet auch keine sonstigen diskriminatorischen Klauseln. In Europa gibt es viele Kontroversen zu diesem Thema und das W3C hat sich mehrfach an Workshops der Europäischen Kommission zu diesem Thema beteiligt, sei es als Vortragende, sei es in der Planung.
Die Auswirkungen des IPR-Regimes auf den Standard richten sich ganz nach dem Markt, den die jeweilige Organisation bedient. Im Web ist die ganz überwiegende Zahl der Akteure eher dem kleinen und mittleren Bereich zuzuordnen. Obwohl in den Medien ständig von multinationalen Riesen wie Google oder Facebook gesprochen wird, machen diese nicht den überwiegenden, wohl aber den sehr sichtbaren Teil des Web aus. In einer durch kleine und mittlere Akteure geprägten Situation sind Patente ein Problem, denn die Akteure haben keine Übung damit.
Die Industrie hat hier eine grosse Weitsicht bewiesen als sie von 2000 (nach einem Zwischenfall in der P3P Gruppe) über 4 Jahre eine Royalty Free Policy geschaffen hat. Dahinter stand die Erkenntnis, daß mit den ökonomischen Netzwerk-Effekten letztlich mehr Geld zu machen ist, als mit Patentlizenzen im Web. Die Netzwerk-Effkte treten erst ab einer gewissen (großen) Verbreitung einer Technologie ein. Das schafft kaum eine Firma allein. So ist die Standardisierung auch eine Platform zur gemeinsamen Entwicklung der Technologie von morgen geworden. Die oben genannte Förderung spielt auch hier wieder eine Rolle um Dinge aus der Taufe zu heben.
Demgegenüber steht die Konvergenz aus dem Bereich der Telekommunikation. In diesem Bereich gibt es nur wenige aber sehr große Akteure. Diese kommen mit dem Patentsystem zurecht. Die Patente dienen nun der Bestimmung der Verteilung von aus der gemeinsamen Anstrenung erwachsenen Gewinnen. Im Web wäre das undenkbar. Derzeit ensteht das Mobile Web. Beide Welten treffen auf einander. Das verursacht Spannungen.
Der Gesetzgeber sollte jedenfalls nicht denjenigen erliegen, die das Patent-System als condicio-sine-qua-non der Innovation verkaufen. Im gleichen Atemzug werden dann RF-Systeme wie die des W3C diskriminiert. Regeln und Gesetze sollten immer auch eine RF-Variante erlauben. In bestimmten Märkten und bei intendierter maximaler Verbreitung ist sogar ein gewisser Druck Richtung RF-System sinnvoll, z.B. durch eine Beschaffungsentscheidung. Ein RF-System fördert daher vor allem Europa mit seiner von kleinen und mittleren Unternehmen bestimmten IT Landschaft.

eGovernment

Das Web ist den Beweis angetreten, daß ein System einerseits universal, andererseits aber auch regional sein kann. Das Web ist ein universelles Instrument zum Austausch von Informationen. Es wird gerade ausgebaut zu einer universellen Platform für Applikationen im Web. Diese mobilen oder stationären Applikationen finden ihr notwendiges Gegenstück im Cloud Computing, also dem pooling von IT-Resourcen zu einem allgemein verwendbaren Cluster.

Kernbereich von eGovernment sind in den Augen des W3C eines Teils die Herstellung von Interoperabilität, anderes Teils aber auch die Förderung von open linked data. Die eGovernment Interest Group erstellt unter dem Motto Better Government Through Better Use of the Web eine Roadmap, die noch weitere Punkte enthält. Ich begrüße daher das E-Government-Gesetz ausdrücklich, wenn es zur Vorhaltung maschinenlesbarer Daten anhält.

Die Interoperabilität hat viele Stufen. Das fängt beim Encoding (Unicode!) an und hört bei der Syntax (z.B. XML oder JSON) noch lange nicht auf. Die durchgängige Nutzung der Möglichkeiten des Web im eGovernment ist in Europa schon heute Realität. Was also meint die Frage, wenn von der Undurchführbarkeit der Nutzung eines durchgehenden eGovernment die Rede ist? Dies zielt nach meiner Ansicht in Richtung einer Interoperabilität auf einer höheren Ebene, nämlich auf die Ebene der prozessualen und semantischen Interoperabilität. Der Wunsch nach einem durchgehenden uniformen eGovernment entspringt letztlich einer zentralistischen Denkweise. Diese ist auch in monolithischen IT-Systemen durchaus üblich. Das Web dagegen versteht sich als verteiltes System deren Aufgabe es ist, die Kommunikation zu ermöglichen. Das gelingt, wenn man die grundlegende Architektur des Web beachtet und die Struktur sieht und nicht nur deren für den Menschen sichtbaren Ausformungen. Dementsprechend erreicht man die pan-europäische Interoperabilität gerade nicht durch Zentralismus. Vielmehr schafft das Web die Möglichkeit, daß uns die Maschinen helfen können, die Vielfalt der Ausprägungen der ein und selben Dinge aufzulösen. Nur dort, wo Prozess-Schritte gar nicht existieren, wo also ein Institut fehlt, dort können wir auch mit maschinenlesbarer Kategorisierung nicht mehr weiter kommen. Dieser Weg wird derzeit in Europa von vielen Regierungen und Parlamenten gleichzeitig und parallel beschritten. Dabei reicht der vorhandene Austausch zwischen den Einzelnen bei weitem nicht aus. Denn die Bewegung leidet (siehe oben) vor allem an der (für eine Verwaltung mehr als plausiblen) Idee, daß ohne Zentralisierung eine Interoperabilität nicht zu erreichen sei.

Was kann Deutschland, was kann der Bundestag beitragen? Ich denke einerseits sollten die deutschen eGovernment - Initiativen in jedem Fall mit mindestens einem anderen europäischen Land vernetzt werden. Bei den europäischen Forschungsprojekten (FP6/7) hat dies zu einer starken Vernetzung der europäischen Forscher beigetragen und Europa insgesamt wettbewerbsfähiger gemacht. Im Bereich eGov wäre eine ähnliche Vernetzung der Leute noch wünschenswerter. Regionale oder lokale eGovernment-Initiativen sollten einerseits eine Technologie benutzen, die es ihnen erlauben mit anderen Initiativen zu kommunizieren. Das geht über den reinen Datenaustausch hinaus. Dazu werden Web-Technologien benötigt, die einen Austausch ermöglichen aber regionale Eigenheiten zulassen. Die dezentrale Natur des Web ermöglicht eine Konkretisierung im lokalen Bereich und eine Interoperabilität im regionalen oder globalen Kontext. Ich hatte schon oben von der herausragenden Bedeutung der Partizipation gesprochen. Wenn die lokale Konkretisierung und Implementierung von eGovernment einen Mangel des Systems zu Tage fördert, dann müssen diese Fehler in die Arbeitsgruppen transportiert werden, die diese Technologie betreuen. Gleichzeitig muss die lokale oder regionale eGovernment Initiative stets im Blick haben, daß andere Behörden die Daten wieder- oder weiter verwenden wollen. Globale Initiativen wie die eGovernment Interest Group des W3C müssen darauf achten, daß ihre Technologie auch lokal angepasst werden kann.

Das bringt mich zum letzten Punkt meiner Antwort. W3C verbindet mit eGovernment auch und vor allem eine Strategie zur Öffnung der Daten. So wie in den Neunzigern des vergangenen Jahrhunderts die Informationen ins Netz gestellt wurden, sollten nun maschinenlesbare Daten zur Verfügung stehen. Die Idee dahinter ist von einem Web für Menschen zu einem Web für Maschinen zu kommen. Die Maschinen kommunizieren untereinander über mehrere Etappen und kommunizieren dann das Endergebnis. Sir Tim Berners-Lee hat dies zu seiner Forderung Raw Data Now verschlagwortet.
Nun stelle man sich vor, man müsste mit jeder Website einen Vertrag schließen, bevor der Server eine Antwort gibt. Das Web wäre nicht, was es heute ist. Genau da setzt auch die Open Data Bewegung an. Die Gesetze sehen derzeit fast flächendeckend zumindest nominale Kosten für die Weitergabe von Daten vor. Diese verhindert jedoch eine weite Verbreitung der Daten, insbesondere im Bereich der Forschung, der kleinen und mittleren Unternehmen und der Privatleute. Ein Änderung der Gesetze, die einen Verzicht auf nominale Kosten ermöglicht, ist geeignet einen Innovationsschub auszulösen, der in einer ganzen Vielfalt von neuen Ansätzen und Akteuren bestehen wird. Diese werden uns die veröffentlichten Daten in ihren multiplen Dimensionen zeigen und sie auf neue unvermutete Weise mit anderen Daten korrelieren und zu neuen Services verbinden. Es reicht also gerade nicht, nur Daten aus dem Silo zu entlassen. Sie müssen maschinenlesbar und wieder verwertbar sein. Das E-Government-Gesetz sieht die Veröffentlichung maschinenlesbarer Daten vor aber es ist unklar, ob die Regeln der Verwaltungskosten ebenfalls angepasst werden. Dies ist jedoch eine zwingende Voraussetzung damit die Wirkung der Wiederverwendung von maschinenlesbaren öffentlichen Daten nicht an Verwaltungshindernissen verpufft. Dazu wird es einiger Änderungen der derzeitigen Regelungen bedürfen


Created by Rigo Wenning, September 2012, last updated $Id: enquete-fragen.html,v 1.5 2012/09/11 09:49:47 rigo Exp $

Design inspired by the CSS Working Group

Status: Response triggered by the invitation of Rigo Wenning for testimony on 21 September 2012 within the expert group of the Internet Enquete Commission of the German Bundestag. Topic will be / was interoperability and standards