Published in September 2012
Ich habe mit beiden Fragen Schwierigkeiten. Eines Teils sind es sehr weitreichende Fragen deren Beantwortung eine ganze Studie in Anspruch nehmen könnte. Andererseits kann ich der Aussage, durchgehendes eGovernment sei unrealistisch, nicht zustimmen. Alle hier gegebenen Antworten sind meine persönliche Ansicht und nicht mit dem W3C oder dem W3C Team abgestimmt. Dennoch versuche ich vorherrschende Strömungen wieder zu geben.
Das Europäische Normensystem ist sehr gut organisiert. Es zieht die bitteren Lehren aus dem Desaster um die Stromstecker in Europa. Es gibt daher einen hierarchischen Aufbau. Gleichzeitig sorgt ein ausgeklügeltes System für die Vermeidung von Mehrfach-Arbeit. Das ist für Industrie-Standards durchaus sinnvoll. Bei IT-Standards hat das System Nachteile. Denn im Zuge der Vermeidung nationaler Alleingänge wurde ein Exklusivrecht der Europäischen Normungsgremien eingeführt, das sich gegen die nationale Standardisierung richtet. Grob gesagt werden nur Dinge von den sogenannten Europäischen Standardisierungsorgansationen ETSI, CEN und CENELEC akzeptiert. Nun richtet sich diese Exklusivität auch gegen die Internet-Standardisierung. Will eine Verwaltung im Bereich IT Normen der IETF oder des W3C einsetzen, so muss sie in der Beschaffungsentscheidung die Abweichung von ISO oder ESO Standards rechtfertigen. Im Bereich des Internet ist die Benutzung der Standards aus dem Bereich der Konsortien allerdings so weit verbreitet, daß inzwischen niemand mehr etwas rechtfertigt und daher normative Anforderungen und Praxis beim Einsatz von Standards auseinander klaffen. Dem hat die Europäische Kommission Rechnung getragen und 2006 eine Reform in Gang gebracht, die gerade im Parlament abgeschlossen wird.
Dieses neue System bedeutet eine limitierte Legitimation der Internet-Stanardisierer. Die juristische Möglichkeit der Legitimation kommt einher mit neuen Möglichkeiten für die Verwaltungen. Dabei sind die Institutionen nicht nur Konsumenten von Standards sondern sollen auch selbst beteiligt sein. Während in Deutschland die Koordination der Standardisierung in ISO via DIN koordiniert wird, während also in diesem Bereich Industriepolitik betrieben wird, werden die Möglichkeiten der Beteiligung an den Konsortien kaum genutzt. Und wenn sie genutzt werden, werden sie teilweise nicht ausreichend hinterfragt. Nicht alle Konsortien haben einen fairen, dokumentierten Prozess der allen eine Beteiligung ermöglicht.
Der ersten Frage könnte man die Vorstellung entnehmen, daß ein W3C oder IETF Standard allein durch den Konsens der Beteiligten entsteht. Dem ist nicht so. Obwohl es keinen vollständig durchformalisierten Prozess für die Beteiligung Dritter gibt, ist die Durchlässigkeit des Systems höher als bei der de-jure Standardisierung. Denn die Arbeitsgruppen arbeiten fast vollständig in der Öffentlichkeit. Die Spezifikationen sind frei im Netz verfügbar. Jeder kann einen Kommentar an die Arbeitsgruppe schicken. Der Prozess erfordert, das die Arbeitsgruppe auf alle substantiellen Kommentare auch mit substantiellen Antworten reagiert. Damit ist die Beteiligung der Öffentlichkeit nicht eine punktuelle Öffnung aus Gründen der Transparenz, sondern ein echtes Anliegen, um die Qualität der Standards zu erhöhen. Die Verwaltung verfügt über viele helle Köpfe, die sich so beteiligen können oder -noch besser- in der Arbeitsgruppe mitarbeiten.
Ein weiterer Unterschied zu Gesetzen oder der de-jure Standardisierung
besteht darin, daß W3C Spezifikationen und auch IETF RFCs nur dann zu
Standards werden können, wenn sie in der Praxis Anwendung finden. D.h.
ohne Implementierung der Spezifikation kann diese nicht zum Standard
werden. Das ist sicherlich auch für Gesetze eine interessante Idee.
Wenn die Arbeitsgruppe zufrieden ist, beginnt die Implementierung.
Implementierer liefern Rückmeldungen an die Gruppe, die den Standard
anpassen kann.
Die Implementierung stellt normalerweise einen sehr sinnvollen Filter
dar. Anstatt einer inflationären Produktion von Spezifikationen werden
die Anforderungen so hoch geschraubt, daß nur bei einem wirklichen
Interesse und Bedarf eine neue Spezifikation entsteht. Dies
funktioniert bei Bereichen mit kommerziellem Horizont relativ gut.
Allerdings hat das System bei Spezifikationen, die vor allem dem
öffentlichen Interesse dienen, seine Schwächen. Zwar sendet der Staat
Leute, die Forderungen und Bedingungen aufstellen. Aber die
Implementierung hat kein Gewinn-Interesse und bleibt aus. Teilweise
wird in teuren Konferenzen über Jahre Frustration dokumentiert. Für
einen Bruchteil des Betrages hätte man die Dinge implementieren und
damit die Welt verändern können. Die Möglichkeit der Finanzierung wurde
in Deutschland schon einmal sehr erfolgreich bei der Förderung des
GnuPrivacy Guard (GPG) eingesetzt. Die Regeln der öffentlichen
Beschaffung sollten solche Dinge erleichtern. Dabei geht es teilweise
gar nicht um hohe Beträge.
Ein weiterer Aspekt meiner Arbeit betrifft die Regeln des
geistigen Eigentums in der Standardisierung. Viele Organisationen
arbeiten mit FRAND
. W3C selbst hat als eine der ersten
Standardisierer Prozess-Regeln eingeführt, um eine möglichst
unbeinträchtigte Implementierung seiner Standards zu gewährleisten.
Alle am Standardisierungsprozess Beteiligten verpflichten sich, Patente
kostenlos zur Implementierung der Spezifikation bereit zu stellen. Die
sogenannte RF Policy
duldet auch keine sonstigen diskriminatorischen Klauseln. In Europa
gibt es viele Kontroversen zu diesem Thema und das W3C hat sich
mehrfach an Workshops der Europäischen Kommission zu diesem Thema
beteiligt, sei es als Vortragende, sei es in der Planung.
Die
Auswirkungen des IPR-Regimes auf den Standard richten sich ganz nach
dem Markt, den die jeweilige Organisation bedient. Im Web ist die ganz
überwiegende Zahl der Akteure eher dem kleinen und mittleren Bereich
zuzuordnen. Obwohl in den Medien ständig von multinationalen Riesen wie
Google oder Facebook gesprochen wird, machen diese nicht den
überwiegenden, wohl aber den sehr sichtbaren Teil des Web aus. In einer
durch kleine und mittlere Akteure geprägten Situation sind Patente ein
Problem, denn die Akteure haben keine Übung damit.
Die Industrie
hat hier eine grosse Weitsicht bewiesen als sie von 2000 (nach einem
Zwischenfall in der P3P Gruppe) über 4 Jahre eine Royalty Free Policy
geschaffen hat. Dahinter stand die Erkenntnis, daß mit den ökonomischen
Netzwerk-Effekten letztlich mehr Geld zu machen ist, als mit
Patentlizenzen im Web. Die Netzwerk-Effkte treten erst ab einer
gewissen (großen) Verbreitung einer Technologie ein. Das schafft kaum
eine Firma allein. So ist die Standardisierung auch eine Platform zur
gemeinsamen Entwicklung der Technologie von morgen geworden. Die oben
genannte Förderung spielt auch hier wieder eine Rolle um Dinge aus der
Taufe zu heben.
Demgegenüber steht die Konvergenz aus dem Bereich der
Telekommunikation. In diesem Bereich gibt es nur wenige aber sehr große
Akteure. Diese kommen mit dem Patentsystem zurecht. Die Patente dienen
nun der Bestimmung der Verteilung von aus der gemeinsamen Anstrenung
erwachsenen Gewinnen. Im Web wäre das undenkbar. Derzeit ensteht das
Mobile Web. Beide Welten treffen auf einander. Das verursacht
Spannungen.
Der Gesetzgeber sollte jedenfalls nicht denjenigen erliegen, die das
Patent-System als condicio-sine-qua-non der Innovation verkaufen. Im
gleichen Atemzug werden dann RF-Systeme wie die des W3C diskriminiert.
Regeln und Gesetze sollten immer auch eine RF-Variante erlauben. In
bestimmten Märkten und bei intendierter maximaler Verbreitung ist sogar ein
gewisser Druck Richtung RF-System sinnvoll, z.B. durch eine
Beschaffungsentscheidung. Ein RF-System fördert daher vor allem Europa mit
seiner von kleinen und mittleren Unternehmen bestimmten IT Landschaft.
Das Web ist den Beweis angetreten, daß ein System einerseits universal, andererseits aber auch regional sein kann. Das Web ist ein universelles Instrument zum Austausch von Informationen. Es wird gerade ausgebaut zu einer universellen Platform für Applikationen im Web. Diese mobilen oder stationären Applikationen finden ihr notwendiges Gegenstück im Cloud Computing, also dem pooling von IT-Resourcen zu einem allgemein verwendbaren Cluster.
Kernbereich von eGovernment sind in den Augen des W3C eines Teils die
Herstellung von Interoperabilität, anderes Teils aber auch die
Förderung von open linked data
. Die eGovernment Interest Group erstellt unter dem
Motto Better Government Through Better Use of the Web eine Roadmap, die noch
weitere Punkte enthält. Ich begrüße daher das E-Government-Gesetz
ausdrücklich, wenn es zur Vorhaltung maschinenlesbarer Daten anhält.
Die Interoperabilität hat viele Stufen. Das fängt beim Encoding
(Unicode!) an und hört bei der Syntax (z.B. XML oder JSON) noch lange
nicht auf. Die durchgängige Nutzung der Möglichkeiten des Web im
eGovernment ist in Europa schon heute Realität. Was also meint die
Frage, wenn von der Undurchführbarkeit der Nutzung eines durchgehenden
eGovernment
die Rede ist? Dies zielt nach meiner Ansicht in
Richtung einer Interoperabilität auf einer höheren Ebene, nämlich auf
die Ebene der prozessualen und semantischen Interoperabilität. Der
Wunsch nach einem durchgehenden uniformen eGovernment entspringt
letztlich einer zentralistischen Denkweise. Diese ist auch in monolithischen
IT-Systemen durchaus üblich. Das Web dagegen versteht sich als
verteiltes System deren Aufgabe es ist, die Kommunikation zu
ermöglichen. Das gelingt, wenn man die grundlegende Architektur des Web
beachtet und die Struktur sieht und nicht nur deren für den Menschen
sichtbaren Ausformungen. Dementsprechend erreicht man die
pan-europäische Interoperabilität gerade nicht durch Zentralismus.
Vielmehr schafft das Web die Möglichkeit, daß uns die Maschinen helfen
können, die Vielfalt der Ausprägungen der ein und selben Dinge
aufzulösen. Nur dort, wo Prozess-Schritte gar nicht existieren, wo also
ein Institut fehlt, dort können wir auch mit maschinenlesbarer
Kategorisierung nicht mehr weiter kommen. Dieser Weg wird derzeit in
Europa von vielen Regierungen und Parlamenten gleichzeitig und parallel
beschritten. Dabei reicht der vorhandene Austausch zwischen den Einzelnen
bei weitem nicht aus. Denn die Bewegung leidet (siehe oben) vor allem an
der (für eine Verwaltung mehr als plausiblen) Idee, daß ohne
Zentralisierung eine Interoperabilität nicht zu erreichen sei.
Was kann Deutschland, was kann der Bundestag beitragen? Ich denke einerseits sollten die deutschen eGovernment - Initiativen in jedem Fall mit mindestens einem anderen europäischen Land vernetzt werden. Bei den europäischen Forschungsprojekten (FP6/7) hat dies zu einer starken Vernetzung der europäischen Forscher beigetragen und Europa insgesamt wettbewerbsfähiger gemacht. Im Bereich eGov wäre eine ähnliche Vernetzung der Leute noch wünschenswerter. Regionale oder lokale eGovernment-Initiativen sollten einerseits eine Technologie benutzen, die es ihnen erlauben mit anderen Initiativen zu kommunizieren. Das geht über den reinen Datenaustausch hinaus. Dazu werden Web-Technologien benötigt, die einen Austausch ermöglichen aber regionale Eigenheiten zulassen. Die dezentrale Natur des Web ermöglicht eine Konkretisierung im lokalen Bereich und eine Interoperabilität im regionalen oder globalen Kontext. Ich hatte schon oben von der herausragenden Bedeutung der Partizipation gesprochen. Wenn die lokale Konkretisierung und Implementierung von eGovernment einen Mangel des Systems zu Tage fördert, dann müssen diese Fehler in die Arbeitsgruppen transportiert werden, die diese Technologie betreuen. Gleichzeitig muss die lokale oder regionale eGovernment Initiative stets im Blick haben, daß andere Behörden die Daten wieder- oder weiter verwenden wollen. Globale Initiativen wie die eGovernment Interest Group des W3C müssen darauf achten, daß ihre Technologie auch lokal angepasst werden kann.
Das bringt mich zum letzten Punkt meiner Antwort. W3C verbindet mit
eGovernment auch und vor allem eine Strategie zur Öffnung der Daten. So
wie in den Neunzigern des vergangenen Jahrhunderts die Informationen
ins Netz gestellt wurden, sollten nun maschinenlesbare Daten zur
Verfügung stehen. Die Idee dahinter ist von einem Web für Menschen zu
einem Web für Maschinen zu kommen. Die Maschinen kommunizieren
untereinander über mehrere Etappen und kommunizieren dann das
Endergebnis. Sir Tim Berners-Lee hat dies zu seiner Forderung Raw
Data Now
verschlagwortet.
Nun stelle man sich vor, man müsste mit jeder Website einen Vertrag
schließen, bevor der Server eine Antwort gibt. Das Web wäre nicht, was
es heute ist. Genau da setzt auch die Open Data Bewegung an. Die
Gesetze sehen derzeit fast flächendeckend zumindest nominale Kosten für
die Weitergabe von Daten vor. Diese verhindert jedoch eine weite
Verbreitung der Daten, insbesondere im Bereich der Forschung, der
kleinen und mittleren Unternehmen und der Privatleute. Ein Änderung der
Gesetze, die einen Verzicht auf nominale Kosten ermöglicht, ist
geeignet einen Innovationsschub auszulösen, der in einer ganzen
Vielfalt von neuen Ansätzen und Akteuren bestehen wird. Diese werden
uns die veröffentlichten Daten in ihren multiplen Dimensionen zeigen
und sie auf neue unvermutete Weise mit anderen Daten korrelieren und zu
neuen Services verbinden. Es reicht also gerade nicht, nur Daten aus
dem Silo zu entlassen. Sie müssen maschinenlesbar und wieder verwertbar
sein. Das E-Government-Gesetz sieht die Veröffentlichung maschinenlesbarer
Daten vor aber es ist unklar, ob die Regeln der Verwaltungskosten ebenfalls
angepasst werden. Dies ist jedoch eine zwingende Voraussetzung damit die
Wirkung der Wiederverwendung von maschinenlesbaren öffentlichen Daten nicht
an Verwaltungshindernissen verpufft. Dazu wird es einiger Änderungen der
derzeitigen Regelungen bedürfen
Design inspired by the CSS Working Group
Status: Response triggered by the invitation of Rigo
Wenning for testimony on 21 September 2012 within the expert group of the Internet Enquete
Commission of the German Bundestag. Topic will be / was interoperability and standards