transparent_layer
db-images/cms/banner/img/l1_v369374_958_728_90-1.jpg
Blättern: First Back
von 2139 Forward End
Smart Cities - Big Data, Hacker und die Frage nach einem neuen Utopia
von Anthony M. Townsend | 1. April 2014
Harry Tuttle (gespielt von Robert de Niro) ist im Film "Brazil" eine Art Guerilla-Mechaniker, ein Smart-City-Hacker, der tapfer versucht, die Grundversorgung der Einwohner am Laufen zu halten. Foto © Filmstills, aus dem Film Brazil
Das „Calafia Café“ in Palo Alto ist wohl eines der „smartesten“ Restaurants der Welt. Grund dafür ist das Klientel, das sich hier regelmäßig von dem Koch Charlie Ayers, ehemaliger Küchenchef der Google-Chefetage, bekochen lässt. Dabei stehen aber nicht Nährwert und Geschmackserlebnis des Aufgetischten für die Gäste im Vordergrund. Wir sind schließlich in Kalifornien – Essen dient hier auch der Selbstoptimierung. Jedes Gericht wird sorgfältig mit Zutaten zubereitet, die einen nicht nur schlank bleiben lassen, sondern auch intelligenter und leistungsfähiger machen. So stochern also im Calafia Cafe ein halbes Dutzend Risikokapitalinvestoren in ihrem Löwenzahnsalat. Nachts ist Palo Alto ein verschlafener Vorort, doch tagsüber pulsiert hier das Herz von Silicon Valley, der Ort, an dem sich die begabtesten Wissenschaftler und Entwickler treffen, um ihre Visionen zu verwirklichen. Westlich von dem Cafe liegt die Stanford Universität, der „Googleplex“ erstreckt sich ein paar Meilen weiter östlich. In der Umgebung leben und arbeiten ungefähr eine halbe Million IT-Spezialisten. Ein oder zwei Industrietycoone würden hier nicht weiter auffallen. Steve Jobs kam jedenfalls regelmäßig zum Mittagessen in das Café von Charlie Ayers.

Ich suche die Männertoilette auf und stelle fest, dass das Calafia Café offenbar ein gravierendes technologisches Problem hat. Trotz des hochrangigen Klientels scheint die smarte Toilette den Dienst zu versagen. Ich starre hoffnungsvoll auf ein rotes Licht, das mir aus einer kleinen Plastikbox, dem „Gehirn” des Edelstahl-WCs unnütz entgegen blinkt. Ein Schild darüber verspricht Hilfe. „Falls der Sensor nicht funktioniert, bitte manuelle Spültaste betätigen”. Ich bin gerettet und habe kurzerhand fünfzig Jahre Fortschritt in angewandter Informatik und Industrietechnik umgangen.

Zurück an meinem Tisch versuche ich das Modell für menschliche Ausscheidungen, wie es auf dem CPU der Toilette genannt wird, zurück zu entwickeln. Ich stelle mir ein Labor vor, irgendwo in Japan. Techniker in weißen Kitteln mit Stoppuhren dokumentieren den Stuhlgang einer auf smarten Klos sitzenden Armee von Freiwilligen mit heruntergelassenen Hosen. Die Komplexität des Problems liegt auf der Hand. Soll die Spülung ausgelöst werden, sobald man aufsteht? Oder etwa wenn man sich umdreht? Oder nach einer bestimmten Zeit? Aber wie lange? Und wird das Klo wissen, wenn es eine zweite Spülung braucht? Die technische Aufgabenstellung dürfte in diesem Fall etwas weniger anspruchsvoll sein, als die bemannte Raumfahrt auf den Mond oder die Berechnung des Fahrtwegs zum Flughafen, obwohl derlei Dinge immer ohne weiteres zu funktionieren scheinen.

Meine Verwirrung weicht einem wachsenden Unbehagen. Wie kann es sein, dass man es sogar im Herzen des Silicon Valley einfach hinnimmt, dass smarte Technologie Bugs, launisch und völlig funktionsgestört ist? Im Biotechnologielabor auf der anderen Straßenseite hat vielleicht gerade jemand ein Allerheilmittel gegen Krebs entwickelt und feiert seinen Erfolg nun hier beim Lunch. Auch dieser geniale Erfinder wird, wie ich, die manuelle Spültaste drücken, aber höchstwahrscheinlich nicht weiter darüber nachdenken, dass uns diese neue Welt aus smarter Technologie beständig im Stich lässt. Wir integrieren diese Technologien in unsere Häuser, Gemeinschaften, sogar in unsere Körper – doch auch Experten legen angesichts ihrer Unzulänglichkeit eine beunruhigende Gelassenheit an den Tag. Der Rest von uns wagt sowieso nicht, sie in Frage zu stellen.

Ich weiß ja, ich sollte mir keine Sorgen machen und versuchen, das smarte Klo zu mögen. Aber vielleicht ist dies nur der Vorbote viel größerer Probleme? Was ist, wenn die hochtechnisierten Metropolen den Kern ihrer eigenen Zerstörung bereits in ihrer DNA tragen? Ich war immer der Meinung, dass smarte Städte die Antwort auf die Herausforderungen der Urbanisierung des 21. Jahrhunderts sind und überzeugt, dass trotz möglicher Tücken die Vorteile gegenüber den Risiken überwiegen werden - vor allem wenn wir den unbeabsichtigten Auswirkungen unserer Entscheidungen resolut entgegentreten. In Wahrheit haben wir jedoch bisher nur ein bisschen an der Oberfläche gekratzt.

Was passiert, wenn die smarten Städte der Zukunft anfällig und voller Bugs sind? Auf was haben wir uns da eingelassen?

Bugs überall

Ein paar Wochen später spazierte ich über den Campus des MIT-Instituts in Cambridge in Massachusetts, ohne einen Gedanken an nicht kooperative Toiletten zu verschwenden. Westlich des Kenmore Squares sind es nur ein paar Gehminuten zum neuen Standort des Broad Institutes, einem Monolith aus Glas und Stahl, der ein milliardenteures Forschungszentrum für Genom-Medizin beherbergt. An der Gebäudefassade zur Straße hin gab es eine ganze Reihe von Anzeigetafeln, deren Displays unendliche Sequenzen von DNA-Basenpaaren in Echtzeit zeigten, wie sie oben im Gebäude von den Maschinen erfasst wurden. Und dann sah ich ihn plötzlich, aus dem Augenwinkel: den ‘Blue Screen of Death’, die gefürchtete blaue Anzeige von Microsoft Windows, die einen Systemabsturz ankündigt. Verzweifelt schaute ich durch das Glas auf den einsamen Bildschirm. Anstatt des unablässigen Stroms genetischer Offenbarungen präsentierte sich mir eine sinnlose Aneinanderreihung von Hexadezimalen, die präzise darüber Auskunft gaben, an welcher Stelle einer Zentralrecheneinheit eine einzelne Fehlberechnung aufgetreten war. Ausgerechnet an jenem Ort, an dem ich die historisch bedeutungsvolle Verschmelzung von menschlicher und künstlicher Intelligenz zu finden gehofft hatte, stieß ich auf einen Bug.

Der Begriff „Bug“ stammt von dem alten walisischen Wort „bwg“(„boog” ausgesprochen) ab und wird im Englischen schon lange als umgangssprachliche Bezeichnung für Insekten gebraucht. Die Entlehnung des Begriffs, um technisches Fehlverhalten bzw. ein Programmfehler zu beschreiben, geht auf den Beginn des Telekommunikationszeitalters zurück. Die ersten Fernschreiber, erfunden um 1840, basierten auf zwei Kabeln, eines zum Senden und Eines zum Empfangen der Telegramme. In den 1870ern wurden Duplex-Telegrafen entwickelt, die eine simultane Übertragung von Botschaften in beide Richtungen über ein einzelnes Kabel ermöglichten. Das Knistern und Rauschen in der Leitung bezeichnete man als „Bugs” - ein Geräusch, als würden kleine Tiere oder Käfer an den Drähten knabbern. Thomas Edison selbst benutzte den Ausdruck in einem Brief, den er 1878 an den ungarischen Erfinder Puskás Tivadar schrieb. Tivadar hatte eine Telefonschaltanlage entwickelt, bei der erstmals einzelnen Leitungen zu einem Netzwerk verbunden werden konnten. Laut einer frühen Bestandsaufnahme des von Edison selbst erfundenen Quadruplextelegrafens, einem verbesserten Telegrafen, der in jede Richtung zwei Signale senden konnte, gehörte der Begriff 1890 bereits zum Fachjargon. Der erste aktenkundige Computer-Bug war jedoch tatsächlich ein Insekt. Im September 1947 führten Wissenschaftler der US-Marine mit Dozenten der Harvard Universität einen Probelauf des Mark II Aiken Relay Calculator durch, als dieser plötzlich ins Stocken geriet. Sie öffneten den primitiven, elektromechanischen Computer umgehend und fanden eine Motte zwischen zwei Relais. Auf einer Internetseite von Marinehistorikern findet sich immer noch ein Foto der Seite aus dem Logbuch des Labors, in das jemand sorgfältig die Motte eingeklebt und folgenden Kommentar dazu geschrieben hatte: „Das erste Mal, das tatsächlich ein Bug gefunden wurde.” Der Legende nach handelte es sich dabei um Grace Hopper, eine Programmiererin, die später eine wichtige Rolle im Bereich der Computerwissenschaft spielen sollte (Hoppers Biograf bestreitet jedoch, dass der Begriff „Bug” hier zum ersten Mal verwendet worden ist, um einen Programmierfehler zu beschreiben und weist darauf hin, dass er “eindeutig schon zuvor gebraucht worden ist.“)

Seit jenem Tag sind Bugs, als Resultat der enormen Komplexität und erbarmungslosen Geschwindigkeit der technologischen Entwicklungen, überall in unserer digitalen Welt heimisch geworden. Wie werden sich diese aber in der smarten Stadt bemerkbar machen? Vielleicht treten sie einzeln auf, wie im Falle der defekten Toilette oder der abgestürzten Anzeigetafel im öffentlichen Raum. 2007 brannte ein Waggon der Untergrundbahn in Washington infolge einer Überspannung, nachdem die Software, die zur Erkennung solcher Defekte entwickelt worden war, diese nicht erkannt hatte. Der vorläufige Rückgriff auf den älteren und zuverlässigeren Code nahm nur zwanzig Minuten in Anspruch, während die Ingenieure derweil mit einer groß angelegten, systematischen Überprüfung und Fehlersuche beschäftigt waren.

Manche, auf den Maßstab städtischer Systeme übertragene Bugs, dürften jedoch in den entsprechenden Netzwerken enorme Auswirkungen haben - mit katastrophalen Konsequenzen. Ein Jahr vor dem Feuer in der Untergrundbahn führte ein Fehler in der Programmsteuerung des BART Systems in San Francisco zu einer systemübergreifenden Abschaltung und zwar nicht nur einmal, sondern dreimal innerhalb von 72 Stunden. Noch beunruhigender ist hier allerdings die Tatsache, dass der ursprüngliche Versuch, den fehlerhaften Code zu berichtigen, die Lage noch verschärfte. Im Rahmen einer offiziellen Untersuchung gab man später bekannt, dass „die Mitarbeiter von BART sofort mit der Konfiguration eines Backup-Systems begonnen haben, das nach zukünftigen Softwarefehlern eine schnellere Wiederherstellung ermöglicht”. Zwei Tage nach dem ersten Fehler „zog die Arbeit am Backup-System versehentlich einen Hardware-Fehler nach sich, der wiederum zum bislang längsten Ausfall führte”. Glücklicherweise wurde bei diesen Zwischenfällen niemand verletzt, allerdings waren die ökonomischen Folgen gewaltig – 2005 belief sich der wirtschaftliche Schaden der zweieinhalbtägigen Abschaltung der New Yorker Untergrundbahn während eines Streiks auf ungefähr eine Milliarde US-Dollar.

Die Schwierigkeiten der Automatisierung von Transportsystemen sind lediglich die Vorboten der Probleme, mit denen wir in der smarten Stadt konfrontiert werden. So beunruhigend gegenwärtig auftretende Programmierfehler auch sein mögen, so sind sie doch auch eine Messlatte für Verlässlichkeit. Aktuelle smarte Systeme wurden mit größter Gewissenhaftigkeit entwickelt und umfassend getestet. Sie verfügen über Ausfallsicherungen auf mehreren Ebenen. Angesichts der zunehmenden Dringlichkeit urbaner Probleme und der Tatsache, dass es fraglich ist, ob wir die Ressourcen und den Willen besitzen, diese zu beheben, werden in Zukunft wohl viele smarte Technologien unter Zeitdruck und mit knappen Budgets schnell zusammengeschustert werden. Das jetzige Maß an Ausfallsicherheit mit nur einigen sporadischen und kurzfristigen Funktionsstörungen werden sie nur schwerlich erfüllen.

Die schiere Größe von smarten Systemen im städtischen Maßstab bringt eine ganz eigene Problematik mit sich. Städte und ihre Infrastruktur sind bereits die komplexesten Strukturen, die die Menschheit je geschaffen hat. Ihre Verflechtung mit ebenso komplexen Informationsverarbeitungsprozessen erzeugt zwangsläufig vielfältige, neue Möglichkeiten für Bugs und damit auch unvorhergesehene Wechselwirkungen. Kenneth Duda, ein Experte für Hochleistungsnetze, schrieb in der New York Times „dass der größte Feind die Komplexität ist, gemessen in Codezeilen oder Interaktionen”. Ellen Ullman, Publizistin und früher Softwareentwicklerin, weist darauf hin „dass es niemals möglich ist, ein Computersystem vollständig zu testen. Wer das für möglich hält, versteht nicht, wie ein solches System aufgebaut ist. Es handelt sich nicht um ein einzelnes Programmierungselement, das als Ganzes von einem Unternehmen entwickelt wird. Vielmehr geht es um eine Sammlung von „Modulen“, die miteinander verbunden werden…Das daraus entstehende System ist ein Gewirr aus verdrahteten Black Boxen, die durch nur schwer zu verstehende „Interfaces“ miteinander kommunizieren. Ein Programmierer auf der einen Seite des Interfaces kann nur hoffen, dass der Programmierer auf der anderen Seite die Sache richtig verstanden hat.”

Der Soziologe Charles Perrow hat 1984 in seiner wegweisenden Studie „Normal Accidents“ über technologische Desaster darauf hingewiesen, dass Störfälle in hochkomplexen Systemen mit vielen eng miteinander verbundenen Elementen unvermeidlich sind. Schlimmer noch ist allerdings die Tatsache, dass herkömmliche Ansätze zur Risikominderung wie Warnungen oder Alarmsignale (oder die Installation des Datensicherungs- und Wiederherstellungssystems für BART) den Systemen nur eine zusätzliche Komplexität hinzufügen und somit die Risiken erhöhen. Die Atomkatastrophe von Tschernobyl zum Beispiel wurde von einer unumkehrbaren Kettenreaktion in Gang gesetzt, die durch Tests für ein neues Reaktorsicherheitssystem ausgelöst wurde. Perrows Schlussfolgerung lautet: „Die meisten hochriskanten Systeme haben über ihre toxischen, explosiven oder genetischen Gefahren hinaus spezielle Eigenschaften, die Störfälle unvermeidlich machen, das ist sogar „normal“”.

Normale Störfälle werden in smarten Städten also allgegenwärtig sein. So wie das rasante Fortschreiten der Urbanisierung eine minderwertige Baupraxis hervorgebracht hat – vor allem in China mit seinen berüchtigten „Tofu-Gebäuden” – werden hastig konzipierte smarte Städte technologische Schwachpunkte haben, die Anwendungsentwickler und Bauunternehmer dadurch erzeugen, dass sie versuchen, so wenig Aufwand wie möglich zu betreiben. Diese übereilten Notlösungen lassen frühere Defizite in der Entwicklung wie den Y2K-Bug vergleichsweise unbedeutend erscheinen. Der größte Bug der Geschichte resultierte in der frühen EDV-Ära aus einem Trick. Um Speicherplatz zu sparen, wurden bei Datumsangaben lediglich die beiden letzten Stellen der Jahreszahl verwendet - das führte dazu, dass in den späten 1990er Jahren weltweit Millionen von Codezeilen umgeschrieben werden mussten. Im Laufe der Jahrzehnte boten sich viele Gelegenheiten, um Y2K rückgängig zu machen, Tausende von Organisationen schoben die Behebung des Bugs jedoch lieber auf, was am Ende 300 Milliarden US-Dollar an Kosten verursachte, als der Fehler schließlich behoben wurde. Die Bugs in der smarten Stadt werden heimtückischer sein und in vielen wesentlichen und miteinander verbundenen Systemen auftreten. Mitunter wird es vielleicht nicht möglich sein, die Wirkungszusammenhänge vorauszusehen. Wer hätte jenen massiven Verkehrsstau auf der amerikanischen Autobahn US Interstate 80 vorausahnen können, als 2012 ein Programmierfehler im System, der für die Einberufung einer Jury in Placer County in Kalifornien irrtümlicherweise 1200 Leute einlud, die sich am gleichen Tag zum Einsatz melden sollten?

Die Allgegenwärtigkeit von Bugs in smarten Städten ist alarmierend. Wir haben noch keine klare Vorstellung davon, wo die größten Risiken liegen, wann und wie sie Systeme zum Abstürzen bringen werden oder wie die Auswirkungen etwaiger Kettenreaktionen aussehen könnten. Wer soll eingreifen, wenn eine smarte Stadt abstürzt? Und wie werden die Einwohner dabei helfen, die Stadt von solchen Fehlern zu befreien? Heutzutage schicken wir gewöhnlich anonyme Meldungen über Programmierfehler, wenn unser Desktop abstürzt. Kann man dieses Modell auf die Welt der eingebetteten und omnipräsenten EDV-Systeme übertragen?

Paradoxerweise könnten durch Bugs in smarten Städten die Forderungen nach mehr Demokratie verstärkt werden. Wade Roush, der sich mit den Reaktionen von Bürgern auf große technologische Desaster befasst hat, kam zu dem Schluss, dass „Funktionsstörungen in großen technologischen Systemen viele Laien zu Experten werden lassen und diese radikaler werden, wodurch sie existierende technologische Pläne durchschauen und die Kompetenz und Befugnis jener Leute hinterfragen können, die sie geschaffen haben”.

Diese Reaktionen der Öffentlichkeit auf derlei Katastrophen, so folgert er, habe die Entwicklung „einer neuen kulturellen Unterströmung der „technologisch versierten Bürgerschaft“ beflügelt, die über ein größeres Wissen verfügt und den komplexen Systemen, wie sie moderne Gesellschaften durchdringen, skeptisch gegenüber steht”.

Wenn sich die erste Generation der smarten Städte tatsächlich auf verhängnisvolle Weise als fehlerhaft erweist, dann könnte auf ihren Überbleibseln doch vielleicht die fruchtbare Grundlage für belastbarere und demokratischere Modelle geschaffen werden.

Werden unsere neuen Helden in der smarten Stadt jene wenigen Wagemutigen sein, die in das Leitungsnetz abtauchen und es von Bugs befreien? Ich ließ den Blue Screen of Death des Broad Institutes hinter mir und ging im Regen zurück zu meinem Hotel. Irgendwie erinnerte mich all das an den Film Brazil von 1985 von Terry Gilliam, einem Mitglied von Monty Python, in dem das Szenario einer durchgedrehten, autokratisch smarten Stadt prophezeit wird. In meinem Zimmer angekommen, schaltete ich meinen Laptop ein und startete über Netflix den Stream dieses Films. In der Eröffnungsszene hockt der Protagonist Sam Lowry schwitzend vor einem geöffneten Kühlschrank, als plötzlich das Telefon klingelt und sich Harry Tuttle, gespielt von Robert De Niro, am anderen Ende des Telefons meldet. „Sind Sie von Central Services?” fragt Lowry und spielt damit auf die gleichgültige Bürokratie an, die für die Aufrechterhaltung der Infrastruktur in der Stadt zuständig ist. „Die sind zurzeit ein bisschen überlastet”, antwortet Tuttle. „Glücklicherweise habe ich Ihren Anruf abgefangen”. Tuttle ist ein Guerilla-Mechaniker, ein Smart-City-Hacker, der tapfer versucht, die Grundversorgung der Einwohner am Laufen zu halten. „Dieses ganze System könnte in Flammen stehen und ich könnte noch nicht einmal den Wasserhahn in der Küche zum Löschen aufdrehen, ohne ein 27B/6-Formular auszufüllen.” Es bleibt nur zu hoffen, dass dieses Szenario nur eine Fiktion bleibt. Manchmal scheint sie gar nicht so weit hergeholt.

Anfälligkeit

Schöpfungsmythen beruhen genauso auf Glauben, wie auf Fakten. Das Internet bildet da keine Ausnahme. Netzbürger auf der ganzen Welt glauben, dass das Internet als eine Art militärisches Kommunikationsnetzwerk entwickelt wurde, das einen nuklearen Angriff überstehen würde.

Das Märchen nimmt in den frühen 1960er Jahren mit der Veröffentlichung von „On Distributed Communications” von Paul Baran, einem Forscher des RAND Think Tank, seinen Anfang. Baran war beauftragt worden, ein Modell für ein unzerstörbares Telekommunikationsnetzwerk für die US Air Force zu entwickeln. Die Strategen des Kalten Krieges befürchteten, dass die „Speichenarchitektur“ des Telefonsystems einen unberechenbaren Erstschlag der Sowjets nicht überstehen würde. Ohne ein funktionierendes Kommunikationsnetzwerk wäre die USA nicht in der Lage, einen Gegenangriff zu koordinieren und das strategische Gleichgewicht der „gesicherten, gegenseitigen Zerstörung” zwischen den Supermächten wäre in Gefahr. Baran plädierte dem aus Harvard stammenden Wissenschaftshistoriker Peter Galison zufolge „für einen Plan, der die vollständige Entfernung entscheidender Netzknoten aus dem Telefonsystem vorsah”. In „On Distributed Communications” und einer Reihe von Pamphleten, die folgten, demonstrierte er auf mathematische Weise wie ein weniger zentralisiertes Gitter aus Netzknoten, die durch redundante Links verbunden wären, eine heftige Beschädigung überstehen könnten, ohne in isolierte Abschnitte aufgespalten zu werden. Die Idee wurde von der Advanced Research Projects Agency (ARPA) des Pentagon aufgegriffen, eine Gruppe, die forciert Forschung und Entwicklung betreiben sollte, um den peinlichen Rückstand gegenüber den Sowjets einzuholen, die 1957 das Sputnik-Raumfahrtprogramm gestartet hatten. ARPANET, der Vorläufer des Internets wurde in den frühen 1970er Jahren eingeführt. So die Legende.

Die wahre Geschichte ist etwas prosaischer. Es gab in der Tat Bedenken angesichts der Überlebensfähigkeit von militärischen Kommunikationsnetzwerken. Aber RAND war lediglich eine von mehreren Forschungsgruppen, die sich zu jener Zeit einer Neubetrachtung von Kommunikationsnetzwerken widmeten – so gab es parallele Forschungsaktivitäten für eine dezentralisierte Kommunikation unter der Leitung von Lawrence Roberts am MIT und von Donald Davies und Roger Scantlebury im United Kingdom’s National Physical Laboratory. Die einzelnen Gruppen wussten nichts von den Bestrebungen der jeweils anderen, bis Roberts 1967 auf einer, von der Association for Computing Machinery in Gatlinburg in Tennessee organisierten, Konferenz Scantlebury zufällig traf, der zu diesem Zeitpunkt bereits von Barans früheren Erkenntnissen gehört hatte. Und ARPANET war nebenbei auch keine militärische Kommandostruktur für Amerikas nukleares Arsenal oder dergleichen. Es war noch nicht einmal geheim. Es handelte sich de facto um ein Forschungsnetzwerk. 2004 erklärte Robert Taylor, der dem ARPANET Projekt für das Pentagon vorstand, in einer weit verbreiteten Email: „Die Schaffung des ARPA Netzes ist nicht durch Kriegserwägungen entstanden. Es wurde geschaffen, um Leuten mit gemeinsamen Interessen durch interaktive Computeraktivitäten auch über größere geografische Entfernungen hinweg zu ermöglichen, zueinander Verbindung aufzunehmen.” Viele glauben auch weiterhin, das Netz sei weit verzweigt, so wie es Baran vorschwebte, aber es ist vielleicht das am stärksten zentralisierte Kommunikationsnetzwerk der Geschichte. Am Anfang war ARPANET tatsächlich nicht weit vom dezentralisierten Ideal entfernt. In einer Karte des wachsenden Netzwerkes aus dem Jahr 1977 sieht man mindestens vier redundante, transkontinentale Leitungswege, die auf gemieteten Telefonleitungen der Firma AT&T liefen und wichtige Rechenzentren in Boston, Washington, Silicon Valley und Los Angeles miteinander verbanden. Städtische Leitungsschleifen sorgten in diesen Regionen für eine zusätzliche Redundanz. Wenn die Verbindung zum Nachbarn zusammenbrach, konnte man immer noch aus der anderen Richtung Datenpakete verschicken. Das ist heute noch genauso üblich.

Das Pentagon hätte das Projekt, welches immer als Experiment betrachtet worden war, 1987 eingestellt, aber die Forschungsgemeinschaft hatte Blut geleckt und es wurden Pläne geschmiedet, die Kontrolle an die National Science Foundation zu übergeben, die den zivilen Anteil am ARPANET an das eigene Forschungsnetzwerk NSFNET koppelte, welches ein Jahr zuvor eingeführt worden war. Im Juli 1988 schaltete NSFNET ein neues nationales Backbone-Netz, welches das redundante und dezentralisierte Netz von ARPANET zugunsten einer effizienteren und wirtschaftlicheren „Hub and Spoke-Systems“ fallen ließ. Ähnlich wie das heutige Luftverkehrsnetz, haben Universitätsbündnisse ihre Ressourcen zusammengeführt, um ihre eigenen, regionalen Feedernetze (häufig mit erheblicher Förderung der NSF) einzusetzen, die an verschiedenen Knotenpunkten, welche strategisch über das Land verteilt waren, mit dem Backbone-Netz verbunden waren.

Im April 1995, also nur sieben Jahre später, übergab die National Science Foundation die Leitung an den privaten Sektor. Dieser Schritt sollte zu einer noch größeren Zentralisierung führen, da lediglich vier Hauptinterkonnektionspunkte bestimmt wurden, durch die die Bits durch das Land geleitet wurden. Diese außerhalb von San Francisco, Washington, Philadelphia und Chicago liegenden Knotenpunkte bildeten nicht nur das Zentrum des amerikanischen, sondern des weltweiten Internets. Zu jener Zeit wurde eine von Europa nach Asien versandte Email mit größter Wahrscheinlichkeit durch Virgina und Kalifornien geleitet. Und seither wurden die Dinge noch weiter zentralisiert. An einem dieser Knotenpunkte in Ashburn, Virginia, befindet sich die wohl weltweit größte Konzentration von Datenzentren mit etwa vierzig Gebäuden und einer gemeinsamen Grundfläche von ungefähr 22 Walmart Supercentern. Andernorts ist die Internetinfrastruktur mit zuvor existierenden Handelszentren verschmolzen.

Heutzutage müsste man nur ein paar Gebäude in Manhattan, in denen die weltweit größten Netzwerkanbieter miteinander verbunden sind, einreißen — 60 Hudson Street, 111 Eighth Avenue, Broadway 25 — und könnte damit einen großen Teil der transatlantischen Internetkapazität lahmlegen (das Glasfaserkabel ist nicht die erste Technologie, die den Broadway 25 mit Europa verbindet. Das elegante Bauwerk diente bis in die 1960er Jahre bereits als Hauptsitz und zentrale Ticketverkaufsstelle für die großen Dampfschiffe der Cunard Line, die den Ozean überquerten.)

Trotz vieler offenkundiger Mängel wurde der Schöpfungsmythos des vermeintlich atombombensicheren Internets noch durch die Tatsache bekräftigt, dass es die wenigen Anlässe, bei denen es tatsächlich bombardiert worden ist, überraschend unbeschadet beließ. Im Frühjahr 1999 konnten trotz der Bombardierung von Serbien durch die NATO, die explizit auf Telekommunikationseinrichtungen und das Stromnetz ausgerichtet war, viele der Internetprotokollnetze des Landes ihre Verbindung mit der Außenwelt aufrechterhalten. Auch den Anschlag vom 11. September hat das Internet größtenteils unversehrt überstanden. Allein in Manhattan brachen ca. 3 Millionen Telefonleitungen zusammen – ein, von der Größe her, mit der Schweiz vergleichbares Netz – und zwar lediglich durch die Beschädigung des Gebäudes einer Telefongesellschaft in der Nähe des World Trade Center. Rundfunk- und Fernsehstationen wurden durch die Zerstörung des Nordturmes lahm gelegt, auf dessen Dach ein ganzer Wald von Antennen jeder Größenordnung und für die unterschiedlichsten Zwecke gestanden hatte. Panikanrufe im ganzen Land brachten das Telefonsystem zum Erliegen. Das Internet hingegen flackerte noch nicht einmal.

Während das Internet jedoch seine disparate Unversehrtheit bewahren kann, ist die technologische Infrastruktur von smarten Städten wesentlich anfälliger. Da wir immer mehr Netzwerke haben, die immer fragiler werden und einzelne Ausfallursachen auf den noch widerstandsfähigen Kern des Internets aufschichten, werden große Funktionsausfälle immer wahrscheinlicher. Und angesichts der Tatsache, dass über diese Kanäle auch zunehmend allerlei wirtschaftliche, soziale und staatliche Dienste abgewickelt werden, werden die Risiken noch größer.

Besonders bedenklich ist unsere zunehmende Abhängigkeit von ungebundenen Netzwerken, die uns dem Erbarmen eines fragilen, letzten drahtlosen Sprungs zwischen unseren Geräten und dem Funkmast ausliefert. Mobilnetze sind bei weitem nicht so widerstandsfähig wie das Internet. Sie sind sozusagen die zu Ohnmachtsanfällen neigenden Damen der Netzwerkwelt – wenn es richtig heiß wird, fallen sie zuerst um und verursachen dabei den größten Rummel.

Mobile Netzwerke versagen in Krisen auf unterschiedlichste Weise ihren Dienst - durch die Beschädigung von Funkmasten (als Folge des 11. September wurden alleine 15 Masten in der Nähe des World Trade Centers zerstört), der Zerstörung der Backhaul-Glasfaseranbindung, die den Mast mit dem Netz verbindet (noch viele mehr) und Stromausfällen (die meisten Masten haben nur eine Notstromversorgung von vier Stunden). 2012 unterbrach die Überflutung in Folge des Hurrikan Sandy die Anbindung an mehr als 2000 Funkzellen in acht Bezirken in und um New York City (New Jersey und Connecticut nicht eingeschlossen) und verursachte in 1500 anderen Zellen einen Stromausfall. Hurrikan Katrina brachte im August 2005 über tausend Mobilfunkmasten in Louisiana und Mississippi zu Fall, was die Nothilfeeinsätze extrem erschwerte, da das öffentliche Telefonnetz das einzige gemeinsame Funksystem für die vielen beteiligten Regierungsbehörden war. In den Regionen nördlich von Tokio, die 2011 durch den Tsunami vernichtet wurden, bewirkte die flächendeckende Zerstörung von Mobilfunkmasten geradezu einen Rückschritt in der Geschichte und zwang Bewohner des Internetzeitalters auf Radios, Zeitungen und sogar menschliche Boten zurückzugreifen. „Als die Mobiltelefone nicht mehr funktionierten, führte dies zu Lähmung und Panik”, berichtete der Leiter der Krisenkommunikation der Stadt Miyako der New York Times.

Die größte Bedrohung für Mobilfunknetze in Städten ist jedoch die Bevölkerungsdichte. Da Netzbetreiber versuchen, einen maximalen Profit aus ihren Frequenznutzungsrechten herauszuholen, schaffen sie gewöhnlich eine Infrastruktur, die an einem bestimmten Ort zu einer bestimmten Zeit nur für einen Bruchteil ihrer Nutzer eine Verbindung herstellt. Dieses sorgfältig kalibrierte System wird „Überbelegung“ genannt und verursacht unter normalen Bedingungen, wenn auch die eifrigsten Nutzer nicht mehr als ein paar Stunden am Tag telefonieren, keine Probleme. Während einer Katastrophe allerdings bzw. wenn eine Panik ausbricht, steigt das Gesprächsvolumen extrem an und die Kapazität ist schnell ausgeschöpft. Am Morgen des 11. Septembers zum Beispiel, wurde nur für weniger als einen von zwanzig Anrufern in New York City eine Verbindung hergestellt. Zehn Jahre später hat sich die Situation kaum verändert. Während eines starken aber nicht sehr zerstörerischen Erdbebens im Sommer 2011 an der Ostküste der USA waren die Mobilfunknetze ebenfalls überlastet. In den Medien fand dies kaum Beachtung. Die Ausfälle der Netze in Krisensituationen sind im modernen urbanen Leben mittlerweile so normal geworden, das wir nicht länger hinterfragen, warum sie stattfinden oder wie man das Problem beheben könnte.

Die Störungen in der öffentlichen „Cloud Computing“-Infrastruktur werfen ein Licht auf das Risiko, von Netzwerkanwendungen abhängig zu sein. Amazon Web Services, sozusagen der tonnenschwere Elefant unter den „Public Clouds“, der Tausende von populären Internetseiten betreibt, wurde im April 2011 ganze drei Tage lang von einer schweren Störung heimgesucht. In einem detaillierten Bericht über das Ereignis, den man auf der Internetseite des Konzerns postete, wurde die Störung als – um mit Perrows Worten zu sprechen – „normaler“ Vorfall eingestuft. Durch eine fehlerhafte Konfigurationsänderung im internen Netzwerk des Datenzentrums, die dessen Kapazität verbessern sollte, wurde der gesamte Datenfluss der Einrichtung auf ein Datensicherungsnetzwerk mit niedriger Kapazität verschoben. Unter der enormen Belastung tauchte ein „bislang unbekannter Bug” auf und verhinderte, dass das System ohne das Risiko eines Datenverlusts wiederhergestellt werden konnte. Im Juli 2012 verursachte dann ein heftiges Gewitter einen Stromausfall im Datenzentrum des Unternehmens in Ashburn und führte zum Ausfall von zwei der populärsten Internetservices — Netflix und Instagram. „Amazon Cloud Hit By Real Cloud” witzelte die PC Worlddaraufhin in einer Überschrift.

Die „Cloud“ ist viel weniger zuverlässig als wir glauben, und ihre Fehlbarkeit verursacht möglicherweise jetzt schon einen erheblichen wirtschaftlichen Schaden. Google, das sich mit seiner ausgefeilten Datenzentrumstechnik brüstet, verzeichnete allein 2008 ein halbes Dutzend Ausfälle, die bis zu dreißig Stunden dauerten. Amazon verspricht seinen Cloud-Nutzern eine jährliche verfügbare Betriebszeit von 99,5 Prozent, während Google 99,9 Prozent für seinen Premium Apps-Service ins Feld führt. Das klingt ziemlich beeindruckend, bis man realisiert, dass nach vielen Jahren gehäuft auftretender Ausfälle auch in den anfälligsten Regionen (wie dem Nordosten) die viel geschmähte amerikanische Stromindustrie im Durchschnitt immerhin 99,96 Prozent Betriebszeit erreicht.

Aber bereits diese geringfügige Differenz zwischen Realität und Perfektion ist ziemlich teuer. Massoud Amin von der University of Minnesota zufolge kosten Stromausfälle und Netzqualitätsstörungen die US-Wirtschaft zwischen 80 Milliarden und 188 Milliarden US-Dollar im Jahr. Ein, von der International Working Group veröffentlichtes, vereinfachtes Rechenbeispiel zur Belastbarkeit von Cloud Computing beziffert die wirtschaftlichen Aufwendungen für Cloud-Ausfälle zwischen 2007 und Mitte 2012 mit lediglich 70 Millionen US-Dollar (dies schließt den Ausfall bei Amazon im Juli 2012 nicht ein). Da aber immer weitere, wichtige Funktionen von smarten Städten auf nur wenige anfällige Datenzentren übertragen werden, werden diese Kosten in den kommenden Jahren sicherlich sehr stark zunehmen.

Ausfälle im „Cloud-Computing“ könnten smarte Städte in Zombies verwandeln. Die biometrische Authentifizierung zum Beispiel, mit der individuelle physische Merkmale erfasst werden, um die Identität von Personen zu bestimmen, wird, während wir uns durch die Stadt bewegen, immer stärker unsere Rechte und Privilegien beeinflussen – sie wird uns Zugang zu Gebäuden und Räumen gewähren, Umgebungen personalisieren und digitale Services und Inhalte ermöglichen. Die biometrische Authentifizierung ist aber eine komplexe Angelegenheit, die eine Datenfernübertragung und Berechnung erfordert. Das schlüssellose Eingangssystem in unserem Büro sendet dann vielleicht einen Scan unserer Retina an ein entferntes Datenzentrum, um unsere persönlichen Daten abzugleichen, bevor es uns Einlass gewährt. Eine kontinuierliche Authentifizierung – die Technologie beruht immer auf der Verifizierung der Identität anhand von Erscheinungsbildern, Gesten oder Tippstil – wird wahrscheinlich Passwörter irgendwann überflüssig machen. Solche Systeme sind stark vom Cloud- Computing abhängig und brechen zusammen, wenn die Cloud dies tut. Wenn man mal ein paar Stunden keine Email verschicken kann, ist das nicht so schlimm, wenn aber die Nachbarn alle nicht mehr in ihre Häuser gelassen werden, gewinnt dies eine ganz andere Dimension.

Eine andere Cloud, die da im wahrsten Sinne des Wortes über unseren Köpfen im Himmel schwebt, ist das GPS- Satellitennetzwerk und es ist vielleicht der größte Schwachpunkt der smarten Stadt. Ohne dieses System wissen viele Dinge im Internet einfach nicht, wo sie sich befinden. Die Rivalen der Amerikaner hatten schon lange Bedenken wegen der Abhängigkeit des Netzwerks von 24 Satelliten des US-Verteidigungsministeriums. Aber jetzt bangen sogar die größten Verbündeten Amerikas. Nicht vor der Außerkraftsetzung des GPS durch einen Befehl des Militärs, sondern vielmehr schlichtweg durch Vernachlässigung. Aufgrund eines längst überfälligen und dringend erforderlichen Modernisierungsprogramms für das viele Jahrzehnte alte System hat die amerikanische Regierungsbehörde Government Accountability Office 2009 die Air Force bereits heftig wegen der Verschleppung und Kostenüberschreitungen kritisiert, die den Service lahmzulegen drohten. Und die Risiken angesichts eines GPS-Ausfalls wachsen unaufhaltsam, da die Navigationsintelligenz nunmehr bereits die Industrie und den Verbrauchermarkt durchdringt. Die Royal Academy of Engineering in Großbritannien kam 2011 zu dem Schluss, dass „einer überraschenden Anzahl unterschiedlicher Systeme die Abhängigkeit von GPS gemeinsam ist und ein Ausfall des GPS-Signals das simultane Versagen vieler Service-Leistungen zur Folge haben könnte, die man eigentlich als voneinander unabhängig betrachtet”.

So wird GPS beispielsweise intensiv für die Auffindung mutmaßlicher Straftäter und in der Landvermessung eingesetzt. Funktionsstörungen des GPS-Services würden eine sehr schnelle Wiedereinführung älterer Methoden und Technologien für diese Aufgaben nötig machen. Während Alternativen wie Russlands GLONASS bereits existieren und das Galileo-System der Europäischen Union und Chinas Compass-Satellitennavigationssystem wohl bald zusätzliche Alternativen eröffnen werden, ist anzunehmen, dass GPS noch mit einer ganz eigenen Serie unangenehmer, normaler Ausfälle aufwarten wird. „Keiner weiß wirklich genau”, sagt Martyn Thomas, der Leiter der britischen Studie, „wie sehr wir tatsächlich von schwachen Signalen 12.000 Meilen über uns abhängig sind”.

Die Zentralisierung der Infrastruktur der smarten Stadt ist riskant, eine Dezentralisierung erhöht aber nicht zwangsläufig ihre Widerstandsfähigkeit. Ein schlechtes Management kann ganz eigene, anfällige Strukturen nach sich ziehen, wie das „Bufferbloat”-Problem des Internets zeigt. Das „Buffering“ bzw. Zwischenspeichern als eine Art Getriebe für die Synchronisierung schnell fließender und verstopfter Teile des Internets ist ein wichtiges Werkzeug, um große Datenschübe zu kompensieren und Fehler zu vermeiden.

Jim Getty, ein altgedienter Internetingenieur, stellte 2010 jedoch fest, dass sich die Hersteller von Netzwerkgeräten die rasant fallenden Preise für Speichererweiterungen zunutze gemacht hatten, um die Puffer viel stärker aufzurüsten, als es das anfängliche Engpassmanagement des Internets jemals vorgesehen hatte. „Die Hersteller haben reflexhaft reagiert, um jeglichem Verlust von Datenpaketen vorzubeugen und haben damit unbeabsichtigt einen wichtigen Engpasserkennungsmechanismus außer Kraft gesetzt”, schrieben die Redakteure bei ACM Queue, einer führenden Zeitung für Computervernetzung und verwiesen damit auf den Verkehrspolizisten des Internets, das Transmission Control Protokoll. Die Folge des Bufferbloats waren vermehrte Engpässe und sporadische Verzögerungen. Erschreckend ist, dass das Bufferbloat-Problem eigentlich auf der Hand lag. „Die Probleme, die eine Verzögerung bewirken, sind nicht neu, aber man hat die Folgen ihres kollektiven Zusammenwirkens nicht richtig eingeschätzt…die Buffering-Problematik zeichnet sich schon seit mehr als einem Jahrzehnt ab”.

Die Liste möglicher Verwundbarkeiten smarter Städte, die nur durch Nachlässigkeit oder Programmierfehler verursacht worden ist, ist lang! Was aber, wenn jemand ganz absichtlich einen Ausfall der Technologie herbeiführen will? Die Gefahr der Cyber-Sabotage auf zivile Infrastrukturen beginnen Entscheidungsträger jetzt erst wahrzunehmen. Der Virus Stuxnet, der 2010 Irans Kernwaffenanlagen in Natanz befiel, war nur der Anfang. Viele hielten ihn für das Ergebnis eines gemeinsamen US-Israelischen Angriffs, denn es handelte sich dabei um eine außerordentlich raffinierte und schadhafte Software bzw. Malware, die Computer infizierte, die Industrieanlagen sowie Infrastrukturen steuern und überwachen, ein System welches unter dem Akronym SCADA (Supervisory Control and Data Acquisition) bekannt ist. In Natanz waren 6.000 Zentrifugen im Einsatz, um angereichertes Uran für Bomben herzustellen.

Experten gehen davon aus, dass der auf einem USB-Stick eingeschleuste Stuxnet-Virus das SCADA-System infiziert und die Steuerung der Anlage übernommen hatte. Im Verborgenen soll Stuxnet die Zentrifugen aus dem Gleichgewicht gebracht und zugleich den Betreibern signalisiert haben, dass alles normal läuft. Auf diese Weise hat der Virus über Tausend Maschinen außer Betrieb gesetzt und die Urananreicherung sowie das iranische Kernwaffenprogramm stark gedrosselt.

Die weite Verbreitung von Stuxnet war schockierend. Im Gegensatz zu den lasergesteuerten, gezielt Gebäude zerstörenden, smarten Bomben, die bei einem herkömmlichen Angriff auf die Anlage in Natanz abgeworfen worden wären, attackierte Stuxnet mit der Ungenauigkeit eines Flächenbombardements. Bis der deutsche Experte für Computersicherheit Ralph Langner, der auf SCADA-Systeme spezialisiert ist, den Zweck des unbekannten Virus ergründet hatte, hatte dieser nicht nur die Anlagen im Iran, sondern auch andere, weit entfernt in Pakistan, Indien, Indonesien und sogar in den USA befallen. Bis August 2010 wurde von mehr als 90.000 Stuxnet-Infektionen in 115 Ländern berichtet.

Stuxnet war der erste nachgewiesene Angriff auf ein SCADA-System, aber es dürfte nicht der Letzte gewesen sein. In einem Interview mit CNET empörte sich Langer ein Jahr später darüber, dass die Darstellung in den Medien von einem Angriff auf ein bestimmtes Land ausgegangen wäre. „Könnte es sich nicht auch um eine Bedrohung von anderen Einrichtungen handeln, beispielsweise von wichtigen Infrastrukturen in den USA?”, so seine Frage. „Leider lautet die Antwort hier eindeutig ja, denn so etwas kann leicht kopiert werden. Das ist viel wichtiger als die Frage, wer dahinter steckte.“. Er warnte vor Stuxnet-Trittbrettfahrern und kritisierte die Regierungen und Unternehmen für ihre Selbstgefälligkeit. „Die meisten Leute denken, das war ein Angriff auf eine Anlage für Urananreicherung und wenn man nicht gerade Betreiber einer solchen Anlage ist, bestünde auch keine Gefahr”, so Langer. „Das ist völlig falsch. Der Angriff war auf Steuergeräte von Siemens ausgerichtet und das sind alltägliche Produkte für allgemeine Zwecke. Das gleiche Produkt findet sich auch in Kraftwerken oder sogar in Aufzügen.”

Die Skeptiker halten die Bedrohung durch Stuxnet für überzogen. Die Sprengkraft von Stuxnet war äußerst zielgerichtet. Der Virus war so programmiert, dass er nur die Zentrifugen in Natanz angriff und zwar auf eine sehr spezifische Weise. Am wichtigsten ist jedoch, dass er für den Angriff ein hochwertiges Arsenal von “Zero-Day”-Waffen einsetzte, also Sicherheitslücken ausnutzte, die nur einmal ausgenutzt werden können, da der Softwareanbieter daraufhin ein einfaches Debugged-Update herausgibt. In einem Bericht über den Virus schrieb das Unternehmen für Sicherheitssoftware Symantec: „Es ist erstaunlich, dass Stuxnet vier Zero-Day-Sicherheitslücken auf einmal ausnutzte, das gab es bislang nicht”.

Abgesehen von den einzigartigen Eigenschaften von Stuxnet, sind die meisten eingebetteten Systeme nicht in Bunkern untergebracht und daher immer anfälliger für simple Attacken auf ihre menschlichen Betreiber. Etwas mehr als ein Jahr nachdem man Stuxnet entdeckt hatte, attackierte ein einzelner Hacker mit dem Namen „pr0f” das Wasserversorgungsunternehmen von South Houston, einem kleinen Ort mit 17.000 Einwohnern vor den Toren der bevölkerungsreichsten Stadt von Texas. „pr0f“ war wütend, weil die US-Regierung einen ähnlichen, dokumentierten Vorfall in Springfield in Illinois heruntergespielt hatte und drang in die Siemens SIMATIC Software der Einrichtung, ein internetbasiertes Dashboard für den Fernzugriff auf die SCADA-Systeme des Wasserwerks, ein. Während sich die Attacke in Springfield als falscher Alarm entpuppte – die Sprecher der Behörden behaupteten schließlich, dass man keinen „Beweis für einen Cyber-Angriff “ gefunden habe – stand „pr0f“ schon in den Startlöchern und der Hacker musste dafür noch nicht einmal irgendeinen Code generieren. Es stellte sich heraus, dass der Betreiber der Anlage ein schockierend schwaches, nur aus drei Buchstaben bestehendes Passwort benutzt hatte. Während der Angriff in South Houston sehr leicht hätte vermieden werden können, ist SIMATIC, das einige Sicherheitslücken aufweist, geradezu eine Einladung an Hacker, sich auszutoben. In jenem Sommer demonstrierte der Sicherheitsexperte Dillon Beresford in seiner, ausgerechnet in Houston ansässigen Organisation für Netzwerksicherheit NSSLabs, verschiedene Schwachstellen von SIMATIC und wie diese ausgenutzt werden können. Siemens ist es gelungen, den Kollateralschaden durch Stuxnet abzuwenden, die Mängel von SIMATIC weisen jedoch auf wesentlich größere Risiken hin, denen hier begegnet werden muss.

Eine weitere, bedenkliche Entwicklung, ist die wachsende Anzahl von „Forever Day” –Sicherheitslücken, die in älteren Systemen entdeckt wurden. Im Gegensatz zu „Zero Day“-Attacken, für die Anbieter und Sicherheitsfirmen eigentlich innerhalb von 24 Stunden Gegenmaßnahmen und Korrekturprogramme entwickeln können, zielen „Forever Day“-Viren auf Lücken in eingebetteten Altsystemen ab, die die Hersteller nicht länger unterstützen und für die sie daher keine Patches mehr anbieten. Das Problem betrifft industrielle Steuerungsgeräte von Siemens und GE sowie einer Reihe kleinerer Firmen. Das Cyber Emergency Response Team - die US-Behörde, die Netzsicherheitsmaßnahmen dort koordiniert - widmet der Problematik bereits verstärkt ihre Aufmerksamkeit.

Die sinnvollste Lösung für eine sicherere Infrastruktur in der smarten Stadt wäre sicherlich die Unabhängigkeit vom Internet. Aber das sogenannte Air-Gapping ist bestenfalls eine Notlösung. Denn sowohl Stuxnet als auch Agent.btz – der Virus, der 2008 das globale Computernetzwerk des US-Verteidigungsministeriums infizierte – wurden wohl auf einem USB-Stick und zu Fuß in die Sicherheitseinrichtungen eingeschleppt. Unsichere drahtlose Netzwerke gibt es überall, sie senden sogar aus dem Inneren unserer Körper heraus. Forscher der Sicherheitsfirma McAfee haben erfolgreich Insulinpumpen gekapert und die Geräte darauf programmiert, eine tödliche Dosis Insulin freizugeben und eine Reihe von Computerwissenschaftlern an der Universität von Washington sowie der Universität von Massachusetts konnten so mit Funksignalen implantierte Defibrillatoren im Herzen deaktivieren.

Diese Schwachstellen stellen die offene Struktur des Internets insgesamt in Frage. In jenen Anfangszeiten von ARPANET hätte es niemand für möglich gehalten, in welchem Ausmaß wir digitale Netzwerke in die Versorgungssysteme unserer Gesellschaft einbetten würden - von der Sorglosigkeit ganz zu schweigen, mit der wir das getan haben bzw. den Bedrohungsszenarien, die sich durch feindlich gesonnene Kräfte ergeben.

Wir brauchen neue Standards und vielleicht auch neue Bestimmungen, um sicherzustellen, dass die Bausteine smarter Städte zuverlässig sind. Colin Harrison, der Cheftechniker bei IBM für smarte Städte, sagt „wenn wir in Zukunft ein Computersystem mit einem Teil der wichtigen nationalen Infrastruktur verbinden wollen, muss dies auf mehrfache Weise staatlich geprüft werden.” Darüber hinaus müssen wir schärfere Maßnahmen gegen direkte Angriffe einleiten. Südkorea hat bereits Attacken auf seine zivile Infrastruktur durch nordkoreanische Cyber Warriors erlebt. Einer dieser Angriffe soll die Flugsicherung des Landes für über eine Stunde lahmgelegt haben.

Erst eine schwere Krise wird uns wohl dazu zwingen, den Risiken der infrastrukturellen Schwachpunkte smarter Städte ins Auge zu sehen. Der erste Bürgermeister, der es mit dem Absturz des smarten Systems einer ganzen Stadt zu tun hat, wird Neuland betreten, aber wer wird die Schuld auf sich nehmen? Die Stadt? Das Militär? Der Heimatschutz? Die Technologiefirmen, die sie gebaut haben? Man denke nur an die Komplexität der Frage der Verantwortung im Falle von Stuxnet – wir hätten den Virus vielleicht nie entdeckt, hätte er nicht selbst einen Bug gehabt. Der Wurm wurde von einem arglosen iranischen Ingenieur nach draußen verschleppt. Dort erkannte er nicht, dass er seine Reproduktionsmechanismen außerhalb des Systems deaktivieren musste, daher konnte er sich wie ein echter Virus so stark über den ganzen Globus ausbreiten.

Eine neue Staatsbürgerkunde

Wenn uns die Geschichte des Städtebaus im vergangenen Jahrhundert etwas gelehrt hat, dann wohl, dass die negativen Folgen neuer Technologien ihren Entwicklungszweck häufig in den Schatten stellen. Die Motorisierung versprach den Stadtbewohnern, sie von den mit Pferdemist verschmierten Straßen des 19. Jahrhunderts zu befreien, außerdem stellte sie eine schnelle Landpartie in Aussicht, um den Rauchschwaden der Fabrikschornsteine zu entkommen. Stattdessen fügte sie unserer Landschaft zahlreiche Narben zu und hat uns faul und fettleibig gemacht. Wenn wir die städtische Technologie für das nächste Jahrhundert nicht sehr gründlich überdenken, dann werden wir uns wohl mit ihren unangenehmen Begleiterscheinungen abfinden müssen.

Smarte Städte werden wohl fast zwangsläufig randvoll mit Bugs sein, von smarten Toiletten und Wasserhähnen, die nicht funktionieren, bis hin zu öffentlichen Bildschirmen, die uns den unheilverkündenden „Blue Screen of Death“ von Microsoft präsentieren. Aber auch, wenn ihr Code fehlerfrei ist, werden die Eingeweide smarter Städte so komplex sein, dass die sogenannten normal anzunehmenden Ausfälle unvermeidlich sind. Es bleibt nur die Frage, wann die smarten Städte uns ihren Dienst versagen und wie viel Schaden das nach sich ziehen wird. Die von einem fragilen Stromnetz abhängigen Kommunikationsnetzwerke – das bereits jetzt in Krisenzeiten überlastet und vor Sabotage nicht geschützt ist – die wie ein Flickenteppich die smarte Stadt im Inneren zusammenhalten, haben eine bislang beispiellos anfällige Infrastruktur hervorgebracht.

Das sind zumindest die Aussichten, wenn wir so weitermachen wie bisher. Wir können die Karten neu und zu unserem Vorteil mischen, unsere Chancen erhöhen, doch müssen wir die Möglichkeiten und Herausforderungen des Baus von smarten Städten einer umfassenden Neubetrachtung unterziehen. Dazu gehört, dass wir das Vertrauen in die Giganten der High-Tech-Industrie hinterfragen und lokale Innovationen unterstützen, die sich mit ihrer Bodenständigkeit zu einer echten globalen Bewegung entwickeln können. Und wir müssen unsere zivilgesellschaftlichen Akteure zu langfristigem Denken anhalten, es sollte weniger um Profitstreben gehen, nicht um Wettbewerb, sondern um Kooperation. Vor allem müssen wir den IT-Spezialisten wieder das Ruder aus der Hand nehmen und die Bürger und Kommunen entscheiden lassen, wo es lang gehen soll.

Die Leute fragen mich oft: „Was ist eine smarte Stadt?” Das ist schwierig zu beantworten. „Smart” ist ein problematischer Begriff, der mittlerweile inflationär gebraucht wird. Schon bald dürfte er zu jener Reihe internationaler Worthülsen gehören – vage, evokative Wörter wie „Nachhaltigkeit” und „Globalisierung” – die niemand zu übersetzen sich die Mühe macht, da es keinen Konsens darüber gibt, was sie eigentlich bedeuten. Wenn über smarte Städte geredet wird, kann das gewöhnlich im öffentlichen Sektor so ziemlich jede Innovation umfassen, von Radmietstationen bis zu Pop-up-Parks. Ein umsichtiger Blick in alle Richtungen ist allerdings wichtig, da Städte ganzheitlich betrachtet werden müssen. Neue Technologien einfach zu installieren, egal wie raffiniert und wirkungsvoll sie sind, kann für sich gesehen die Probleme einer Stadt nicht lösen. Dennoch bewegt sich etwas und die Informationstechnologie wird ganz klar Teil der Lösung sein. Und sie verdient es, für sich betrachtet zu werden. Ich neige da zu einer fokussierten Betrachtung und definiere smarte Städte als Orte, an denen Informationstechnologie mit Infrastruktur, Architektur, Alltagsobjekten und sogar unseren Körpern verbunden wird, um soziale, ökonomische und ökologische Probleme zu lösen.

Die wichtigere und interessantere Frage ist wohl „Wie sieht die smarte Stadt in unserer Wunschvorstellung aus?”. Wir müssen vor allem überlegen, wie wir die Technologie gestalten, die wir in den Städten der Zukunft zum Einsatz bringen. Es gibt sehr viele verschiedene Visionen, was die Möglichkeiten betrifft. Fragt man einen IT-Spezialisten bei IBM, dann wird er von Effizienz und Optimierung reden. Ein App-Entwickler hingegen wird von neuen Formen sozialer Interaktion und neuen öffentlichen Erlebnisräumen sprechen. Für den Bürgermeister stehen Partizipation und Demokratie im Vordergrund. In Wahrheit sollten all diese Aspekte bei der Gestaltung von smarten Städten eine Rolle spielen.

Es gilt, diese unterschiedlichen Zielsetzungen abzuwägen. Entscheidend ist dabei eine Verknüpfung von Lösungen, die diese Ziele vereinen und Konflikte abfedern. Smarte Städte müssen effizient sein, dennoch sollten Möglichkeiten für Spontanität, Entdeckungen und Geselligkeit bleiben. Wenn wir alle Zufälligkeiten herausprogrammieren, wird die lebendige und vielfältige Stadt zum langweiligen roboterhaften Automaten. Städte sollen sicher, aber nicht Orte flächendeckender Überwachung sein. Es ist wichtig, dass sie offen und partizipatorisch angelegt sind, aber dennoch jenen genügend Unterstützung bieten, die nicht über die Ressourcen verfügen, sich selbst zu organisieren. Und ganz oben auf der Liste muss integrative Planung stehen. Die berühmte Publizistin Jane Jacobs schreibt in ihrem wegweisenden Buch „The Death and Life of Great American Cities“, dass „Städte das Potenzial haben, für jedermann etwas zu bieten, allerdings nur, wenn sie auch von jedermann geschaffen wurden”. Über fünfzig Jahre später scheinen wir diese mühsam erlernte Wahrheit schon wieder vergessen zu haben, wenn es darum geht die smarten Städte des 21. Jahrhunderts zu gestalten.

Aber es gibt Hoffnung, dass sich in smarten Städten ein neuer, bürgerlicher Gemeinsinn entwickeln wird, der wirklich alle Einwohner in ihrem Bemühen einschließt, einen besseren Ort zum Leben zu gestalten. Die Stadt war früher voll von Unbekannten und zufälligen Begegnungen. Wir können uns heute sofort in den „Social Graph“ einloggen, indem wir einfach nur ein Foto machen. In der „Cloud“ wirbeln die Algorithmen umher und sagen den kleinen Geräten in unseren Taschen, wo wir essen und wen wir daten sollen. Das ist eine erschütternde Veränderung. Aber während die alten Normen in Vergessenheit geraten, lernen wir dieser Vernetzung der Massen etwas abzugewinnen. Über Nacht ist eine Ökonomie des Teilens entstanden, die Menschen tauschen in einer synergetischen Nutzung neuer Technologie und umweltfreundlicherem Konsums alles - von Schlafzimmereinrichtungen bis hin zu Autos. Soziale Onlinenetzwerke werden so auf vielversprechende Weise an die blühenden, urbanen Lebensräume, in denen sie erschaffen wurden, zurückgekoppelt.

Seit nunmehr fünfzehn Jahren verfolge ich den Kampf und die Debatten darüber, wie smarte Städte gestaltet werden sollen. Ich habe diese Entwicklung analysiert und kritisiert, sie teilweise mitgestaltet oder bejubelt. Ich habe für große Unternehmen Prognosen zur Markterkundung erstellt, mit Start-Ups und unabhängigen Hackern zusammengearbeitet, die sich alleine an der Basis abmühen sowie Politiker und deren strategische Referenten beraten, die zögerliche Regierungen zum Handeln zwingen und eine neue Ära einläuten wollten. Ich kenne und unterstütze viele Aspekte ihrer jeweiligen Programme.

Aber ich habe auch die Diskrepanzen, Defizite und falschen Annahmen in den Visionen und Initiativen erlebt, die unter der Fahne der smarten Stadt vorangetrieben wurden. Also übernehme ich die Rolle desjenigen, der mit dem Mythos aufräumt, des Whistleblowers und Skeptikers. Die Technologiebranche möchte, dass wir unsere Welt gemäß ihrer Vision eines effizienten, sicheren und bequemen Lebens gestalten. Abermillionen Dollar werden investiert, um uns davon zu überzeugen, für diese Vision die Zeche zu zahlen. Die Geschichte kennen wir aber schon. So schrieb der Essayist Walter Lippmann über die Weltausstellung von 1939: „General Motors hat ein kleines Vermögen investiert, um die amerikanische Öffentlichkeit davon zu überzeugen, dass sie ihre Städte und Straßen durch öffentliche finanzierte Maßnahmen erneuern müssen, wenn sie in den vollen Genuss der Produkte der privatwirtschaftlich organisierten Automobilindustrie kommen wollen“. Die Technologen singen uns heute das gleiche Lied.

Ich glaube, es gibt einen besseren Weg smarte Städte zu erschaffen, als sich einfach auf die IT-Spezialisten zu verlassen. Wir müssen die zivilgesellschaftlichen Entscheidungsträger stärken, die uns einen anderen Weg weisen. Wir müssen unsere Städte eigenverantwortlich und organisch von unten nach oben entwickeln und dies angesichts der Bedrohung des Klimawandels auch zügig tun. Auch wenn das ein unerreichbares Ziel zu sein scheint, sollte man nicht vergessen, dass schließlich jene Stadt die smarteste ist, in der man selbst lebt. Wenn es sich dafür nicht zu kämpfen lohnt, wofür dann?

www.anthonymobile.com
Auszug aus “Smart Cities:
Big Data, Civic Hackers, and the Quest for a New Utopia”
von Anthony Townsend.
Copyright © 2013 by Anthony Townsend.

Mit freundlicher Unterstützung des Verlags W. W. Norton Company, Inc.

PDF-Download des Artikels
News & Stories › 2014 › April
Smart Cities - Big Data, Hacker und die Frage nach einem neuen Utopia
von Anthony M. Townsend | 1. April 2014
In den Städten der Zukunft sollen hochtechnisierte Netzwerke den Alltag erleichtern. Doch je komplexer die Systeme werden, desto anfälliger sind sie auch für Fehler. Anthony M. Townsend konfrontiert uns mit den äußerst fragilen Systemen einer permanenten Effizienzsteigerung.
Das „Calafia Café“ in Palo Alto ist wohl eines der „smartesten“ Restaurants der Welt. Grund dafür ist das Klientel, das sich hier regelmäßig von dem Koch Charlie Ayers, ehemaliger Küchenchef der Google-Chefetage, bekochen lässt. Dabei stehen aber nicht Nährwert und Geschmackserlebnis des Aufgetischten für die Gäste im Vordergrund. Wir sind schließlich in Kalifornien – Essen dient hier auch der Selbstoptimierung. Jedes Gericht wird sorgfältig mit Zutaten zubereitet, die einen nicht nur schlank bleiben lassen, sondern auch intelligenter und leistungsfähiger machen. So stochern also im Calafia Cafe ein halbes Dutzend Risikokapitalinvestoren in ihrem Löwenzahnsalat. Nachts ist Palo Alto ein verschlafener Vorort, doch tagsüber pulsiert hier das Herz von Silicon Valley, der Ort, an dem sich die begabtesten Wissenschaftler und Entwickler treffen, um ihre Visionen zu verwirklichen. Westlich von dem Cafe liegt die Stanford Universität, der „Googleplex“ erstreckt sich ein paar Meilen weiter östlich. In der Umgebung leben und arbeiten ungefähr eine halbe Million IT-Spezialisten. Ein oder zwei Industrietycoone würden hier nicht weiter auffallen. Steve Jobs kam jedenfalls regelmäßig zum Mittagessen in das Café von Charlie Ayers.

Ich suche die Männertoilette auf und stelle fest, dass das Calafia Café offenbar ein gravierendes technologisches Problem hat. Trotz des hochrangigen Klientels scheint die smarte Toilette den Dienst zu versagen. Ich starre hoffnungsvoll auf ein rotes Licht, das mir aus einer kleinen Plastikbox, dem „Gehirn” des Edelstahl-WCs unnütz entgegen blinkt. Ein Schild darüber verspricht Hilfe. „Falls der Sensor nicht funktioniert, bitte manuelle Spültaste betätigen”. Ich bin gerettet und habe kurzerhand fünfzig Jahre Fortschritt in angewandter Informatik und Industrietechnik umgangen.

Zurück an meinem Tisch versuche ich das Modell für menschliche Ausscheidungen, wie es auf dem CPU der Toilette genannt wird, zurück zu entwickeln. Ich stelle mir ein Labor vor, irgendwo in Japan. Techniker in weißen Kitteln mit Stoppuhren dokumentieren den Stuhlgang einer auf smarten Klos sitzenden Armee von Freiwilligen mit heruntergelassenen Hosen. Die Komplexität des Problems liegt auf der Hand. Soll die Spülung ausgelöst werden, sobald man aufsteht? Oder etwa wenn man sich umdreht? Oder nach einer bestimmten Zeit? Aber wie lange? Und wird das Klo wissen, wenn es eine zweite Spülung braucht? Die technische Aufgabenstellung dürfte in diesem Fall etwas weniger anspruchsvoll sein, als die bemannte Raumfahrt auf den Mond oder die Berechnung des Fahrtwegs zum Flughafen, obwohl derlei Dinge immer ohne weiteres zu funktionieren scheinen.

Meine Verwirrung weicht einem wachsenden Unbehagen. Wie kann es sein, dass man es sogar im Herzen des Silicon Valley einfach hinnimmt, dass smarte Technologie Bugs, launisch und völlig funktionsgestört ist? Im Biotechnologielabor auf der anderen Straßenseite hat vielleicht gerade jemand ein Allerheilmittel gegen Krebs entwickelt und feiert seinen Erfolg nun hier beim Lunch. Auch dieser geniale Erfinder wird, wie ich, die manuelle Spültaste drücken, aber höchstwahrscheinlich nicht weiter darüber nachdenken, dass uns diese neue Welt aus smarter Technologie beständig im Stich lässt. Wir integrieren diese Technologien in unsere Häuser, Gemeinschaften, sogar in unsere Körper – doch auch Experten legen angesichts ihrer Unzulänglichkeit eine beunruhigende Gelassenheit an den Tag. Der Rest von uns wagt sowieso nicht, sie in Frage zu stellen.

Ich weiß ja, ich sollte mir keine Sorgen machen und versuchen, das smarte Klo zu mögen. Aber vielleicht ist dies nur der Vorbote viel größerer Probleme? Was ist, wenn die hochtechnisierten Metropolen den Kern ihrer eigenen Zerstörung bereits in ihrer DNA tragen? Ich war immer der Meinung, dass smarte Städte die Antwort auf die Herausforderungen der Urbanisierung des 21. Jahrhunderts sind und überzeugt, dass trotz möglicher Tücken die Vorteile gegenüber den Risiken überwiegen werden - vor allem wenn wir den unbeabsichtigten Auswirkungen unserer Entscheidungen resolut entgegentreten. In Wahrheit haben wir jedoch bisher nur ein bisschen an der Oberfläche gekratzt.

Was passiert, wenn die smarten Städte der Zukunft anfällig und voller Bugs sind? Auf was haben wir uns da eingelassen?

Bugs überall

Ein paar Wochen später spazierte ich über den Campus des MIT-Instituts in Cambridge in Massachusetts, ohne einen Gedanken an nicht kooperative Toiletten zu verschwenden. Westlich des Kenmore Squares sind es nur ein paar Gehminuten zum neuen Standort des Broad Institutes, einem Monolith aus Glas und Stahl, der ein milliardenteures Forschungszentrum für Genom-Medizin beherbergt. An der Gebäudefassade zur Straße hin gab es eine ganze Reihe von Anzeigetafeln, deren Displays unendliche Sequenzen von DNA-Basenpaaren in Echtzeit zeigten, wie sie oben im Gebäude von den Maschinen erfasst wurden. Und dann sah ich ihn plötzlich, aus dem Augenwinkel: den ‘Blue Screen of Death’, die gefürchtete blaue Anzeige von Microsoft Windows, die einen Systemabsturz ankündigt. Verzweifelt schaute ich durch das Glas auf den einsamen Bildschirm. Anstatt des unablässigen Stroms genetischer Offenbarungen präsentierte sich mir eine sinnlose Aneinanderreihung von Hexadezimalen, die präzise darüber Auskunft gaben, an welcher Stelle einer Zentralrecheneinheit eine einzelne Fehlberechnung aufgetreten war. Ausgerechnet an jenem Ort, an dem ich die historisch bedeutungsvolle Verschmelzung von menschlicher und künstlicher Intelligenz zu finden gehofft hatte, stieß ich auf einen Bug.

Der Begriff „Bug“ stammt von dem alten walisischen Wort „bwg“(„boog” ausgesprochen) ab und wird im Englischen schon lange als umgangssprachliche Bezeichnung für Insekten gebraucht. Die Entlehnung des Begriffs, um technisches Fehlverhalten bzw. ein Programmfehler zu beschreiben, geht auf den Beginn des Telekommunikationszeitalters zurück. Die ersten Fernschreiber, erfunden um 1840, basierten auf zwei Kabeln, eines zum Senden und Eines zum Empfangen der Telegramme. In den 1870ern wurden Duplex-Telegrafen entwickelt, die eine simultane Übertragung von Botschaften in beide Richtungen über ein einzelnes Kabel ermöglichten. Das Knistern und Rauschen in der Leitung bezeichnete man als „Bugs” - ein Geräusch, als würden kleine Tiere oder Käfer an den Drähten knabbern. Thomas Edison selbst benutzte den Ausdruck in einem Brief, den er 1878 an den ungarischen Erfinder Puskás Tivadar schrieb. Tivadar hatte eine Telefonschaltanlage entwickelt, bei der erstmals einzelnen Leitungen zu einem Netzwerk verbunden werden konnten. Laut einer frühen Bestandsaufnahme des von Edison selbst erfundenen Quadruplextelegrafens, einem verbesserten Telegrafen, der in jede Richtung zwei Signale senden konnte, gehörte der Begriff 1890 bereits zum Fachjargon. Der erste aktenkundige Computer-Bug war jedoch tatsächlich ein Insekt. Im September 1947 führten Wissenschaftler der US-Marine mit Dozenten der Harvard Universität einen Probelauf des Mark II Aiken Relay Calculator durch, als dieser plötzlich ins Stocken geriet. Sie öffneten den primitiven, elektromechanischen Computer umgehend und fanden eine Motte zwischen zwei Relais. Auf einer Internetseite von Marinehistorikern findet sich immer noch ein Foto der Seite aus dem Logbuch des Labors, in das jemand sorgfältig die Motte eingeklebt und folgenden Kommentar dazu geschrieben hatte: „Das erste Mal, das tatsächlich ein Bug gefunden wurde.” Der Legende nach handelte es sich dabei um Grace Hopper, eine Programmiererin, die später eine wichtige Rolle im Bereich der Computerwissenschaft spielen sollte (Hoppers Biograf bestreitet jedoch, dass der Begriff „Bug” hier zum ersten Mal verwendet worden ist, um einen Programmierfehler zu beschreiben und weist darauf hin, dass er “eindeutig schon zuvor gebraucht worden ist.“)

Seit jenem Tag sind Bugs, als Resultat der enormen Komplexität und erbarmungslosen Geschwindigkeit der technologischen Entwicklungen, überall in unserer digitalen Welt heimisch geworden. Wie werden sich diese aber in der smarten Stadt bemerkbar machen? Vielleicht treten sie einzeln auf, wie im Falle der defekten Toilette oder der abgestürzten Anzeigetafel im öffentlichen Raum. 2007 brannte ein Waggon der Untergrundbahn in Washington infolge einer Überspannung, nachdem die Software, die zur Erkennung solcher Defekte entwickelt worden war, diese nicht erkannt hatte. Der vorläufige Rückgriff auf den älteren und zuverlässigeren Code nahm nur zwanzig Minuten in Anspruch, während die Ingenieure derweil mit einer groß angelegten, systematischen Überprüfung und Fehlersuche beschäftigt waren.

Manche, auf den Maßstab städtischer Systeme übertragene Bugs, dürften jedoch in den entsprechenden Netzwerken enorme Auswirkungen haben - mit katastrophalen Konsequenzen. Ein Jahr vor dem Feuer in der Untergrundbahn führte ein Fehler in der Programmsteuerung des BART Systems in San Francisco zu einer systemübergreifenden Abschaltung und zwar nicht nur einmal, sondern dreimal innerhalb von 72 Stunden. Noch beunruhigender ist hier allerdings die Tatsache, dass der ursprüngliche Versuch, den fehlerhaften Code zu berichtigen, die Lage noch verschärfte. Im Rahmen einer offiziellen Untersuchung gab man später bekannt, dass „die Mitarbeiter von BART sofort mit der Konfiguration eines Backup-Systems begonnen haben, das nach zukünftigen Softwarefehlern eine schnellere Wiederherstellung ermöglicht”. Zwei Tage nach dem ersten Fehler „zog die Arbeit am Backup-System versehentlich einen Hardware-Fehler nach sich, der wiederum zum bislang längsten Ausfall führte”. Glücklicherweise wurde bei diesen Zwischenfällen niemand verletzt, allerdings waren die ökonomischen Folgen gewaltig – 2005 belief sich der wirtschaftliche Schaden der zweieinhalbtägigen Abschaltung der New Yorker Untergrundbahn während eines Streiks auf ungefähr eine Milliarde US-Dollar.

Die Schwierigkeiten der Automatisierung von Transportsystemen sind lediglich die Vorboten der Probleme, mit denen wir in der smarten Stadt konfrontiert werden. So beunruhigend gegenwärtig auftretende Programmierfehler auch sein mögen, so sind sie doch auch eine Messlatte für Verlässlichkeit. Aktuelle smarte Systeme wurden mit größter Gewissenhaftigkeit entwickelt und umfassend getestet. Sie verfügen über Ausfallsicherungen auf mehreren Ebenen. Angesichts der zunehmenden Dringlichkeit urbaner Probleme und der Tatsache, dass es fraglich ist, ob wir die Ressourcen und den Willen besitzen, diese zu beheben, werden in Zukunft wohl viele smarte Technologien unter Zeitdruck und mit knappen Budgets schnell zusammengeschustert werden. Das jetzige Maß an Ausfallsicherheit mit nur einigen sporadischen und kurzfristigen Funktionsstörungen werden sie nur schwerlich erfüllen.

Die schiere Größe von smarten Systemen im städtischen Maßstab bringt eine ganz eigene Problematik mit sich. Städte und ihre Infrastruktur sind bereits die komplexesten Strukturen, die die Menschheit je geschaffen hat. Ihre Verflechtung mit ebenso komplexen Informationsverarbeitungsprozessen erzeugt zwangsläufig vielfältige, neue Möglichkeiten für Bugs und damit auch unvorhergesehene Wechselwirkungen. Kenneth Duda, ein Experte für Hochleistungsnetze, schrieb in der New York Times „dass der größte Feind die Komplexität ist, gemessen in Codezeilen oder Interaktionen”. Ellen Ullman, Publizistin und früher Softwareentwicklerin, weist darauf hin „dass es niemals möglich ist, ein Computersystem vollständig zu testen. Wer das für möglich hält, versteht nicht, wie ein solches System aufgebaut ist. Es handelt sich nicht um ein einzelnes Programmierungselement, das als Ganzes von einem Unternehmen entwickelt wird. Vielmehr geht es um eine Sammlung von „Modulen“, die miteinander verbunden werden…Das daraus entstehende System ist ein Gewirr aus verdrahteten Black Boxen, die durch nur schwer zu verstehende „Interfaces“ miteinander kommunizieren. Ein Programmierer auf der einen Seite des Interfaces kann nur hoffen, dass der Programmierer auf der anderen Seite die Sache richtig verstanden hat.”

Der Soziologe Charles Perrow hat 1984 in seiner wegweisenden Studie „Normal Accidents“ über technologische Desaster darauf hingewiesen, dass Störfälle in hochkomplexen Systemen mit vielen eng miteinander verbundenen Elementen unvermeidlich sind. Schlimmer noch ist allerdings die Tatsache, dass herkömmliche Ansätze zur Risikominderung wie Warnungen oder Alarmsignale (oder die Installation des Datensicherungs- und Wiederherstellungssystems für BART) den Systemen nur eine zusätzliche Komplexität hinzufügen und somit die Risiken erhöhen. Die Atomkatastrophe von Tschernobyl zum Beispiel wurde von einer unumkehrbaren Kettenreaktion in Gang gesetzt, die durch Tests für ein neues Reaktorsicherheitssystem ausgelöst wurde. Perrows Schlussfolgerung lautet: „Die meisten hochriskanten Systeme haben über ihre toxischen, explosiven oder genetischen Gefahren hinaus spezielle Eigenschaften, die Störfälle unvermeidlich machen, das ist sogar „normal“”.

Normale Störfälle werden in smarten Städten also allgegenwärtig sein. So wie das rasante Fortschreiten der Urbanisierung eine minderwertige Baupraxis hervorgebracht hat – vor allem in China mit seinen berüchtigten „Tofu-Gebäuden” – werden hastig konzipierte smarte Städte technologische Schwachpunkte haben, die Anwendungsentwickler und Bauunternehmer dadurch erzeugen, dass sie versuchen, so wenig Aufwand wie möglich zu betreiben. Diese übereilten Notlösungen lassen frühere Defizite in der Entwicklung wie den Y2K-Bug vergleichsweise unbedeutend erscheinen. Der größte Bug der Geschichte resultierte in der frühen EDV-Ära aus einem Trick. Um Speicherplatz zu sparen, wurden bei Datumsangaben lediglich die beiden letzten Stellen der Jahreszahl verwendet - das führte dazu, dass in den späten 1990er Jahren weltweit Millionen von Codezeilen umgeschrieben werden mussten. Im Laufe der Jahrzehnte boten sich viele Gelegenheiten, um Y2K rückgängig zu machen, Tausende von Organisationen schoben die Behebung des Bugs jedoch lieber auf, was am Ende 300 Milliarden US-Dollar an Kosten verursachte, als der Fehler schließlich behoben wurde. Die Bugs in der smarten Stadt werden heimtückischer sein und in vielen wesentlichen und miteinander verbundenen Systemen auftreten. Mitunter wird es vielleicht nicht möglich sein, die Wirkungszusammenhänge vorauszusehen. Wer hätte jenen massiven Verkehrsstau auf der amerikanischen Autobahn US Interstate 80 vorausahnen können, als 2012 ein Programmierfehler im System, der für die Einberufung einer Jury in Placer County in Kalifornien irrtümlicherweise 1200 Leute einlud, die sich am gleichen Tag zum Einsatz melden sollten?

Die Allgegenwärtigkeit von Bugs in smarten Städten ist alarmierend. Wir haben noch keine klare Vorstellung davon, wo die größten Risiken liegen, wann und wie sie Systeme zum Abstürzen bringen werden oder wie die Auswirkungen etwaiger Kettenreaktionen aussehen könnten. Wer soll eingreifen, wenn eine smarte Stadt abstürzt? Und wie werden die Einwohner dabei helfen, die Stadt von solchen Fehlern zu befreien? Heutzutage schicken wir gewöhnlich anonyme Meldungen über Programmierfehler, wenn unser Desktop abstürzt. Kann man dieses Modell auf die Welt der eingebetteten und omnipräsenten EDV-Systeme übertragen?

Paradoxerweise könnten durch Bugs in smarten Städten die Forderungen nach mehr Demokratie verstärkt werden. Wade Roush, der sich mit den Reaktionen von Bürgern auf große technologische Desaster befasst hat, kam zu dem Schluss, dass „Funktionsstörungen in großen technologischen Systemen viele Laien zu Experten werden lassen und diese radikaler werden, wodurch sie existierende technologische Pläne durchschauen und die Kompetenz und Befugnis jener Leute hinterfragen können, die sie geschaffen haben”.

Diese Reaktionen der Öffentlichkeit auf derlei Katastrophen, so folgert er, habe die Entwicklung „einer neuen kulturellen Unterströmung der „technologisch versierten Bürgerschaft“ beflügelt, die über ein größeres Wissen verfügt und den komplexen Systemen, wie sie moderne Gesellschaften durchdringen, skeptisch gegenüber steht”.

Wenn sich die erste Generation der smarten Städte tatsächlich auf verhängnisvolle Weise als fehlerhaft erweist, dann könnte auf ihren Überbleibseln doch vielleicht die fruchtbare Grundlage für belastbarere und demokratischere Modelle geschaffen werden.

Werden unsere neuen Helden in der smarten Stadt jene wenigen Wagemutigen sein, die in das Leitungsnetz abtauchen und es von Bugs befreien? Ich ließ den Blue Screen of Death des Broad Institutes hinter mir und ging im Regen zurück zu meinem Hotel. Irgendwie erinnerte mich all das an den Film Brazil von 1985 von Terry Gilliam, einem Mitglied von Monty Python, in dem das Szenario einer durchgedrehten, autokratisch smarten Stadt prophezeit wird. In meinem Zimmer angekommen, schaltete ich meinen Laptop ein und startete über Netflix den Stream dieses Films. In der Eröffnungsszene hockt der Protagonist Sam Lowry schwitzend vor einem geöffneten Kühlschrank, als plötzlich das Telefon klingelt und sich Harry Tuttle, gespielt von Robert De Niro, am anderen Ende des Telefons meldet. „Sind Sie von Central Services?” fragt Lowry und spielt damit auf die gleichgültige Bürokratie an, die für die Aufrechterhaltung der Infrastruktur in der Stadt zuständig ist. „Die sind zurzeit ein bisschen überlastet”, antwortet Tuttle. „Glücklicherweise habe ich Ihren Anruf abgefangen”. Tuttle ist ein Guerilla-Mechaniker, ein Smart-City-Hacker, der tapfer versucht, die Grundversorgung der Einwohner am Laufen zu halten. „Dieses ganze System könnte in Flammen stehen und ich könnte noch nicht einmal den Wasserhahn in der Küche zum Löschen aufdrehen, ohne ein 27B/6-Formular auszufüllen.” Es bleibt nur zu hoffen, dass dieses Szenario nur eine Fiktion bleibt. Manchmal scheint sie gar nicht so weit hergeholt.

Anfälligkeit

Schöpfungsmythen beruhen genauso auf Glauben, wie auf Fakten. Das Internet bildet da keine Ausnahme. Netzbürger auf der ganzen Welt glauben, dass das Internet als eine Art militärisches Kommunikationsnetzwerk entwickelt wurde, das einen nuklearen Angriff überstehen würde.

Das Märchen nimmt in den frühen 1960er Jahren mit der Veröffentlichung von „On Distributed Communications” von Paul Baran, einem Forscher des RAND Think Tank, seinen Anfang. Baran war beauftragt worden, ein Modell für ein unzerstörbares Telekommunikationsnetzwerk für die US Air Force zu entwickeln. Die Strategen des Kalten Krieges befürchteten, dass die „Speichenarchitektur“ des Telefonsystems einen unberechenbaren Erstschlag der Sowjets nicht überstehen würde. Ohne ein funktionierendes Kommunikationsnetzwerk wäre die USA nicht in der Lage, einen Gegenangriff zu koordinieren und das strategische Gleichgewicht der „gesicherten, gegenseitigen Zerstörung” zwischen den Supermächten wäre in Gefahr. Baran plädierte dem aus Harvard stammenden Wissenschaftshistoriker Peter Galison zufolge „für einen Plan, der die vollständige Entfernung entscheidender Netzknoten aus dem Telefonsystem vorsah”. In „On Distributed Communications” und einer Reihe von Pamphleten, die folgten, demonstrierte er auf mathematische Weise wie ein weniger zentralisiertes Gitter aus Netzknoten, die durch redundante Links verbunden wären, eine heftige Beschädigung überstehen könnten, ohne in isolierte Abschnitte aufgespalten zu werden. Die Idee wurde von der Advanced Research Projects Agency (ARPA) des Pentagon aufgegriffen, eine Gruppe, die forciert Forschung und Entwicklung betreiben sollte, um den peinlichen Rückstand gegenüber den Sowjets einzuholen, die 1957 das Sputnik-Raumfahrtprogramm gestartet hatten. ARPANET, der Vorläufer des Internets wurde in den frühen 1970er Jahren eingeführt. So die Legende.

Die wahre Geschichte ist etwas prosaischer. Es gab in der Tat Bedenken angesichts der Überlebensfähigkeit von militärischen Kommunikationsnetzwerken. Aber RAND war lediglich eine von mehreren Forschungsgruppen, die sich zu jener Zeit einer Neubetrachtung von Kommunikationsnetzwerken widmeten – so gab es parallele Forschungsaktivitäten für eine dezentralisierte Kommunikation unter der Leitung von Lawrence Roberts am MIT und von Donald Davies und Roger Scantlebury im United Kingdom’s National Physical Laboratory. Die einzelnen Gruppen wussten nichts von den Bestrebungen der jeweils anderen, bis Roberts 1967 auf einer, von der Association for Computing Machinery in Gatlinburg in Tennessee organisierten, Konferenz Scantlebury zufällig traf, der zu diesem Zeitpunkt bereits von Barans früheren Erkenntnissen gehört hatte. Und ARPANET war nebenbei auch keine militärische Kommandostruktur für Amerikas nukleares Arsenal oder dergleichen. Es war noch nicht einmal geheim. Es handelte sich de facto um ein Forschungsnetzwerk. 2004 erklärte Robert Taylor, der dem ARPANET Projekt für das Pentagon vorstand, in einer weit verbreiteten Email: „Die Schaffung des ARPA Netzes ist nicht durch Kriegserwägungen entstanden. Es wurde geschaffen, um Leuten mit gemeinsamen Interessen durch interaktive Computeraktivitäten auch über größere geografische Entfernungen hinweg zu ermöglichen, zueinander Verbindung aufzunehmen.” Viele glauben auch weiterhin, das Netz sei weit verzweigt, so wie es Baran vorschwebte, aber es ist vielleicht das am stärksten zentralisierte Kommunikationsnetzwerk der Geschichte. Am Anfang war ARPANET tatsächlich nicht weit vom dezentralisierten Ideal entfernt. In einer Karte des wachsenden Netzwerkes aus dem Jahr 1977 sieht man mindestens vier redundante, transkontinentale Leitungswege, die auf gemieteten Telefonleitungen der Firma AT&T liefen und wichtige Rechenzentren in Boston, Washington, Silicon Valley und Los Angeles miteinander verbanden. Städtische Leitungsschleifen sorgten in diesen Regionen für eine zusätzliche Redundanz. Wenn die Verbindung zum Nachbarn zusammenbrach, konnte man immer noch aus der anderen Richtung Datenpakete verschicken. Das ist heute noch genauso üblich.

Das Pentagon hätte das Projekt, welches immer als Experiment betrachtet worden war, 1987 eingestellt, aber die Forschungsgemeinschaft hatte Blut geleckt und es wurden Pläne geschmiedet, die Kontrolle an die National Science Foundation zu übergeben, die den zivilen Anteil am ARPANET an das eigene Forschungsnetzwerk NSFNET koppelte, welches ein Jahr zuvor eingeführt worden war. Im Juli 1988 schaltete NSFNET ein neues nationales Backbone-Netz, welches das redundante und dezentralisierte Netz von ARPANET zugunsten einer effizienteren und wirtschaftlicheren „Hub and Spoke-Systems“ fallen ließ. Ähnlich wie das heutige Luftverkehrsnetz, haben Universitätsbündnisse ihre Ressourcen zusammengeführt, um ihre eigenen, regionalen Feedernetze (häufig mit erheblicher Förderung der NSF) einzusetzen, die an verschiedenen Knotenpunkten, welche strategisch über das Land verteilt waren, mit dem Backbone-Netz verbunden waren.

Im April 1995, also nur sieben Jahre später, übergab die National Science Foundation die Leitung an den privaten Sektor. Dieser Schritt sollte zu einer noch größeren Zentralisierung führen, da lediglich vier Hauptinterkonnektionspunkte bestimmt wurden, durch die die Bits durch das Land geleitet wurden. Diese außerhalb von San Francisco, Washington, Philadelphia und Chicago liegenden Knotenpunkte bildeten nicht nur das Zentrum des amerikanischen, sondern des weltweiten Internets. Zu jener Zeit wurde eine von Europa nach Asien versandte Email mit größter Wahrscheinlichkeit durch Virgina und Kalifornien geleitet. Und seither wurden die Dinge noch weiter zentralisiert. An einem dieser Knotenpunkte in Ashburn, Virginia, befindet sich die wohl weltweit größte Konzentration von Datenzentren mit etwa vierzig Gebäuden und einer gemeinsamen Grundfläche von ungefähr 22 Walmart Supercentern. Andernorts ist die Internetinfrastruktur mit zuvor existierenden Handelszentren verschmolzen.

Heutzutage müsste man nur ein paar Gebäude in Manhattan, in denen die weltweit größten Netzwerkanbieter miteinander verbunden sind, einreißen — 60 Hudson Street, 111 Eighth Avenue, Broadway 25 — und könnte damit einen großen Teil der transatlantischen Internetkapazität lahmlegen (das Glasfaserkabel ist nicht die erste Technologie, die den Broadway 25 mit Europa verbindet. Das elegante Bauwerk diente bis in die 1960er Jahre bereits als Hauptsitz und zentrale Ticketverkaufsstelle für die großen Dampfschiffe der Cunard Line, die den Ozean überquerten.)

Trotz vieler offenkundiger Mängel wurde der Schöpfungsmythos des vermeintlich atombombensicheren Internets noch durch die Tatsache bekräftigt, dass es die wenigen Anlässe, bei denen es tatsächlich bombardiert worden ist, überraschend unbeschadet beließ. Im Frühjahr 1999 konnten trotz der Bombardierung von Serbien durch die NATO, die explizit auf Telekommunikationseinrichtungen und das Stromnetz ausgerichtet war, viele der Internetprotokollnetze des Landes ihre Verbindung mit der Außenwelt aufrechterhalten. Auch den Anschlag vom 11. September hat das Internet größtenteils unversehrt überstanden. Allein in Manhattan brachen ca. 3 Millionen Telefonleitungen zusammen – ein, von der Größe her, mit der Schweiz vergleichbares Netz – und zwar lediglich durch die Beschädigung des Gebäudes einer Telefongesellschaft in der Nähe des World Trade Center. Rundfunk- und Fernsehstationen wurden durch die Zerstörung des Nordturmes lahm gelegt, auf dessen Dach ein ganzer Wald von Antennen jeder Größenordnung und für die unterschiedlichsten Zwecke gestanden hatte. Panikanrufe im ganzen Land brachten das Telefonsystem zum Erliegen. Das Internet hingegen flackerte noch nicht einmal.

Während das Internet jedoch seine disparate Unversehrtheit bewahren kann, ist die technologische Infrastruktur von smarten Städten wesentlich anfälliger. Da wir immer mehr Netzwerke haben, die immer fragiler werden und einzelne Ausfallursachen auf den noch widerstandsfähigen Kern des Internets aufschichten, werden große Funktionsausfälle immer wahrscheinlicher. Und angesichts der Tatsache, dass über diese Kanäle auch zunehmend allerlei wirtschaftliche, soziale und staatliche Dienste abgewickelt werden, werden die Risiken noch größer.

Besonders bedenklich ist unsere zunehmende Abhängigkeit von ungebundenen Netzwerken, die uns dem Erbarmen eines fragilen, letzten drahtlosen Sprungs zwischen unseren Geräten und dem Funkmast ausliefert. Mobilnetze sind bei weitem nicht so widerstandsfähig wie das Internet. Sie sind sozusagen die zu Ohnmachtsanfällen neigenden Damen der Netzwerkwelt – wenn es richtig heiß wird, fallen sie zuerst um und verursachen dabei den größten Rummel.

Mobile Netzwerke versagen in Krisen auf unterschiedlichste Weise ihren Dienst - durch die Beschädigung von Funkmasten (als Folge des 11. September wurden alleine 15 Masten in der Nähe des World Trade Centers zerstört), der Zerstörung der Backhaul-Glasfaseranbindung, die den Mast mit dem Netz verbindet (noch viele mehr) und Stromausfällen (die meisten Masten haben nur eine Notstromversorgung von vier Stunden). 2012 unterbrach die Überflutung in Folge des Hurrikan Sandy die Anbindung an mehr als 2000 Funkzellen in acht Bezirken in und um New York City (New Jersey und Connecticut nicht eingeschlossen) und verursachte in 1500 anderen Zellen einen Stromausfall. Hurrikan Katrina brachte im August 2005 über tausend Mobilfunkmasten in Louisiana und Mississippi zu Fall, was die Nothilfeeinsätze extrem erschwerte, da das öffentliche Telefonnetz das einzige gemeinsame Funksystem für die vielen beteiligten Regierungsbehörden war. In den Regionen nördlich von Tokio, die 2011 durch den Tsunami vernichtet wurden, bewirkte die flächendeckende Zerstörung von Mobilfunkmasten geradezu einen Rückschritt in der Geschichte und zwang Bewohner des Internetzeitalters auf Radios, Zeitungen und sogar menschliche Boten zurückzugreifen. „Als die Mobiltelefone nicht mehr funktionierten, führte dies zu Lähmung und Panik”, berichtete der Leiter der Krisenkommunikation der Stadt Miyako der New York Times.

Die größte Bedrohung für Mobilfunknetze in Städten ist jedoch die Bevölkerungsdichte. Da Netzbetreiber versuchen, einen maximalen Profit aus ihren Frequenznutzungsrechten herauszuholen, schaffen sie gewöhnlich eine Infrastruktur, die an einem bestimmten Ort zu einer bestimmten Zeit nur für einen Bruchteil ihrer Nutzer eine Verbindung herstellt. Dieses sorgfältig kalibrierte System wird „Überbelegung“ genannt und verursacht unter normalen Bedingungen, wenn auch die eifrigsten Nutzer nicht mehr als ein paar Stunden am Tag telefonieren, keine Probleme. Während einer Katastrophe allerdings bzw. wenn eine Panik ausbricht, steigt das Gesprächsvolumen extrem an und die Kapazität ist schnell ausgeschöpft. Am Morgen des 11. Septembers zum Beispiel, wurde nur für weniger als einen von zwanzig Anrufern in New York City eine Verbindung hergestellt. Zehn Jahre später hat sich die Situation kaum verändert. Während eines starken aber nicht sehr zerstörerischen Erdbebens im Sommer 2011 an der Ostküste der USA waren die Mobilfunknetze ebenfalls überlastet. In den Medien fand dies kaum Beachtung. Die Ausfälle der Netze in Krisensituationen sind im modernen urbanen Leben mittlerweile so normal geworden, das wir nicht länger hinterfragen, warum sie stattfinden oder wie man das Problem beheben könnte.

Die Störungen in der öffentlichen „Cloud Computing“-Infrastruktur werfen ein Licht auf das Risiko, von Netzwerkanwendungen abhängig zu sein. Amazon Web Services, sozusagen der tonnenschwere Elefant unter den „Public Clouds“, der Tausende von populären Internetseiten betreibt, wurde im April 2011 ganze drei Tage lang von einer schweren Störung heimgesucht. In einem detaillierten Bericht über das Ereignis, den man auf der Internetseite des Konzerns postete, wurde die Störung als – um mit Perrows Worten zu sprechen – „normaler“ Vorfall eingestuft. Durch eine fehlerhafte Konfigurationsänderung im internen Netzwerk des Datenzentrums, die dessen Kapazität verbessern sollte, wurde der gesamte Datenfluss der Einrichtung auf ein Datensicherungsnetzwerk mit niedriger Kapazität verschoben. Unter der enormen Belastung tauchte ein „bislang unbekannter Bug” auf und verhinderte, dass das System ohne das Risiko eines Datenverlusts wiederhergestellt werden konnte. Im Juli 2012 verursachte dann ein heftiges Gewitter einen Stromausfall im Datenzentrum des Unternehmens in Ashburn und führte zum Ausfall von zwei der populärsten Internetservices — Netflix und Instagram. „Amazon Cloud Hit By Real Cloud” witzelte die PC Worlddaraufhin in einer Überschrift.

Die „Cloud“ ist viel weniger zuverlässig als wir glauben, und ihre Fehlbarkeit verursacht möglicherweise jetzt schon einen erheblichen wirtschaftlichen Schaden. Google, das sich mit seiner ausgefeilten Datenzentrumstechnik brüstet, verzeichnete allein 2008 ein halbes Dutzend Ausfälle, die bis zu dreißig Stunden dauerten. Amazon verspricht seinen Cloud-Nutzern eine jährliche verfügbare Betriebszeit von 99,5 Prozent, während Google 99,9 Prozent für seinen Premium Apps-Service ins Feld führt. Das klingt ziemlich beeindruckend, bis man realisiert, dass nach vielen Jahren gehäuft auftretender Ausfälle auch in den anfälligsten Regionen (wie dem Nordosten) die viel geschmähte amerikanische Stromindustrie im Durchschnitt immerhin 99,96 Prozent Betriebszeit erreicht.

Aber bereits diese geringfügige Differenz zwischen Realität und Perfektion ist ziemlich teuer. Massoud Amin von der University of Minnesota zufolge kosten Stromausfälle und Netzqualitätsstörungen die US-Wirtschaft zwischen 80 Milliarden und 188 Milliarden US-Dollar im Jahr. Ein, von der International Working Group veröffentlichtes, vereinfachtes Rechenbeispiel zur Belastbarkeit von Cloud Computing beziffert die wirtschaftlichen Aufwendungen für Cloud-Ausfälle zwischen 2007 und Mitte 2012 mit lediglich 70 Millionen US-Dollar (dies schließt den Ausfall bei Amazon im Juli 2012 nicht ein). Da aber immer weitere, wichtige Funktionen von smarten Städten auf nur wenige anfällige Datenzentren übertragen werden, werden diese Kosten in den kommenden Jahren sicherlich sehr stark zunehmen.

Ausfälle im „Cloud-Computing“ könnten smarte Städte in Zombies verwandeln. Die biometrische Authentifizierung zum Beispiel, mit der individuelle physische Merkmale erfasst werden, um die Identität von Personen zu bestimmen, wird, während wir uns durch die Stadt bewegen, immer stärker unsere Rechte und Privilegien beeinflussen – sie wird uns Zugang zu Gebäuden und Räumen gewähren, Umgebungen personalisieren und digitale Services und Inhalte ermöglichen. Die biometrische Authentifizierung ist aber eine komplexe Angelegenheit, die eine Datenfernübertragung und Berechnung erfordert. Das schlüssellose Eingangssystem in unserem Büro sendet dann vielleicht einen Scan unserer Retina an ein entferntes Datenzentrum, um unsere persönlichen Daten abzugleichen, bevor es uns Einlass gewährt. Eine kontinuierliche Authentifizierung – die Technologie beruht immer auf der Verifizierung der Identität anhand von Erscheinungsbildern, Gesten oder Tippstil – wird wahrscheinlich Passwörter irgendwann überflüssig machen. Solche Systeme sind stark vom Cloud- Computing abhängig und brechen zusammen, wenn die Cloud dies tut. Wenn man mal ein paar Stunden keine Email verschicken kann, ist das nicht so schlimm, wenn aber die Nachbarn alle nicht mehr in ihre Häuser gelassen werden, gewinnt dies eine ganz andere Dimension.

Eine andere Cloud, die da im wahrsten Sinne des Wortes über unseren Köpfen im Himmel schwebt, ist das GPS- Satellitennetzwerk und es ist vielleicht der größte Schwachpunkt der smarten Stadt. Ohne dieses System wissen viele Dinge im Internet einfach nicht, wo sie sich befinden. Die Rivalen der Amerikaner hatten schon lange Bedenken wegen der Abhängigkeit des Netzwerks von 24 Satelliten des US-Verteidigungsministeriums. Aber jetzt bangen sogar die größten Verbündeten Amerikas. Nicht vor der Außerkraftsetzung des GPS durch einen Befehl des Militärs, sondern vielmehr schlichtweg durch Vernachlässigung. Aufgrund eines längst überfälligen und dringend erforderlichen Modernisierungsprogramms für das viele Jahrzehnte alte System hat die amerikanische Regierungsbehörde Government Accountability Office 2009 die Air Force bereits heftig wegen der Verschleppung und Kostenüberschreitungen kritisiert, die den Service lahmzulegen drohten. Und die Risiken angesichts eines GPS-Ausfalls wachsen unaufhaltsam, da die Navigationsintelligenz nunmehr bereits die Industrie und den Verbrauchermarkt durchdringt. Die Royal Academy of Engineering in Großbritannien kam 2011 zu dem Schluss, dass „einer überraschenden Anzahl unterschiedlicher Systeme die Abhängigkeit von GPS gemeinsam ist und ein Ausfall des GPS-Signals das simultane Versagen vieler Service-Leistungen zur Folge haben könnte, die man eigentlich als voneinander unabhängig betrachtet”.

So wird GPS beispielsweise intensiv für die Auffindung mutmaßlicher Straftäter und in der Landvermessung eingesetzt. Funktionsstörungen des GPS-Services würden eine sehr schnelle Wiedereinführung älterer Methoden und Technologien für diese Aufgaben nötig machen. Während Alternativen wie Russlands GLONASS bereits existieren und das Galileo-System der Europäischen Union und Chinas Compass-Satellitennavigationssystem wohl bald zusätzliche Alternativen eröffnen werden, ist anzunehmen, dass GPS noch mit einer ganz eigenen Serie unangenehmer, normaler Ausfälle aufwarten wird. „Keiner weiß wirklich genau”, sagt Martyn Thomas, der Leiter der britischen Studie, „wie sehr wir tatsächlich von schwachen Signalen 12.000 Meilen über uns abhängig sind”.

Die Zentralisierung der Infrastruktur der smarten Stadt ist riskant, eine Dezentralisierung erhöht aber nicht zwangsläufig ihre Widerstandsfähigkeit. Ein schlechtes Management kann ganz eigene, anfällige Strukturen nach sich ziehen, wie das „Bufferbloat”-Problem des Internets zeigt. Das „Buffering“ bzw. Zwischenspeichern als eine Art Getriebe für die Synchronisierung schnell fließender und verstopfter Teile des Internets ist ein wichtiges Werkzeug, um große Datenschübe zu kompensieren und Fehler zu vermeiden.

Jim Getty, ein altgedienter Internetingenieur, stellte 2010 jedoch fest, dass sich die Hersteller von Netzwerkgeräten die rasant fallenden Preise für Speichererweiterungen zunutze gemacht hatten, um die Puffer viel stärker aufzurüsten, als es das anfängliche Engpassmanagement des Internets jemals vorgesehen hatte. „Die Hersteller haben reflexhaft reagiert, um jeglichem Verlust von Datenpaketen vorzubeugen und haben damit unbeabsichtigt einen wichtigen Engpasserkennungsmechanismus außer Kraft gesetzt”, schrieben die Redakteure bei ACM Queue, einer führenden Zeitung für Computervernetzung und verwiesen damit auf den Verkehrspolizisten des Internets, das Transmission Control Protokoll. Die Folge des Bufferbloats waren vermehrte Engpässe und sporadische Verzögerungen. Erschreckend ist, dass das Bufferbloat-Problem eigentlich auf der Hand lag. „Die Probleme, die eine Verzögerung bewirken, sind nicht neu, aber man hat die Folgen ihres kollektiven Zusammenwirkens nicht richtig eingeschätzt…die Buffering-Problematik zeichnet sich schon seit mehr als einem Jahrzehnt ab”.

Die Liste möglicher Verwundbarkeiten smarter Städte, die nur durch Nachlässigkeit oder Programmierfehler verursacht worden ist, ist lang! Was aber, wenn jemand ganz absichtlich einen Ausfall der Technologie herbeiführen will? Die Gefahr der Cyber-Sabotage auf zivile Infrastrukturen beginnen Entscheidungsträger jetzt erst wahrzunehmen. Der Virus Stuxnet, der 2010 Irans Kernwaffenanlagen in Natanz befiel, war nur der Anfang. Viele hielten ihn für das Ergebnis eines gemeinsamen US-Israelischen Angriffs, denn es handelte sich dabei um eine außerordentlich raffinierte und schadhafte Software bzw. Malware, die Computer infizierte, die Industrieanlagen sowie Infrastrukturen steuern und überwachen, ein System welches unter dem Akronym SCADA (Supervisory Control and Data Acquisition) bekannt ist. In Natanz waren 6.000 Zentrifugen im Einsatz, um angereichertes Uran für Bomben herzustellen.

Experten gehen davon aus, dass der auf einem USB-Stick eingeschleuste Stuxnet-Virus das SCADA-System infiziert und die Steuerung der Anlage übernommen hatte. Im Verborgenen soll Stuxnet die Zentrifugen aus dem Gleichgewicht gebracht und zugleich den Betreibern signalisiert haben, dass alles normal läuft. Auf diese Weise hat der Virus über Tausend Maschinen außer Betrieb gesetzt und die Urananreicherung sowie das iranische Kernwaffenprogramm stark gedrosselt.

Die weite Verbreitung von Stuxnet war schockierend. Im Gegensatz zu den lasergesteuerten, gezielt Gebäude zerstörenden, smarten Bomben, die bei einem herkömmlichen Angriff auf die Anlage in Natanz abgeworfen worden wären, attackierte Stuxnet mit der Ungenauigkeit eines Flächenbombardements. Bis der deutsche Experte für Computersicherheit Ralph Langner, der auf SCADA-Systeme spezialisiert ist, den Zweck des unbekannten Virus ergründet hatte, hatte dieser nicht nur die Anlagen im Iran, sondern auch andere, weit entfernt in Pakistan, Indien, Indonesien und sogar in den USA befallen. Bis August 2010 wurde von mehr als 90.000 Stuxnet-Infektionen in 115 Ländern berichtet.

Stuxnet war der erste nachgewiesene Angriff auf ein SCADA-System, aber es dürfte nicht der Letzte gewesen sein. In einem Interview mit CNET empörte sich Langer ein Jahr später darüber, dass die Darstellung in den Medien von einem Angriff auf ein bestimmtes Land ausgegangen wäre. „Könnte es sich nicht auch um eine Bedrohung von anderen Einrichtungen handeln, beispielsweise von wichtigen Infrastrukturen in den USA?”, so seine Frage. „Leider lautet die Antwort hier eindeutig ja, denn so etwas kann leicht kopiert werden. Das ist viel wichtiger als die Frage, wer dahinter steckte.“. Er warnte vor Stuxnet-Trittbrettfahrern und kritisierte die Regierungen und Unternehmen für ihre Selbstgefälligkeit. „Die meisten Leute denken, das war ein Angriff auf eine Anlage für Urananreicherung und wenn man nicht gerade Betreiber einer solchen Anlage ist, bestünde auch keine Gefahr”, so Langer. „Das ist völlig falsch. Der Angriff war auf Steuergeräte von Siemens ausgerichtet und das sind alltägliche Produkte für allgemeine Zwecke. Das gleiche Produkt findet sich auch in Kraftwerken oder sogar in Aufzügen.”

Die Skeptiker halten die Bedrohung durch Stuxnet für überzogen. Die Sprengkraft von Stuxnet war äußerst zielgerichtet. Der Virus war so programmiert, dass er nur die Zentrifugen in Natanz angriff und zwar auf eine sehr spezifische Weise. Am wichtigsten ist jedoch, dass er für den Angriff ein hochwertiges Arsenal von “Zero-Day”-Waffen einsetzte, also Sicherheitslücken ausnutzte, die nur einmal ausgenutzt werden können, da der Softwareanbieter daraufhin ein einfaches Debugged-Update herausgibt. In einem Bericht über den Virus schrieb das Unternehmen für Sicherheitssoftware Symantec: „Es ist erstaunlich, dass Stuxnet vier Zero-Day-Sicherheitslücken auf einmal ausnutzte, das gab es bislang nicht”.

Abgesehen von den einzigartigen Eigenschaften von Stuxnet, sind die meisten eingebetteten Systeme nicht in Bunkern untergebracht und daher immer anfälliger für simple Attacken auf ihre menschlichen Betreiber. Etwas mehr als ein Jahr nachdem man Stuxnet entdeckt hatte, attackierte ein einzelner Hacker mit dem Namen „pr0f” das Wasserversorgungsunternehmen von South Houston, einem kleinen Ort mit 17.000 Einwohnern vor den Toren der bevölkerungsreichsten Stadt von Texas. „pr0f“ war wütend, weil die US-Regierung einen ähnlichen, dokumentierten Vorfall in Springfield in Illinois heruntergespielt hatte und drang in die Siemens SIMATIC Software der Einrichtung, ein internetbasiertes Dashboard für den Fernzugriff auf die SCADA-Systeme des Wasserwerks, ein. Während sich die Attacke in Springfield als falscher Alarm entpuppte – die Sprecher der Behörden behaupteten schließlich, dass man keinen „Beweis für einen Cyber-Angriff “ gefunden habe – stand „pr0f“ schon in den Startlöchern und der Hacker musste dafür noch nicht einmal irgendeinen Code generieren. Es stellte sich heraus, dass der Betreiber der Anlage ein schockierend schwaches, nur aus drei Buchstaben bestehendes Passwort benutzt hatte. Während der Angriff in South Houston sehr leicht hätte vermieden werden können, ist SIMATIC, das einige Sicherheitslücken aufweist, geradezu eine Einladung an Hacker, sich auszutoben. In jenem Sommer demonstrierte der Sicherheitsexperte Dillon Beresford in seiner, ausgerechnet in Houston ansässigen Organisation für Netzwerksicherheit NSSLabs, verschiedene Schwachstellen von SIMATIC und wie diese ausgenutzt werden können. Siemens ist es gelungen, den Kollateralschaden durch Stuxnet abzuwenden, die Mängel von SIMATIC weisen jedoch auf wesentlich größere Risiken hin, denen hier begegnet werden muss.

Eine weitere, bedenkliche Entwicklung, ist die wachsende Anzahl von „Forever Day” –Sicherheitslücken, die in älteren Systemen entdeckt wurden. Im Gegensatz zu „Zero Day“-Attacken, für die Anbieter und Sicherheitsfirmen eigentlich innerhalb von 24 Stunden Gegenmaßnahmen und Korrekturprogramme entwickeln können, zielen „Forever Day“-Viren auf Lücken in eingebetteten Altsystemen ab, die die Hersteller nicht länger unterstützen und für die sie daher keine Patches mehr anbieten. Das Problem betrifft industrielle Steuerungsgeräte von Siemens und GE sowie einer Reihe kleinerer Firmen. Das Cyber Emergency Response Team - die US-Behörde, die Netzsicherheitsmaßnahmen dort koordiniert - widmet der Problematik bereits verstärkt ihre Aufmerksamkeit.

Die sinnvollste Lösung für eine sicherere Infrastruktur in der smarten Stadt wäre sicherlich die Unabhängigkeit vom Internet. Aber das sogenannte Air-Gapping ist bestenfalls eine Notlösung. Denn sowohl Stuxnet als auch Agent.btz – der Virus, der 2008 das globale Computernetzwerk des US-Verteidigungsministeriums infizierte – wurden wohl auf einem USB-Stick und zu Fuß in die Sicherheitseinrichtungen eingeschleppt. Unsichere drahtlose Netzwerke gibt es überall, sie senden sogar aus dem Inneren unserer Körper heraus. Forscher der Sicherheitsfirma McAfee haben erfolgreich Insulinpumpen gekapert und die Geräte darauf programmiert, eine tödliche Dosis Insulin freizugeben und eine Reihe von Computerwissenschaftlern an der Universität von Washington sowie der Universität von Massachusetts konnten so mit Funksignalen implantierte Defibrillatoren im Herzen deaktivieren.

Diese Schwachstellen stellen die offene Struktur des Internets insgesamt in Frage. In jenen Anfangszeiten von ARPANET hätte es niemand für möglich gehalten, in welchem Ausmaß wir digitale Netzwerke in die Versorgungssysteme unserer Gesellschaft einbetten würden - von der Sorglosigkeit ganz zu schweigen, mit der wir das getan haben bzw. den Bedrohungsszenarien, die sich durch feindlich gesonnene Kräfte ergeben.

Wir brauchen neue Standards und vielleicht auch neue Bestimmungen, um sicherzustellen, dass die Bausteine smarter Städte zuverlässig sind. Colin Harrison, der Cheftechniker bei IBM für smarte Städte, sagt „wenn wir in Zukunft ein Computersystem mit einem Teil der wichtigen nationalen Infrastruktur verbinden wollen, muss dies auf mehrfache Weise staatlich geprüft werden.” Darüber hinaus müssen wir schärfere Maßnahmen gegen direkte Angriffe einleiten. Südkorea hat bereits Attacken auf seine zivile Infrastruktur durch nordkoreanische Cyber Warriors erlebt. Einer dieser Angriffe soll die Flugsicherung des Landes für über eine Stunde lahmgelegt haben.

Erst eine schwere Krise wird uns wohl dazu zwingen, den Risiken der infrastrukturellen Schwachpunkte smarter Städte ins Auge zu sehen. Der erste Bürgermeister, der es mit dem Absturz des smarten Systems einer ganzen Stadt zu tun hat, wird Neuland betreten, aber wer wird die Schuld auf sich nehmen? Die Stadt? Das Militär? Der Heimatschutz? Die Technologiefirmen, die sie gebaut haben? Man denke nur an die Komplexität der Frage der Verantwortung im Falle von Stuxnet – wir hätten den Virus vielleicht nie entdeckt, hätte er nicht selbst einen Bug gehabt. Der Wurm wurde von einem arglosen iranischen Ingenieur nach draußen verschleppt. Dort erkannte er nicht, dass er seine Reproduktionsmechanismen außerhalb des Systems deaktivieren musste, daher konnte er sich wie ein echter Virus so stark über den ganzen Globus ausbreiten.

Eine neue Staatsbürgerkunde

Wenn uns die Geschichte des Städtebaus im vergangenen Jahrhundert etwas gelehrt hat, dann wohl, dass die negativen Folgen neuer Technologien ihren Entwicklungszweck häufig in den Schatten stellen. Die Motorisierung versprach den Stadtbewohnern, sie von den mit Pferdemist verschmierten Straßen des 19. Jahrhunderts zu befreien, außerdem stellte sie eine schnelle Landpartie in Aussicht, um den Rauchschwaden der Fabrikschornsteine zu entkommen. Stattdessen fügte sie unserer Landschaft zahlreiche Narben zu und hat uns faul und fettleibig gemacht. Wenn wir die städtische Technologie für das nächste Jahrhundert nicht sehr gründlich überdenken, dann werden wir uns wohl mit ihren unangenehmen Begleiterscheinungen abfinden müssen.

Smarte Städte werden wohl fast zwangsläufig randvoll mit Bugs sein, von smarten Toiletten und Wasserhähnen, die nicht funktionieren, bis hin zu öffentlichen Bildschirmen, die uns den unheilverkündenden „Blue Screen of Death“ von Microsoft präsentieren. Aber auch, wenn ihr Code fehlerfrei ist, werden die Eingeweide smarter Städte so komplex sein, dass die sogenannten normal anzunehmenden Ausfälle unvermeidlich sind. Es bleibt nur die Frage, wann die smarten Städte uns ihren Dienst versagen und wie viel Schaden das nach sich ziehen wird. Die von einem fragilen Stromnetz abhängigen Kommunikationsnetzwerke – das bereits jetzt in Krisenzeiten überlastet und vor Sabotage nicht geschützt ist – die wie ein Flickenteppich die smarte Stadt im Inneren zusammenhalten, haben eine bislang beispiellos anfällige Infrastruktur hervorgebracht.

Das sind zumindest die Aussichten, wenn wir so weitermachen wie bisher. Wir können die Karten neu und zu unserem Vorteil mischen, unsere Chancen erhöhen, doch müssen wir die Möglichkeiten und Herausforderungen des Baus von smarten Städten einer umfassenden Neubetrachtung unterziehen. Dazu gehört, dass wir das Vertrauen in die Giganten der High-Tech-Industrie hinterfragen und lokale Innovationen unterstützen, die sich mit ihrer Bodenständigkeit zu einer echten globalen Bewegung entwickeln können. Und wir müssen unsere zivilgesellschaftlichen Akteure zu langfristigem Denken anhalten, es sollte weniger um Profitstreben gehen, nicht um Wettbewerb, sondern um Kooperation. Vor allem müssen wir den IT-Spezialisten wieder das Ruder aus der Hand nehmen und die Bürger und Kommunen entscheiden lassen, wo es lang gehen soll.

Die Leute fragen mich oft: „Was ist eine smarte Stadt?” Das ist schwierig zu beantworten. „Smart” ist ein problematischer Begriff, der mittlerweile inflationär gebraucht wird. Schon bald dürfte er zu jener Reihe internationaler Worthülsen gehören – vage, evokative Wörter wie „Nachhaltigkeit” und „Globalisierung” – die niemand zu übersetzen sich die Mühe macht, da es keinen Konsens darüber gibt, was sie eigentlich bedeuten. Wenn über smarte Städte geredet wird, kann das gewöhnlich im öffentlichen Sektor so ziemlich jede Innovation umfassen, von Radmietstationen bis zu Pop-up-Parks. Ein umsichtiger Blick in alle Richtungen ist allerdings wichtig, da Städte ganzheitlich betrachtet werden müssen. Neue Technologien einfach zu installieren, egal wie raffiniert und wirkungsvoll sie sind, kann für sich gesehen die Probleme einer Stadt nicht lösen. Dennoch bewegt sich etwas und die Informationstechnologie wird ganz klar Teil der Lösung sein. Und sie verdient es, für sich betrachtet zu werden. Ich neige da zu einer fokussierten Betrachtung und definiere smarte Städte als Orte, an denen Informationstechnologie mit Infrastruktur, Architektur, Alltagsobjekten und sogar unseren Körpern verbunden wird, um soziale, ökonomische und ökologische Probleme zu lösen.

Die wichtigere und interessantere Frage ist wohl „Wie sieht die smarte Stadt in unserer Wunschvorstellung aus?”. Wir müssen vor allem überlegen, wie wir die Technologie gestalten, die wir in den Städten der Zukunft zum Einsatz bringen. Es gibt sehr viele verschiedene Visionen, was die Möglichkeiten betrifft. Fragt man einen IT-Spezialisten bei IBM, dann wird er von Effizienz und Optimierung reden. Ein App-Entwickler hingegen wird von neuen Formen sozialer Interaktion und neuen öffentlichen Erlebnisräumen sprechen. Für den Bürgermeister stehen Partizipation und Demokratie im Vordergrund. In Wahrheit sollten all diese Aspekte bei der Gestaltung von smarten Städten eine Rolle spielen.

Es gilt, diese unterschiedlichen Zielsetzungen abzuwägen. Entscheidend ist dabei eine Verknüpfung von Lösungen, die diese Ziele vereinen und Konflikte abfedern. Smarte Städte müssen effizient sein, dennoch sollten Möglichkeiten für Spontanität, Entdeckungen und Geselligkeit bleiben. Wenn wir alle Zufälligkeiten herausprogrammieren, wird die lebendige und vielfältige Stadt zum langweiligen roboterhaften Automaten. Städte sollen sicher, aber nicht Orte flächendeckender Überwachung sein. Es ist wichtig, dass sie offen und partizipatorisch angelegt sind, aber dennoch jenen genügend Unterstützung bieten, die nicht über die Ressourcen verfügen, sich selbst zu organisieren. Und ganz oben auf der Liste muss integrative Planung stehen. Die berühmte Publizistin Jane Jacobs schreibt in ihrem wegweisenden Buch „The Death and Life of Great American Cities“, dass „Städte das Potenzial haben, für jedermann etwas zu bieten, allerdings nur, wenn sie auch von jedermann geschaffen wurden”. Über fünfzig Jahre später scheinen wir diese mühsam erlernte Wahrheit schon wieder vergessen zu haben, wenn es darum geht die smarten Städte des 21. Jahrhunderts zu gestalten.

Aber es gibt Hoffnung, dass sich in smarten Städten ein neuer, bürgerlicher Gemeinsinn entwickeln wird, der wirklich alle Einwohner in ihrem Bemühen einschließt, einen besseren Ort zum Leben zu gestalten. Die Stadt war früher voll von Unbekannten und zufälligen Begegnungen. Wir können uns heute sofort in den „Social Graph“ einloggen, indem wir einfach nur ein Foto machen. In der „Cloud“ wirbeln die Algorithmen umher und sagen den kleinen Geräten in unseren Taschen, wo wir essen und wen wir daten sollen. Das ist eine erschütternde Veränderung. Aber während die alten Normen in Vergessenheit geraten, lernen wir dieser Vernetzung der Massen etwas abzugewinnen. Über Nacht ist eine Ökonomie des Teilens entstanden, die Menschen tauschen in einer synergetischen Nutzung neuer Technologie und umweltfreundlicherem Konsums alles - von Schlafzimmereinrichtungen bis hin zu Autos. Soziale Onlinenetzwerke werden so auf vielversprechende Weise an die blühenden, urbanen Lebensräume, in denen sie erschaffen wurden, zurückgekoppelt.

Seit nunmehr fünfzehn Jahren verfolge ich den Kampf und die Debatten darüber, wie smarte Städte gestaltet werden sollen. Ich habe diese Entwicklung analysiert und kritisiert, sie teilweise mitgestaltet oder bejubelt. Ich habe für große Unternehmen Prognosen zur Markterkundung erstellt, mit Start-Ups und unabhängigen Hackern zusammengearbeitet, die sich alleine an der Basis abmühen sowie Politiker und deren strategische Referenten beraten, die zögerliche Regierungen zum Handeln zwingen und eine neue Ära einläuten wollten. Ich kenne und unterstütze viele Aspekte ihrer jeweiligen Programme.

Aber ich habe auch die Diskrepanzen, Defizite und falschen Annahmen in den Visionen und Initiativen erlebt, die unter der Fahne der smarten Stadt vorangetrieben wurden. Also übernehme ich die Rolle desjenigen, der mit dem Mythos aufräumt, des Whistleblowers und Skeptikers. Die Technologiebranche möchte, dass wir unsere Welt gemäß ihrer Vision eines effizienten, sicheren und bequemen Lebens gestalten. Abermillionen Dollar werden investiert, um uns davon zu überzeugen, für diese Vision die Zeche zu zahlen. Die Geschichte kennen wir aber schon. So schrieb der Essayist Walter Lippmann über die Weltausstellung von 1939: „General Motors hat ein kleines Vermögen investiert, um die amerikanische Öffentlichkeit davon zu überzeugen, dass sie ihre Städte und Straßen durch öffentliche finanzierte Maßnahmen erneuern müssen, wenn sie in den vollen Genuss der Produkte der privatwirtschaftlich organisierten Automobilindustrie kommen wollen“. Die Technologen singen uns heute das gleiche Lied.

Ich glaube, es gibt einen besseren Weg smarte Städte zu erschaffen, als sich einfach auf die IT-Spezialisten zu verlassen. Wir müssen die zivilgesellschaftlichen Entscheidungsträger stärken, die uns einen anderen Weg weisen. Wir müssen unsere Städte eigenverantwortlich und organisch von unten nach oben entwickeln und dies angesichts der Bedrohung des Klimawandels auch zügig tun. Auch wenn das ein unerreichbares Ziel zu sein scheint, sollte man nicht vergessen, dass schließlich jene Stadt die smarteste ist, in der man selbst lebt. Wenn es sich dafür nicht zu kämpfen lohnt, wofür dann?

www.anthonymobile.com
Auszug aus “Smart Cities:
Big Data, Civic Hackers, and the Quest for a New Utopia”
von Anthony Townsend.
Copyright © 2013 by Anthony Townsend.

Mit freundlicher Unterstützung des Verlags W. W. Norton Company, Inc.

PDF-Download des Artikels