You are what you know (CNN)
aus telegraph #101
von Klaus Dieter Löbau
“Schlimmster Angriff auf Deutschland!” “Cyber-Terror!” so oder ähnlich lauteten die Schlagzeilen aller großen Medien nach dem Auftauchen des Computervirus mit dem netten Namen “I love you”.
„Ihre weltweiten Angriffe kommen aus dem Hinterhalt, haben die Wucht von Bombenladungen und sind für ihre Opfer verheerend.“, meinte Der Spiegel, und gemahnte mit dem Titel „Die @-Bombe“ gleich an Hiroshima. Unter diesem Titel fand sich die Analyse: „…je mehr Daten über das Weltnetz zugänglich sind, umso größer sind die Chancen für die neue Unterwelt, sie anzuzapfen, zu manipulieren oder zu zerstören.“
In der Programmierer-Gilde herrscht dagegen Gelassenheit: „Das sind Angriffe durch script-kiddis, die gleich dem Zauberlehrling willkürlich brisantes Programmiermaterial kombinieren – und manchmal passiert eben etwas, was sie dann nicht mehr ganz unter Kontrolle haben“ meinte ein Kenner der Materie. „Dieses Ding hätte jeder zusammensetzen können, der ein paar Wochen mit den entsprechenden Programmen zu tun hatte.“ Die Mehrheit der Hacker, also derer die ohne Zugangsberechtigung in fremde Rechner oder Netze einbrechen, zieht ihre Selbstbestätigung aber nicht daraus, dass ihre Aktionen bekannt werden, sondern umgekehrt daraus, dass ihre Angriffe dem Zielobjekt gar nicht bekannt werden, sie also unbemerkt kommen und gehen können. In diesem Sinne arbeiten sie auch nicht subversiv, sondern auf den Gehaltslisten von Firmen (im Zweifelsfall ihrer eigenen) und Sicherheitsinstitutionen.
Tatsächlich ist die Nutzung der neuen Technologien seit ihren Anfängen mit extremen Widersprüchen im Bezug auf die „Datensicherheit“ behaftet. Hier lassen sich im Wesentlichen drei Interessengruppen ausmachen, zwischen denen die Grenzen nicht immer klar zu ziehen sind, und zwischen denen teilweise sich widersprechende Interessenskoalitionen bestehen.
Zunächst ist da die Gruppe der individuellen Nutzer und Konsumenten, die einerseits ein Interesse an der sicheren Übertragung ihrer persönlichen Daten haben, andererseits aber weder die technische Kompetenz haben, ihre Datenflüsse und deren Verwendung zu kontrollieren, noch auf Kosten ihrer Bequemlichkeit sicherheitsbedingte Einschränkungen hinnehmen wollen. Diese Haltung drückt sich am besten darin aus, dass ausgerechnet die unsichersten Software-Angebote, nämlich die von Microsoft, sich einer uneingeschränkten Nachfrage bei den Konsumenten erfreuen.
Eine zweite Gruppe sind die neuen Internet-Unternehmen, z. B. die Internet Service Provider und die gesamte E-Commerce-Branche, zu deren wichtigsten Grundlagen ein unbeschädigtes Vertrauensverhältnis zum Konsumenten gehört. Andererseits verwalten sie genau die Daten, an denen ein zunehmendes kommerzielles und sicherheitspolitisches Interesse besteht, und ausserdem gibt es hier sehr starke Abhängigkeitsverhältnisse und nicht immer genau zu definierende Grenzen zu den Marktriesen. Die dritte und wahrscheinlich bestimmende Gruppe bilden eben diese Marktriesen – Hochtechnologie-Konzerne wie Siemens und Microsoft – zusammen mit den staatlichen Sicherheitsinstitutionen, also dem Militär und den Nachrichtendiensten. Wenn von diesem Bereich über „Sicherheit“ geredet wird, ist damit sowohl der Schutz ihrer eigenen als auch die Kontrolle über die Daten aller anderen gemeint, das heisst, in den „Sicherheitspolitischen Diskussionen“ geht es im Wesentlichen um den gesicherten Zugriff auf Fremddaten und weniger um die „neue Unterwelt“.
Fragt sich nur, warum die ganze Aufregung? Wenn es nur die Presse wäre, die das Thema derartig aufgeregt verfolgt, wäre das vielleicht noch unverdächtig. Schliesslich tendieren die Massenmedien in den letzten Jahren immer stärker zu einer Berichterstattung, die kurzfristige Ereignisse möglichst auffällig skandalisiert, und dem Publikum Hintergründe und genauere Analysen nicht zumuten möchte. Darüber hinaus gehört zu den wichtigsten Veränderungen im Medienmarkt eine immer engere Verknüpfung zwischen alten und neuen Medien. Dabei ist es weniger ein Problem, dass auch einige Medien selber von dem Virus betroffen waren. Der eigentliche Hintergrund ist, dass durch den Monopolisierungsdruck der „New Economy“ die Medienkonzerne eng mit der Telekommunikationsbranche verschmolzen sind.
Interessanter als die skandalisierenden Medienreaktionen sind die Planungen der Sicherheitsapparate.
Innenminister Schily nahm den koordinierten Angriff (Denial of Service Attacken), der im Februar CNN, Yahoo, amazon.com und andere Internet-Firmen traf, zum Anlass, um öffentlich die Strategien der Bundesregierung vorzustellen. Die Arbeitsgruppe „Informationstechnische Bedrohungen für kritische Infrastrukturen“ (Kritis) präsentierte der Öffentlichkeit Horrorszenarien, nach denen die empfindlichen Infrastrukturen des Landes durch Hackerangriffe schwer gestört oder gar zerstört werden könnten. Bei den langfristigen Prognosen wurde Kritis dann besonders drastisch: Gezielte Angriffe aus dem Internet könnten zukünftig an die Stelle der „kriegerischen Auseinandersetzung im klassischen Sinne“ treten. Der Innenminister gründete zum 18. Februar eine neue „Task Force“, in der sich Spezialisten des Bundeskriminalamtes, des Innenministeriums und des Bundesamtes für Sicherheit in der Informationstechnik (BSI) zusammenfanden. Gemeinsame Empfehlung: Es müsse dringend etwas gegen die „Anonymität“ gemacht werden – gemeint ist die Möglichkeit, sich anonym im Internet zu bewegen.
Ausserdem trifft sich eine dritte, nichtöffentliche Runde namens „Arbeitskreis zum Schutz von Infrastrukturen“ (Aktis), in der die Sicherheits-Chefs von Großkonzernen wie der Deutschen Bank, der Lufthansa, Siemens, Dasa und der Telekom sich mit dem BKA und Vertretern verschiedener Ministerien gegenübersitzen. Schily brachte die Motive wahrscheinlich unbewusst auf den Punkt, als er sagte, dass die Sicherheit im Netz eine „Schlüsselfrage für jede Volkswirtschaft“ sei. Bereits die Zusammensetzung der „Aktis“-Gruppe macht deutlich, wie wenig die staatlichen Interessen hier von den Interessen der Marktführer im Bereich der Informationstechnologien (IT) zu trennen sind.
Tatsächlich erscheinen die hektischen Aktivitäten in Deutschland und Europa den Kennern der Materie als eine „nachholende Entwicklung“. Obwohl dieser Terminus bisher den klassischen Dritte-Welt-Ländern vorbehalten war, beschreibt er treffend die Distanz, die in Europa diesbezüglich zum Entwicklungsstand in den USA besteht. Alleine 1998 wurden in den USA 500 Millionen US-Dollar von Regierungsseite in die Sicherheit von Datennetzen gesteckt. Anlässlich dieser Zahlen schrieb seinerzeit die „New York Times“, dass Kritiker das Gerede vom sogenannten „Cyberwar“ für eine PR-Strategie hielten, mit dem mehr Mittel für die mit der Internet-Sicherheit beauftragten Regierungsbehörden freigemacht werden sollten. Die Panikmache solle die Erlaubnis zu schärferen staatlichen Kontrollen über den internationalen Datenfluss im Internet rechtfertigen. In diesem Zusammenhang wies die „New York Times“ auch darauf hin, dass die wirklich empfindlichen Netzwerke der Regierung überhaupt nicht an das Internet angeschlossen seien. Diese Meinung griff auch der Schleswig-Holsteinische Datenschutzbeauftragte Helmut Bäumler auf, als er zur aktuellen Diskussion sagte, hier werde „die Diskussion um den I-love-you-Virus missbraucht, um die Anonymität zu diskriminieren“.
Unabhängig von dieser Art der Kritik hat sich das Modell für die US-Regierung als erfolgreich herausgestellt. Das Geschrei um den „Cyber-Terror“ wurde immer lauter, und in diesem Jahr erhöhte Bill Clinton die Summe für den Schutz der Netzwerke auf beeindruckende 2 Milliarden Dollar. Dem Boom der Internet-Wirtschaft scheint das auch nicht gerade geschadet zu haben. Wie weitreichend die mit dem Internet verbundenen Veränderungen der US-Wirtschaft bereits fortgeschritten sind, lässt sich aus einer Studie der National Association for Business Economics (Nabe) erkennen, die im April 2000 veröffentlicht wurde. Um mit dem wachsenden Druck der neuen Internet-Firmen mithalten zu können, hat die Mehrheit der US-Firmen ihre Unternehmensorganisation, ihre Geschäftsmodelle und ihre Marketing-Strategien in den letzten Jahren grundlegend verändert. 47% der befragten Firmen hat mittels Internet das Produktionsvolumen steigern können, und ein Drittel steigerte den Absatz. Weitere 30% gaben an, dass sie ihre Wettbewerbsfähigkeit in diesem Zusammenhang „stark“ verbessert hätten. Das amerikanische Modell macht deutlich, wie wichtig der Zusammenhang zwischen Internet-Sicherheit und dem Ausbau einer hegemonialen Position im Bereich der „New Economy“ sein kann. Inzwischen ist der Status der amerikanischen Hochtechnologie-Bereiche gegenüber der Weltwirtschaft derartig ausgebaut, dass bereits ein leichtes Hüsteln des Technologie-Wertes Nasdaq an der US-Börse die gesamte Weltwirtschaft erzittern lässt.
Information als Ware
Wie in diesem kommerziellen Bereich im einzelnen mit Daten und mit „Datensicherheit“ umgegangen wird, demonstriert in beeindruckender Weise das Beispiel der Firma EDS, die gleichzeitig für die Mischung von Firmeninteressen mit den Aktivitäten staatlicher Institutionen steht. Die Electronic Data Systems (EDS) sitzt in Plano, Texas, und wurde 1962 von Ross Perot gegründet. 1984 wurde der Konzern an General Motors verkauft und bot zunächst nur Rechnerinstallationen und -betreuung für Dritt-Firmen an. Nach kurzer Zeit entdeckte die Firma jedoch, dass die von ihnen verwalteten Daten ein noch viel höheres Kapital darstellen, als die zur Verfügung gestellte Hardware. Das Prinzip wurde später als einer der wesentlichen Aspekte der „Entmaterialisierung der Wertschöpfung“ bekannt:
Daten und daraus zu gewinnende Informationen verhalten sich nicht linear. Im mathematischen Sinne besteht zwischen ihnen ein exponentielles Verhältnis, was zwar noch nichts über den Informationsgehalt aussagt, aber allgemein gilt, dass die Konzentration und Integration von Datensammlungen sowohl ihren Wert bestimmen, als auch die Geschwindigkeit ihres weiteren Wachstums. Der zentrale Begriff dabei heisst „Datenkombination“.
Weil gewonnene Informationen für sehr unterschiedliche Bereiche interessant sein können, ergibt sich aus den bereits vorhandenen Daten eine extrem breite Nutzungspalette. Alleine durch das Anbieten von Daten lassen sich wiederum Unmengen neuer Daten gewinnen. Es kann zum Beispiel für Dritte sehr interessant sein, wer wann welche Daten anfordert, und warum. Das heisst, wir reden über einen ökonomischen Bereich, dessen Ressourcen sich permanent potenzieren.
Dabei ergibt sich ein extrem breites Feld an Einzel-Usern und kommerziellen Nutzern, weshalb die gewonnen Informationen immer mehrfach verwertbar sind. Man kann die Daten zuerst nach dem Prinzip der gebührenpflichtigen Telefonauskunft an individuelle Nutzer verkaufen. Gleichzeitig lassen sich die Datensätze priorisieren, das heisst, wenn jemand nach einer Firma für Toilettenartikel fragt, kann Firma A eine höhere Priorität eingeräumt werden als Firma B, wofür Firma A natürlich etwas aus ihrem Werbe-Etat springen lassen sollte. Aus den vorhandenen Konsumentendaten lässt sich jede gewünschte Analyse für Marktstrategien (Kaufverhalten, Trends, Bonität) erstellen, was eine Kalkulierbarkeit von Finanzrisiken sichert. Ein weiterer Aspekt ist der Sicherheitstechnische, bei dem es enge Verbindungen zu Militär und Nachrichtendiensten gibt.
In den USA selber ist EDS seit langem eine quasi-staatliche Institution. Die Computersysteme der Einwanderungsbehörde, der Grenzüberwachung und die automatische Fingerabdruckidentifizierung werden von EDS betrieben. Auch die nationale Luftfahrtbehörde, das Militär, Krankenkassen und einige Sozialprogramme verlassen sich auf die Firma. Das alles sollte noch kein Problem sein, wenn nicht die gleiche Firma, die einem Autokonzern gehört, auch American Express, Apple und Xerox (um nur einige der grössten zu nennen) betreuen würde. Und wie es sich eben mit Konzernen verhält, ist EDS schon lange kein us-amerikanisches Problem mehr. Auch all diejenigen, die einen Flug bei der Lufthansa gebucht haben, oder sonstigen Kontakt mit der Fluggesellschaft hatten, haben ihre Daten damit nach Texas geschickt, und sie werden dort im Dritt-Interesse ausgewertet und weitergekauft. In Grossbritanien hat EDS bereits Ende der 90er Jahre die komplette Datenverwaltung der Steuerbehörde und der Gesundheitsfürsorge übernommen, und ist Marktführer im Bereich der Klinik-EDV. In Südaustralien hat die Firma sogar die komplette Datenverarbeitung der Regierung, inklusive ihrer 140 Unterorganisationen übernommen.
Jeder kann sich vorstellen, was in diesem Imperium täglich an Daten anfällt, und was daraus zu Informationen verarbeitet werden kann. Eine eindeutige Trennung von Interessen zwischen Staat USA und EDS ist schon seit langem nicht mehr möglich. Die größte deutsche Firma in diesem Bereich ist übrigens die Daimler-Benz-Tochter Debis, die auch in der „Aktis“-Gruppe vertreten ist. Fragt sich nur, ob es dort nicht zu Widersprüchen in Bezug auf die „Datensicherheit“ mit der Lufthansa kommt, die ihre Daten lieber von EDS verarbeiten lässt…
Unabhängig von den strukturellen Überschneidungen mit dem Militär und dem Sicherheitsapparat gibt es also eine einfache Interessendeckung von Firmen wie EDS und der Nationalen Sicherheitsdoktrin der USA. Nicht zufällig wurde ein Vertreter von EDS im September 1999 von der Bundeswehr auf das „3. Strausberger Symposium“ eingeladen. Das Thema lautete „Herausforderung Informationsgesellschaft“ und wurde von 120 Experten aus Wissenschaft, Politik und Medienindustrie gemeinsam mit der Bundeswehr diskutiert. Der Beitrag des EDS-Verteters wurde von der Bundeswehr besonders hervorgehoben. Seiner Meinung nach wird in Zukunft der Kampf um strategische Rohstoffe wie Wasser ergänzt um den Kampf um die Ressource „Information“. Wann die Zukunft bei Elektronic Data Systems begonnen hat, war der Stellungnahme nicht zu entnehmen.
Die Geschichte einer Symbiose
Die Grundlagen für eine sinnvolle Verarbeitung und Nutzung derartig gigantischer Mengen von Daten wurden in der wissenschaftlichen Informatik der 70er Jahre gelegt. Inzwischen gehört es zum Allgemeinwissen, dass die ersten Computermodelle in den 50er Jahren aus militärischen Mitteln finanziert wurden. Damals setzte das Militär Computer nur an einigen wenigen Punkten zur strategischen Kontrolle ein. In den 60er Jahren koordinierten Computer bereits militärische Einsätze, wie zum Beispiel die Rechenanlage in der Rhein-Main-Airbase, die Luftangriffe auf Vietnam steuerte. In dieser Zeit wurde auch das Internet zunächst ausschliesslich für das Militär entwickelt. Tatsächlich sind die gesamten Forschungsbereiche der Computertechnologie und Informatik seit ihrer Existenz im wesentlichen Maße aus Mitteln des Department of Defense (DoD) bezahlt worden. Die staatliche Förderung der Informatik wurde hauptsächlich über fünf Institutionen abgewickelt. Neben dem DoD waren und sind das: das Department of Energy und dessen Vorgänger, die Atomic Energy Commission, die NASA, die National Science Foundation und das National Institut of Health. Dabei können nur die beiden letztgenannten als eigentliche zivile Organisationen gelten.
Der Anteil des DoD an der staatlichen Förderung der informationstechnologischen Grundlagenforschung hat in den letzten 50 Jahren einen Anteil von 50% niemals unterschritten. Im Gegenteil stieg dieser Anteil des Verteidigungsministeriums in den 80er Jahren auf bis zu 90%.
Das Verteidigungsministerium konzentrierte sich dabei auf die Advanced Research Projekts Agency, die später der Ehrlichkeit halber den Zusatz „Defense“ (DARPA) bekam. Die DARPA war über lange Jahre die potenteste Einzelquelle für staatliche Förderung im Bereich der Informatik. Bestimmte Informatikbereiche wie die „Künstliche Intelligenz“ (KI) hätten die 60er Jahre wahrscheinlich ohne das Militär nicht überlebt, weil sie vor allem eine akademische Disziplin waren, und sich nicht für kurzfristige produktbezogene Ergebnisse eigneten. In den Förderungsgremien der DARPA fanden sich jedoch ehemalige Offiziere, die sich bereits vorher mit militärischen Kommunikationsproblemen und der Bedienung komplexer technischer Systeme befasst hatten. Auf dieser Grundlage konnten sie einschätzen, dass die Grundlagenforschung zum Bereich der Mensch-Maschine-Kommunikation sich langfristig auszahlen würden. Im Mittelpunkt der Forschung in diesem Bereich standen zunächst Interaktionstechniken wie die Sprachverarbeitung und theoretische Fragen des Problemlösens. Die erarbeiteten Erkenntnisse stellten Ende der 70er Jahre die Grundlagen für die Entwicklung von Mehrbenutzersystemen und vor allem für die Entwicklung von graphischen Benutzeroberflächen. Anfang der 80er Jahre gab es im Kontext von Reagans SDI den markanten Sprung in der informationstechnologischen Forschung: Teil des SDI war das sogenannte Strategic Computing Programm (SCP), das wiederum eng mit der DARPA verbunden war, und den militärischen Anteil an der Forschungsfinanzierung auf 90% brachte. Das Programm koppelte langfristige Forschungsvorhaben mit konkreten militärischen Nutzungszielen. Eine Initiative im SCP formulierte 1983 das Ziel der Entwicklung einer „völlig neuen Generation von intelligenter-maschineller Technologie“ innerhalb von 10 Jahren. Innerhalb weniger Jahre konnten erste Ergebnisse präsentiert werden. Für die KI gab es den Durchbruch in den Bereichen der natürlichen Spracherkennung, der Informationskombination und des maschinellen Lernens, sowie der Produktion von visuellen Eindrücken. Ein weiteres Kernstück war die Kooperation von verschiedenen wissensbasierten Systemen. Alle Teilstreitkräfte wurden mit Ergebnissen der Forschung modernisiert: Aus der Vorgabe „autonome Vehikel“ entstanden die Cruise Missiles, Autonome-Land- als auch Wasser-Vehikel. Aus dem Bereich der Gefechts-Organisations-Systeme entstanden das AirLand-Battle-Management-System und ein vergleichbares Projekt für die Navy. Hinzu kamen ein Projekt zur Entwicklung von „Smart-Weapons“ und Systeme zur Radarauswertung.
Diese wenigen Beispiele aus nur einem Bereich der Forschung können vielleicht deutlich machen, dass die eigentliche Revolution in der Informationstechnologie, von der zur Zeit so oft die Rede ist, tatsächlich schon vor 15 Jahren im Bereich des Militärs stattgefunden hat.
Wenn man sich vor diesem Hintergrund überlegt, dass das Pentagon jährlich alleine für militärische Forschung 31 Milliarden Dollar ausgibt, stösst man sehr schnell auf einen der Grundmythen des neoliberalen Konstrukts. Es geht um die Behauptung, dass staatliche Subventionen sich schädlich auf die Entwicklung der „freien Wirtschaft“ auswirken würden. Wahrscheinlich existiert kein Bereich in der Informationstechnologie, dessen Entwicklung nicht massiv durch militärische Forschungsförderung begünstigt wurde.
Rückblickend muss aber der Durchbruch im Bereich der Kombination-Wissensbasierter-Systeme als der eigentlich strategische Teil bezeichnet werden.
Im Mittelpunkt stand hier das Abfangen und Analysieren von elektronischen Signalen zur Aufklärung des Gegners und das Generieren von Aussagen über diesen mittels Anwendung von Machine-Learning-Verfahren. Die rasanten Fortschritte in diesem Bereich haben die Grundlage dafür gelegt, dass eine genaue Trennung nicht nur zwischen kommerziellen und militärischen, sondern auch zwischen geheimdienstlichen und militärischen Sicherheitsbereichen heute nahezu aufgehoben ist.
Das sicherheitspolitische Pendant
Das wohl weitreichendste Projekt ist das offiziell gar nicht existente Echelon-System des us-amerikanischen Geheimdienstes National Security Agency (NSA). Die NSA war noch Anfang der 80er Jahre ein relativ unbekannter militärischer Geheimdienst. Mit dem hochtechnologischen Sprung wurde diese Institution zum weltweiten Herrn der Ressource „Information“. Im Sinne des materiellen Wertes von „Information“ könnte man sagen, dass das „Fort Meade“, die Zentrale der NSA im US-Staat Maryland, das „Fort Knox“ dieses Jahrhunderts wird.
Echelon scannt in Echtzeit sehr große Mengen des weltweiten elektronischen Nachrichtenverkehrs (Telefongespräche, E- Mail, Fax, Telexe, den gesamten Funkverkehr usw.) nach relevanten Schlüsselbegriffen und -themen. Ein besonderes Augenmerk haben die Auswertungsprogramme auf Anzeichen von Kodierung. Die für die Auswertung notwendigen Programme wie MEMEX wurden Ende der 70er im Rahmen der militärischen Forschungsfinanzierung für die „Künstliche Intelligenz“ entwickelt, und ermöglichen eine für die NSA sinnvolle Sichtung, Auswertung und Bearbeitung. Zu den bekanntgewordenen Zielen des Echelon Systems gehören u. a. Amnesty International und Greenpeace, Airbus, VW und das Rote Kreuz.
Die Hardware des Projektes bilden Empfangssysteme in weltweit verteilten Bodenstationen u.a. im bayrischen Bad Aibling, in Sugar Grove, Virginia und auf Neuseeland, von denen aus wahrscheinlich die Festnetze abgehört werden. Ein weiteres Netz von 120 satellitengestützten Stationen, von denen allein 40 westliche Kommunikationssatelliten abgreifen, saugt die gesamte Satellitenkommunikation ab.
Historisch hat Echelon seinen Ursprung in dem 1947 geschlossenen, geheimen UKUSA Übereinkommen zwischen USA, Großbritanien, Australien, Neuseeland und Kanada. Echelon bildet seitdem einen Bestandteil der Geheimdienstkomponente mit der Bezeichnung COMINT (Communications intelligence). Diese sollte die Zusammenarbeit bei globalen Operationen gegen den Ostblock unterstützen.
Heute erstrecken sich die Ziele dieses Projektes hauptsächlich auf den Kommunikationsverkehr von Wirtschaftsunternehmen, Organisationen und Einzelpersonen auch in sogenannten befreundeten Staaten. So gibt es nachweislich Anweisungen des amerikanischen Präsidenten an die NSA, der amerikanischen Industrie über COMINT Wettbewerbsvorteile zu verschaffen. Der ehemalige CIA-Direktor James Woolsey sprach in diesem Jahr im „Wall Street Journal“ ganz offen über die Witschafts-spionage gegenüber den Kontinentaleuropäern. Angeblich würden die europäischen Firmen mit Bestechung arbeiten, und es gelte nur die amerikanische Wirtschaft vor den Dirty-Tricks der Europäer zu schützen. Für echte Wirtschaftsspionage würde sich die europäische Technologie gar nicht lohnen.
In einem Bericht, der 1998 für das Europäische Parlament angefertigt wurde, hiess es lapidar: Es „wird auch eine Menge wirtschaftlich relevantes Nachrichtenmaterial zusammengetragen; insbesondere Länder, die an den GATT-Verhandlungen beteiligt sind, werden intensiv überwacht.“ Ein weiterer Bericht, der im November des gleichen Jahres für den US-Kongress angefertigt wurde, zeigt darüber hinaus, dass die Informationen auch direkt den Herstellern von Echelon-Komponenten zugute kommen: „Viele Unternehmen, die die wichtigsten abgehörten Wirtschaftsinformationen erhalten – Lockheed, Boeing, Loral, TRW und Raytheon -, sind aktiv an Herstellung und Betrieb der Echelon-Spionagesysteme beteiligt. Die Zusammenarbeit von Nachrichtendiensten und Materiallieferanten ist insofern beunruhigend, als sie den Wettbewerb zuungunsten ausländischer, aber auch inländischer Mitbewerber verzerrt.“ – Die „freie Marktwirtschaft“ lässt grüssen. Dass es sich bei den Echelon-gestützten Aktivitäten allerdings nicht nur um reine Wirtschaftsspionage handeln dürfte, wird deutlich, wenn man weiss, dass die „netten, alten Karteikarten-Zombies“ vom Ministerium für Staatssicherheit schon in den 80er Jahren von einem NSA-Offizier Unterlagen abkauften, die Abhörmaterial von Westdeutschen Politikern enthielten.
Seit dem Bekanntwerden von Echelon basteln die Europäer an ihren eigenen, etwas bescheideneren Lauschsystemen. So unterhält Frankreich zusammen mit Italien und Spanien ein ähnlich geartetes Abhörsystem zu dessen Bestandteilen die französischen HELIOS Satelliten zu zählen sind. Die HELIOS Satelliten werden von den Konzernen Matra Marconi Space, der französischen Firma AeroSpatiale Matra und dem britischen GEC Konzern gebaut. Matra Marconi Space wird interessanterweise mit dem deutschen Daimler-Chrysler Aerospace Konzern fusionieren, und baut seit Anfang 2000 mit dem britischen Marconi Electronic Systems Konzern den gemeinsamen Konzern ASTRIUM auf. Kenner der Materie behaupten: Wenn es einer gesamteuropäischen Basis für den Aufbau eines eigenen, europäischen Echelon-Systems bedarf, dann wird es ASTRIUM sein.
Wie es scheint, bekommt auch Holland sein Echelon. So erhält der niederländische Geheimdienst BVD neue Vollmachten. Unter anderem werden die Abhörbefugnisse erweitert. Wenn es nach dem Willen der Regierung geht, wird auch dieser Dienst bald wahllos die Satellitenkommunikation abhören, das Internet nach Schlüsselwörtern durchsuchen und wirtschaftliche Informationen sammeln können. Auch die Schweiz wird eine eigene Miniausgabe von ECHELON errichten. Das schweizerische Projekt mit den Namen SATOS 3 bzw. ONYX, soll Mitte 2000 in Betrieb genommen werden. Die Gesamtkosten belaufen sich auf geschätzte 100 Millionen Franken. Ein zusätzliches gesamteuropäisches Über-wachungs- und Abhörprojekt namens ENFOPOL wird seit Jahren diskutiert. Es soll den zukünftigen Überwachungs- und Abhöranforderungen der Geheimdienste dienen.
Der Angriff auf die Realität
Angesichts dieser massiven globalen „Informations-Unsicherheit“ drängt sich natürlich die Frage nach den gesellschaftlichen Konsequenzen auf. Der Einsatz von Informationstechnologien bewirkt eine sich beschleunigende Entwicklung, und die reale Kluft zwischen neuen Technologien und gesellschaftlicher Analyse und Entscheidungsfähigkeit über ihren Einsatz scheint generell immer größer zu werden.
Die Frage ist also, wie werden diese Massen von Informationen eingesetzt, und wie wirkt sich dieser Einsatz aus: Was sind die sozialen und kulturellen Tendenzen der „Informationsgesellschaft“?
Ein gutes Beispiel für ihren Einsatz, die Veränderungen im operativen Bereich, stellen wieder die us-amerikanischen Geheimdienste. Sie bieten ihre Daten gezielt anderen Staaten an, und versuchen, mit den ihnen zur Verfügung stehenden Datenmassen den kommerziellen Sektor zu dominieren. Das zugrundeliegende Problem ist, dass heute militärisch relevante Informationen für jeden offen zu erhalten sind. So konnte zum Beispiel die irakische Regierung nach dem Beginn des Golfkriegs noch tagelang die alliierten westlichen Streitkräfte beobachten, weil der Irak einen Vertrag mit einem kommerziellen französischen Satellitenbetreiber hatte. Erst nachdem die USA in Frankreich intervenierten, wurde die Verbindung abgeschaltet. Das offensive Angebot nachrichtendienstlicher Informationen durch die USA soll nun die Nutzung anderer „privater Anbieter“ einschränken, und die USA können die von ihnen angebotenen Informationen je nach Bedarf filtern, die Informationen in dem Sinne manipulieren, dass der entsprechende Konsument sich ein Bild macht, das seine Entscheidungsfindung im Sinne der USA beeinflusst. Darüber hinaus registrieren sie selber alle Interessenten an möglicherweise militärisch-relevanten Informationen. Der offensichtliche Vorteil ist, dass der Konsument das Bewusstsein behält, selbst entschieden zu haben. Damit wird ein weiterer Aspekt der Neustrukturierung globaler Machtbeziehungen deutlich: Ebenso wichtig wie das Erlangen und die Kontrolle von Informationen, ist die Fähigkeit, sie selektiv einzusetzen. Als Strategie wurde dieses Prinzip bereits 1996 in der Zeitschrift „Foreign Affairs“ von zwei Beratern des US-Präsidenten vorgestellt, und trug den signifikanten Namen „Soft Power“.
In punkto Realitätsverschiebung muss man allerdings nicht bis in die USA schauen, sondern kann sich die Entwicklungen vor der eigenen Haustür ansehen. Am besten sind die verschiedenen Aspekte im Kampf um die Interpretation von „Realität“ sicherlich im Zusammenhang mit den elektronischen Massenmedien dokumentiert.
Speziell wenn es um Kriege geht, bei denen die „internationale Wertegemeinschaft“ involviert ist, muss der Medien-Nutzer den Eindruck gewinnen, dass die Friedensbewegung persönlich den „kalten Krieg“ gewonnen hat:
Folgt man der überwiegenden Mehrheit der Berichterstatter, so hat es seit mindestens 10 Jahren keinen Krieg mehr gegeben. „Humanitäre Interventionen“, „Kriseneinsätze“, „notwendige Verteidigungsmaßnahmen“ oder maximal „Luftkampagnen“ sind nur einige von den Definitionen, die aus den Labors der vom Militär beschäftigten Medienspezialisten kommen. Dass es jedoch nicht nur um Definitionen durch Wortschöpfungen geht, wurde an der Diskussion um den sogenannten „Hufeisenplan“ deutlich. Dieser Plan sollte die angeblich geplante Massenvernichtung von Kosovo-Albanern durch die jugoslawische Armee beweisen, und wurde von Scharping als entscheidendes Argument für die Kriegsbeteiligung eingebracht. Wie so oft in solchen Situationen, stellt sich nach dem Krieg heraus, dass es einen solchen Plan niemals gegeben hat. Auch ansonsten wurde der weinende Verteidigungsminister, der irgendwas von „Konzen-trationlagern“ stammelte, vom gesamten Medien-Korps bestens in Szene gesetzt. Die gesamte Berichterstattung vermied weitergehende Analysen und brachte die von der NATO autorisierten Bilder auf die Titelseiten. Kritische-, friedensbewegte- oder projugoslawische Diskussionen oder gar Proteste fanden nicht statt.
Dass das alles weder Zufall ist, noch medienintern begründet werden kann („Chronistenpflicht“), oder sogar dem Mainstream geschuldet (das Einschaltquoten-Argument), wird sehr deutlich, wenn man sich die Recherche des niederländischen Journalisten Abe de Vries über die Anwesenheit des US-Militärs bei CNN ansieht. Er berichtete, dass vor und nach Kriegsbeginn ein Stab von der Fourth Psychological Operations Group direkt im Hauptquartier von CNN in Atlanta gearbeitet hat. Nach der Veröffentlichung dieser Tatsache herrschte ziemliche Aufregung bei CNN, und die US-Army musste die Anwesenheit ihres Personals bestätigen: „PsyOp´s Personal, Soldaten und Offiziere, hat im Rahmen unseres Programms „Training mit Industrie“ im Hauptquartier von CNN gearbeitet. Sie arbeiteten dort als reguläre Beschäftigte von CNN. … Sie halfen bei der Produktion von Nachrichten.“ Natürlich wäre es zu kurz gegriffen, wenn man nun davon ausgehen wollte, dass in jeder namhaften Redaktion irgendein Militär sitzt. Das Konzept basiert auch hier wieder auf dem Hegemonie-Modell. CNN ist in der Nachrichtenbranche unbestritten tonangebend. Es gibt gerade in medialen Hoch-Zeiten wie dem Kosovo-Krieg keine News-Redaktion, die sich nicht stündlich nach den Vorgaben der „Großen“ richtet, und das ist in dieser Branche eben CNN. In den meisten Fällen besteht wie bei ntv sogar eine unmittelbare vertragliche Regelung über den Einkauf von Bildern und auch ganzen Nachrichtenblöcken bei CNN, weil das gerade im Rahmen internationaler Berichterstattung sehr viel billiger ist, als eine Eigenproduktion das wäre. Das heisst, die meinungsbildende Funktion an einem strategisch günstigen Punkt garantiert einen weltweiten Multiplikator-Effekt. Eine ähnliche Funktion hat in der Spielfilm-Branche übrigens Time-Warner inne und im Internet-Bereich ist es AOL. Time-Warner und CNN sind inzwischen übrigens durch AOL aufgekauft worden.
Dabei sind es nicht einmal nur die verdeckten Operationen, wie sie hier im Fall von CNN aufgedeckt wurden, die die öffentliche Meinung nachhaltig beeinflussen. Das DoD beschäftigte schon seit 1991 mehr als 1000 Public-Relations-Spezialisten, und hatte damit mehr Öffentlichkeitsarbeiter als die grossen US-TV-Netzwerke (ABC, CBS und NBC) zusammen an Journalisten angestellt haben. Dazu kommen noch Verträge mit professionellen PR-Agenturen wie Hill&Knowlton, die sich im Auftrag des kuweitischen Königshauses stark für den Angriff auf den Irak engagierten, oder die Agentur Ruder Finn, die das gleiche 1991 für die kroatische Regierung und seit 1995 wieder für kosovarische Lobbygruppen machte.
Interessant in Bezug auf die Akzeptanz solcher Informationsstrategien der NATO innerhalb der Medien ist auch, dass die Beispiele und die Funktionsweise der Einflussnahme spätestens seit der militärischen Medienlandung in Somalia allen Journalisten bekannt sind. Trotzdem wiederholen sie sich mit einer bemerkenswerten Regelmäßigkeit, um mit ausreichendem Abstand zum Kriegsende wieder selbstkritisch diskutiert zu werden. So räumte ein Jahr nach Kriegende ein ARD-Korrespondent ein, er sei „immer wieder überrascht, wie sehr wir uns missbrauchen lassen.“ Selbst der Spiegel gestand ein, dass man Fehler gemacht habe, wozu auch gehöre, den Kriegsgegnern keinen Platz geboten zu haben, und ein stellvertretender Chefredakteur von dpa gab zu, die Sprachregelungen des Militärs unkritisch übernommen zu haben. Alle drei schränkten die Selbstkritik natürlich sofort wieder ein, indem sie sie in einen realsozialistischen Es-hat-auch-Fehler-gegeben-Diskurs einbetteten. Genau die gleiche Art Selbstkritik, zum Teil wortwörtlich, hatte es auch schon nach dem Golfkrieg gegeben. Erinnert sei hier nur an ZDF-Chefredakteur Klaus Bresser, der 1992 feststellte: „Wir müssen nicht nur zugeben, dass wir als Propagandainstrument der Militärs missbraucht wurden, sondern auch, dass wir uns haben missbrauchen lassen.“
Die Massenmedien befinden sich dabei in dem Dilemma, dass sie einerseits stark von ihrem Image als unabhängige dritte Kraft leben, und andererseits die relative strukturelle Unabhängigkeit als Geschäftsgrundlage durch die neoliberale Integration im Verschwinden begriffen ist. In den 70er und 80er Jahren war gerade das Fernsehen vor dem Hintergrund einer kritischen Kriegsberichterstattung zu Vietnam, und durch das gezielte Aufdecken der Verwicklungen der politischen Klasse zum anerkanntesten Medium geworden. Spätestens jedoch seit dem Golfkrieg und seiner globalen massenmedialen Vorbereitung und Begleitung verschwand das Fernsehen als kritischer und aktueller Informationskanal von der Bildfläche. Das Vietnam-Trauma war überwunden, die Heimatfront zwischen den Mächtigen und ihren Medien wieder hergestellt. Mit der zunehmenden digitalen Integration von Internet, Fernsehen, Radio, Telefon und Netzcomputern steigt zum einen der Konkurrenzdruck in der Branche, und darüber hinaus verschwindet das Berufsbild des festbeschäftigten Journalisten, der sich politisch einiges leisten konnte, und mit ihm die vielzitierte „journalistische Ethik“. Bereits Anfang der 90er gab es in den USA mehr PR-Spezialisten als Journalisten. In der Berichterstattung bestimmen zunehmend Lobby-Gruppen die Themenarbeit, egal ob es um Gen-Food, Krieg, weltweite soziale Polarisierung oder andere globale Probleme geht, die sich in den letzten Jahren interessanterweise alle verschärft haben – bei gleichzeitigem Nachlassen des sie betreffenden „öffentlichen Interesses“.
Taktische Realität – hergestellter Konsens
„Gestützt auf ihre Vormachtstellung im Infor-mations- und Technologiesektor etablieren die Vereinigten Staaten mit der stillschweigenden Zustimmung der Beherrschten eine Herrschaftsform, die man als freundliche Unterdrückung oder auch als gefällige Despotie bezeichnen könnte und die vor allem auf der Kontrolle über die Kulturindustrien und unsere Vorstellungswelt beruht.“
Diese Einschätzung von Ignacio Ramonet, dem Herausgeber von Le Monde Diplomatique, deckt sich im Wesentlichen mit dem, was in „Foreign Affairs“ als „Soft Power“ beschrieben wurde. Diese postmoderne Variante von Macht hat sowohl eine neue Funktion als auch neue weltweite Auswirkungen. Ihre Mechanismen sind Medienkontrolle, kulturelle Dominanz und Marktbeherrschung im technischen Bereich. Als die US-Präsidentenberater die strategische Nutzung der weltweiten amerikanischen Dominanz im Bereich der Medieninhalte forderten, zielten sie damit auf die Köpfe: Kapitalistische Wertmuster sollen vor dem Bewussten verankert werden. Damit verbunden ist auch, dass Identitätsangebote und -konzepte in sehr viel stärkerem Maß eine stabilisierende Funktion bekommen: Wer sich auch nur im weitesten Sinn der „westlichen Wertegemeinschaft“ zurechnet, folgt damit den Vorgaben us-amerikanischer Politikvorstellung, und erachtet jede Form von sozialem Konflikt als unzeitgemäß.
Der Erfolg dieses Hegemonie-Modells liegt in seiner vor-materiellen Verankerung. Es beruht nicht auf einer erkennbaren Organisationsform, die sofort als bedrohlich wahrgenommen werden könnte. Es bedarf keiner Mitgliedsausweise, es bleibt immer interpretierbar, es bindet nur über Selbstdefinition ein, und es genügt, sich ihm auf der symbolischen Ebene zuzuordnen.
Mögen manche Propaganda-Operationen wie die Neuschöpfung von Begriffen auch lächerlich erscheinen, sollte man das Problem nicht unter- und die eigene kritische Immunität nicht überschätzen: Auch kritische Diskurse finden nicht außerhalb der gesellschaftlicher Realität und der taktisch verzerrten Medien-Realität statt. Zunächst zielen diese Strategien ohnehin weniger auf kritische Minderheiten, sondern auf die großen Mehrheiten. Die marxistische Grundweisheit, dass nämlich Ideen zur Realität werden, wenn sie die Vorstellung der Massen ergreifen, findet sich in keinem politischen Konzept besser umgesetzt als hier. Außerdem basiert dieses hegemoniale Konzept wesentlich auf der Identifikation mit einem Wertesystem, das sich bewusst seine kritischen Spielplätze erhält, aber auch Doppelbotschaften transportiert. Was wäre Hollywood ohne die scheinbar kritischen Zukunftsprognosen wie Matrix (- aber können Programmierer nicht auch gut aussehen?) oder Terminator ( – ist die Mensch-Maschine-Symbiose nicht auch sympathisch?) und die Fähigkeit zur Selbstkarikatur? Und es bedient sich der Schizophrenie metropolitanen Bewusstseins, das trotz Kenntnis der Situation nie in der Lage ist, die eigene Rolle mit einzubeziehen, und bietet immer eine immanente Alternative an.
Das sogenannte „Ende des Politischen“ besteht im Verschwinden jenes Staatsbürgertypus, der seit der französischen Revolution die Grundeinheit des bürgerlichen Gesellschaftsmodells war. Damit hebelt die „Informationsgesellschaft“ auch jedes Modell von politischer Kritik aus, das auf „Bürgerrechten“ basiert. Ein Beispiel hierfür ist die Forderung nach Datenschutz, die sich auf die individuellen Freiheitsrechte des einzelnen Users bezieht. Dabei fühlen sich moderne Konsumenten von der angeführten Verletzung ihrer Intimsphäre keinesfalls betroffen, sondern stehen den Chancen der neuen Technologien sehr aufgeschlossen gegenüber. Die neue Form der Macht verändert die Selbst-Wahrnehmung massiv. Sie suggeriert nicht nur neue Bedürfnisse, sondern reduziert Persönlichkeit auf das „individuelle“ Bekenntnis zu Markenwaren und auf den Konsum von zu Unterhaltung aufbereiteter Information. Der im Entstehen begriffene „neue Mensch“ der Metro-polengesellschaften reduziert sich auf den Status eines Konsumenten, der mit der Kreditkarte Waren, Dienstleistungen und Unterhaltung einkauft und dem andere Bedürfnisse gar nicht mehr in den Sinn kommen. Dabei lebt er im Glauben an seine vollständige Selbstbestimmung, während ihm im Grunde nur ein gezieltes Konsumangebot zur Verfügung steht, das seiner aktuellen finanziellen Situation, seinen Vorlieben usw. entspricht.
Auch gesellschaftliche Interaktion gehorcht immer mehr dem neoliberalen Gebot der Effizienz, d.h. des schnellen Erfolgs und der sofortigen, oberflächlichen Bedürfnisbefriedigung. Die Logik der Börse – die kurzfristige Steigerung des „shareholder value“ – dringt allmählich in alle gesellschaftlichen Bereiche vor und bestimmt auch zwischenmenschliche Beziehungen. Die soziale Welt schrumpft sozusagen auf den Umfang einer Benutzeroberfläche zusammen. Andere Dimensionen des Gesellschaftlichen, die sich aus kollektiven Prozessen oder auch nur aus einer tiefgründigeren, langsameren Wahrnehmung ergeben würden, werden dagegen zunehmend in den Bereich des Undenkbaren, Unfühlbaren und nicht mehr Wahrnehmbaren verbannt. So neigt eine Präsentationsform von Information, die zum Handeln ermächtigt, genauso wie ein Bewußtsein der eigenen Geschichte oder ein Streben nach Glück, das von ökonomischen Fragen abgekoppelt ist, allmählich zum Verschwinden.
Durch die Verinnerlichung dieser Wertmuster ist der oder die Einzelne längst nicht mehr in der Lage, sich als Teil eines Kollektivs zu betrachten, ganz zu schweigen davon, dass Gruppen in der Lage wären, kollektiv zu handeln. Stattdessen wird versucht, auftretende Widersprüche individuell und effizient an der Oberfläche zu lösen. Die neoliberalen Argumentationsmuster, vom ökonomischen Sachzwang bis hin zur scheinbar „universellen“ westlichen Moral, vernebeln jede Form von existenzieller Erfahrung, die die realen Widersprüche vermitteln könnten, reale Erfahrung verschwindet hinter taktisch inszenierter Medienrealität.
Während die große Mehrheit der Weltbevölkerung von dieser Form der Macht einfach als „überflüssig“ ignoriert werden kann, stellt dieses sich permanent selbst referierende System in den Metropolengesellschaften scheinbar jeder und jedem einen Ort als Konsument zur Verfügung, ganz individuell, was einer der Schlüssel zu seiner Integrationsfähigkeit ist. Aus den medial-erlebten Bedingungen läßt sich kein Argument ableiten, die Annahme eines solchen Angebotes zu verweigern.
Captain Future
Bleibt festzustellen, dass bisher keinerlei Grenze für die weitere Entwicklung der „Informationsgesellschaft“ auf dem beschriebenen Weg abzusehen sind – außer technische Begrenzungen. Ein kleiner Ausblick auf die gegenwärtig stattfindenden Entwicklungen bestätigt eher die schlimmsten Befürchtungen:
Kurzfristig, das heißt in den nächsten ein bis zwei Jahren, wird sich einiges bei der Integration von Handy und Internet-verbundenen Rechnern tun. Das bisherige Hauptproblem des Internet, nämlich die unzureichenden Übertragungsgeschwindig-keiten, scheint mit der Funkübertragung zum großen Teil gelöst zu werden. Im Januar hat die Regulierungsbehörde Telekommunikation und Post beschlossen, die Lizenzen für UMTS-Frequenzen (Universal Mobile Telecommunication Systems) zu vergeben, und es kann davon ausgegangen werden, dass in spätestens zwei Jahren das „Internet-in-der-Hosentasche“ zum Standart gehört. Mit den so ermöglichten neuen Übertragungsgeschwindig-keiten werden neue Datenmassen, und vor allem neue Datentypen ihren Weg in die Speicher von Echelon und EDS finden. Es werden nicht nur wie bisher statische Nutzerdaten zur Person verarbeitet werden können, sondern auch Positionsdaten, mit denen sich wie von alleine detaillierte Bewegungsbilder von jedem einzelnen Nutzer erstellen lassen, aber auch allgemeinere Aussagen über Gruppenbewegungen, Mobilität usw. gewonnen werden. In diesem Zusammenhang wird es auch zu massiven Fusionierungsbewegungen zwischen Internet-Service-Providern und den Telekommunikationsriesen kommen, was die Sicherheitsstandards für Datenverwaltung (im Sinne des Nutzers) bestimmt nicht heben wird.
Eine andere abzusehende Entwicklung ist die Durchsetzung eines neuen Internet-Protokolls. Das bisher benutzte IPv4 lässt sich mit gebräuchlicher Software von jedem Festpunkt aus mitschneiden und in Klartext verwandeln – inklusive Passwörter. Das ist sicherheitstechnisch schlecht für die User, interessant für die Providerbetreiber und sehr gut für die staatlichen Sicherheitsinstitutionen. Wegen verschiedener Probleme, unter anderem der begrenzten Adressenvergabe, setzt sich zur Zeit ein neues Internet-Protokoll durch. Bei dem neuen Protokoll IPv6 wird IPSec integraler Bestandteil sein. Bei IPSec handelt es sich um ein Protokoll, das eine Verschlüsselung in Netzen verbessert. Im Gegensatz zu anderen Lösungen setzt IPSec nicht auf das vorhandene Übertragungsprotokoll auf, sondern ist direkt in dieses integriert. IPSec kann in zwei verschiedenen Modi betrieben werden: Im Transport-Modus werden nur die Nutzdaten verschlüsselt, und im sogenannten Tunneling-Modus können auch die Protokolldaten verschlüsselt werden. Desweiteren legt IPSec nicht die Verwendung bestimmter kryptographischer Verfahren fest, wodurch man flexibel auf Entwicklungen auf diesem Gebiet reagieren kann. Dieser Vorgang wird das Abhören ein bißchen komplizierter, und damit vor allem teurer machen. Die eingangs beschriebene Hektik der staatlichen Organe in Bezug auf die „Anonymität“ müssen auch vor diesem Hintergrund gesehen werden, und haben neben dem juristisch gesicherten Recht auf einen staatlichen Zugang zum Provider, auch das Ziel, die Industrie auf eine Kostenbeteiligung in staatlichen Sicherheitsinteressen zu verpflichten.
Ein anderer Bereich, in dem sich in den nächsten Jahren einiges bewegen wird, ist die tatsächlich physische Minimierung der Mensch-Maschine-Schnittstelle. So meldete eine us-amerikanische Firma, dass sie bis Oktober dieses Jahres den Prototyp einer implantierten Datenübertragungseinheit entwickelt haben wird. Die Sende- und Empfangseinheit soll an das GPS (Global Positioning System) angeschlossen sein, und elektromechanisch mit Strom versorgt werden. Der Träger dieses Implantats wird jederzeit lokalisierbar sein, und das Gerät selber kann durch den Träger oder von einer Überwachungsstation aus der Ferne angesprochen werden. Der Chefentwickler des Gerätes sieht verschiedene Einsatzmöglichkeiten: Online-Shopper könnten ihre Kundenkarte zukünftig unter der Haut tragen, Kunstwerke oder Risikopersonen könnten effizienter überwacht werden usw.. All das kommt aber nicht im Marketing-Konzept der Firma vor. Der suspekte Winzling wird unter dem Namen „Digital Angel“ vermarktet, und soll vor allem dem besten der Menschheit dienen – der Medizin. Intensivpatienten könnten so permanent auf ihre Körperfunktionen überprüft, im Krisenfall lokalisiert, oder eine interne Medikamentenzufuhr sogar von aussen gesteuert werden. In der Fachzeitschrift c´t äusserte dazu der Internist und Kardiologe Dr.Neudert: „Wer seine Entwicklungen mit medizinischer Forschung und verbesserter Patientenversorgung begründet, stößt in der Öffentlichkeit auf mehr Wohlwollen und lockt wahrscheinlich auch mehr Geldgeber an als derjenige, der etwa vom Nutzen für die Strafüberwachung spricht. Die Entwickler wollen an diesem Vertrauensvorschuss, den die Medizin in der Öffentlichkeit nach wie vor besitzt, teilhaben. … Wenn man hier zu rechnen anfängt, dann spricht vieles dafür, dass das Interesse an dieser Technologie aus einer anderen Ecke kommt.“ Daß man sich zu dieser anderen Ecke auch offen bekennen kann, und medizinische Vermarktungsstrategien vielleicht die vordergründigsten, aber nicht die einzigen sind, stellte der Chef von Sun-Microsystems klar, als er erklärte, er würde seinem Sohn jederzeit einen Chip implantieren lassen, um immer zu wissen, wo er ist: „Manche nennen das Big-Brother, ich nenne das Vater-sein.“
– Texte zur Sicherheit in der Informationspolitik, FoG:IS
– FIfF Kommunikation, 4/99 High Tech, Krieg und Frieden
– Zeitschrift für Kommunikationsökologie, 2/99
– Le Monde diplomatique, Mai 2000
http://userpage.fu-berlin.de/~bendrath/liste.html
http://www.ix.de/tp/deutsch/special/ech/default.html
– Ignacio Ramonet, Die Kommunikationsfalle, Die neuen Herren der Welt
– Richard Sennett, Der flexible Mensch
Realität und Spiele-Industrie
Eine eher sozial-ökonomische Auswirkung der „New Economy“ im Bezug auf die Realitätswahrnehmung beschrieb der amerikanische Autor John Naisbitt anhand der Spiel-Industrie in den USA. Er verdeutlichte sehr anschaulich die Deprivation, die durch die Spiele-Industrie in die us-amerikanischen Kinderzimmer getragen wird: Elektronische Spiele gehören in 65 % der US-Haushalte zum Alltag. Bei Familien mit männlichen Kindern sind es sogar 85%. Alleine in den USA hat die Spiele-Industrie einen Umsatz von 16 Milliarden Dollar pro Jahr, das ist mehr als das Doppelte der Kasseneinnahmen von Hollywood (7 Milliarden).
Mehr als die Hälfte der Spiele haben wiederum einen äusserst gewalttätigen Inhalt. Bekannte und populäre Beispiele sind „South Park“, in dem der Spieler möglichst effektvoll einen Mitschüler ermorden muss, oder auch „Carmaggedon“, bei dem man in der höchsten Stufe zig-tausend Passanten mit dem Auto überfahren muss. Die neuentwickelten Computer geben den Spielen einen atemberaubenden Realismus, und die Technologie ist darauf angelegt, die kindliche Aufmerksamkeit möglichst vollständig zu fesseln. Das Spielen wird zu einer intensiven Simulation persönlicher Konflikte. Obwohl es unter Psychologen mittlerweile anerkannt ist, dass diese Art von Spielen besonders bei jungen Spielern Sucht erzeugen, hindert das die Werbestrategen keinesfalls daran, mit Inhalten und Slogans zu werben wie „Handle lokal, töte global, lass das Tier in dir von der Kette!“. Im Gegenteil, der Kampf um die äusserst lukrativen Marktanteile zielt genau auf die Aufhebung der Trennung zwischen materieller Realität und digitaler Realität. So erklärte der leitende Produzent von „10Six“ das Konzept des von ihm verantworteten Militaristenspiels wie folgt: „Wir haben dieser Gesellschaft eine paranoide Philosophie zugrundegelegt. Die Prämisse des Spiels lautet: Ist man verrückt? Ist die Welt, in der man lebt, nur Einbildung?“
Die Wirkung brachte der ehemalige Militär David Grossman auf den Punkt, der in seiner Dienstzeit unter anderem an Programmen zur De-Sensibillisierung von Soldaten gearbeitet hatte: „Die Unterhaltungsindustrie konditioniert Jugendliche auf die selbe Weise wie Militärs.“ Naisbitt bezeichnet die amerikanischen Kinderzimmer als „Kriegsgebiet“, und zitiert verschiedene Psychologen, die einen Zusammenhang zwischen der vermittelten Gewaltkultur, der zunehmenden Isolation von Jugendlichen und ihrer Gewalttätigkeit sehen. Gegen solche Unterstellungen gibt die Spiele-Industrie wiederum viel Geld aus, und bemüht Spezialisten, die die positiven Auswirkungen auf Jugendliche in den Vordergrund stellen. Das klingt dann zum Beispiel so: „Elektronische Spiele sind ein soziales Medium, ein sozialer Mittler, um mit anderen Kindern ins Gespräch zu kommen.“
Das bisher gravierendste Beispiel für diese Art der Kontaktaufnahme bekam die beeindruckte amerikanische Öffentlichkeit am 20. April (!) 1999 in Littleton zu sehen. An der Columbia High School ermordeten 2 Schüler 12 Schulkameraden, einen Lehrer und sich selbst. Ausserdem hinterliess ihr kleiner Ausflug aus dem Reich der Realität 23 zum Teil Schwerverletzte. Zeugen des Massakers hatten bei den beiden weder Wut noch Hass festgestellt: „Doom wird Wirklichkeit“ hatten sie als Botschaft hinterlassen, und damit auf das wohl bekannteste und erfolgreichste Computerspiel der 90er verwiesen. Tatsächlich bestand die wesentliche Freizeitbeschäftigung der beiden netten amerikanischen Jungs aus Computerspielen. Von Doom hatten sie sich mit den dazugehörigen Internet-Tools eine abgeänderte Version zusammengesetzt, deren Szenerie den Schulkorridoren entsprach. Bis dahin waren 2,7 Millionen Exemplare von „Doom“ verkauft, und eine spezielle Variante, „Marine Doome“, wird seit 1996 von der US-Army zu Simulationszwecken betrieben. Insgesamt bewertete das Combat and Development Command des Marine-Corps damals 30 handelsübliche Computerspiele hinsichtlich ihrer Tauglichkeit für Trainingszwecke. Die für beide Seiten äusserst gewinnbringende Verbindung zwischen Militär und Spiele-Industrie geht auch wieder auf die frühen 80er Jahre zurück. Damals beauftragte die US-Army den damaligen Marktführer Atari mit der Entwicklung einer Spezialversion von „Battlezone“ als Trainingshilfe für Panzerfahrer. Seitdem hat es eine enorme Professionalisierung des US-Militärs durch Simulationstraining gegeben, und den verschiedenen Herstellern kamen die Forschungs- und Entwicklungsgelder zu gute. Zwischen beiden Seiten gab es einen intensiven Austausch an Talenten und Produkten, und inzwischen ist die Symbiose zwischen beiden so weit fortgeschritten, dass die Kids in ihren Kinderzimmern bereits mit dem Flugsimulator gespielt haben, bevor das Militär das entsprechende Jagdflugzeug überhaupt in den Dienst gestellt hat.
Unter Verweis auf diese engen strukturellen Verbindungen sprach Naisbitt in seiner Untersuchung von dem „Military-Nintendo-Komplex“, was mit Blick auf die Gesamtentwicklung wirklich keine Polemik, sondern eher verharmlosend ist.
John Naisbitt; High Tech, High Touch
© telegraph. Vervielfältigung nur mit Genehmigung des telegraph