11.07.2013

Ansichten: 34.912


Privatheit und Öffentlichkeit

Dieser Beitrag wartet schon ein bisschen länger auf Veröffentlichung, aber nun ist es Zeit ihn zu veröffentlichen, wo wir erfahren, in welchem Umfang Geheimdienste die Kommunikation erfassen und analysieren. Der Beitrag ist allerdings kein Empörstück, obwohl zur Empörung Grund besteht, und er behandelt auch nicht die verschiedenen Begriffe von Öffentlichkeit, etwa bei Luhmann und Habermas, und er hat auch keinen Appell, obwohl es heute kaum noch Texte gibt, die ohne Appell auskommen. Es geht hier vielmehr um eine allgemeinverständliche Darstellung der Phänomene und der Ambivalenz der Probleme. Vielleicht hilft er manchem als Anregung und Übersichtshilfe im digitalen „Neuland“. Mir hat es beim Schreiben geholfen zu verstehen, dass durch die Existenz des Internets immer mehr Informationsbarrieren fallen, und dennoch habe ich für mich genug Phantasie entwickelt. Bei den Möglichkeiten, sich gegen Überwachung zu schützen, ist noch nichts verloren, im Gegenteil: das grosse Spiel des Verheimlichens und Aufdeckens geht mit neuen Mitteln weiter. Am Ende, das wäre mein heutige Vermutung, steht entweder ein internationaler Superstaat, der mangels Gegenspieler jederzeit in ein totalitäres System umschlagen kann, oder die Nationalstaaten ziehen wieder die informatorischen Grenzen ein, die das Internet gebrochen hat. (Das kann nämlich passieren, weil auch die Architektur des Internets nicht ewig sein wird.) Das setzt allerdings voraus, dass nationalstaatliche Herrschaft so weit unter Kontrolle gebracht wird, dass sie keine Grundrechtsverletzungen durch Drittstaaten und ihre Organe duldet, weil sie davon nicht mehr profitieren will.

——————————————————————————————————————–
A.    Grundlagen

1.    Privatheit als informationelle Differenz

2.    Medien als Träger von Differenz

3.    Kenntnis als unwiderruflicher Kopiervorgang

4.    Technik, Erwartung, Soziale Normen

5.    Das Hinzutreten des Computers

6.    Autonomie und Gemeinwohl

7.    Informationssysteme als Vermittler und Verdichter von sozialer Realität

B.    Allgemeine Phänomene

1.    Grundlagen

2.    Sphären und Personas

3.    Kontext von Kommunikationsakten, Kommunikationsgeschichte als soziale Realität

4.    Relativität, Vertrauen, Kontextualität, Intuitivität 

5.    Peer-To-Peer-Öffentlichkeit, Handelnde Dritte, Publikation – Die Befreiung der Daten aus der Datenbank

6.    Institutionen, Personenanordnungen, Un-Strukturen

7.    Mega-Öffentlichkeit, Query-Öffentlichkeit, Unsichtbarkeit

C.    Spezielle Phänomene

1.    Große Kommunikationsdienste / Plattformen

2.    Verschränkung von Kommunikation und Transaktion

3.    Daten als Tauschgut

4.    De-Publizierung

5.    Unfreiwillige Öffentlichkeit/Intentionalität

6.    Ausschluß, Verabseitigung, Anonymisierung, Verschlüsselung, Verstecken

7.    Blockade, Desinformation, Noise

8.    Algorithmik

9.    Inhalteüberwachung

10.    Automatisierung

11.    Anonymität und Pseudonymität, De-Anonymisierung

12.    Big Data

13.    Raumüberwachung, Überwacher-Überwachung

D.    Schluss

——————————————————————————————————————–

A. Grundlagen

1. Privatheit als informationelle Differenz

Privatheit und Öffentlichkeit sind zwei Begriffe, die wir ohne Zögern verwenden und deren Konzepte uns im Alltag geläufig zu sein scheinen. Was wir zuhause tun, ist privat, und was wir öffentlich tun, tun wir auf der Straße oder dem Marktplatz, vereinfacht gesagt. Schon die Griechen unterschieden vom Gehöft (Oikos) die Agora, auf der man sich versammelte und auf der Institutionen angesiedelt waren, die der Allgemeinheit dienten. Bei näherem Hinsehen werfen sich allerdings Fragen zu diesen geläufigen Konzepten auf.

In einer gedanklichen Versuchsanordnung befindet sich eine Person in einem Raum – würden wir hier von Privatheit schon sprechen, obwohl wir nichts über die Welt außerhalb des Raumes wissen? Wäre nämlich der Raum auf einer Insel und gäbe es außerhalb des besagten Raumes dort keine weitere Person, so hätten wir Robinson auf seiner Insel ganz allein aufgestellt. Hier würden wir schon zögern bei der Formulierung, der einsame Robinson sei „privat“ auf seiner Insel. Privatheit als Konzept hat also immer mit mehr als einer Person zu tun.

Wenn wir nun in einem zweiten Gedankenexperiment zwei Personen in einem Raum aufstellen, eine dritte außerhalb des Raumes, würden wir wohl noch sagen, die zwei im Raum seien „privat“. Aber wo ist hier die Öffentlichkeit? Ist die Person draußen allein „Öffentlichkeit“, obwohl sie nicht im Raum ist ? Es wird also nicht einfacher, je länger man nachdenkt, und es ist so gesehen beim ersten unbelasteten Anlauf nicht so recht klar, was die beiden Begriffe genau bezeichnen: die Situation einer Person, eine jeweilige Situation zwischen Personen, echte Räume oder gedachte Sphären?

Im obigen Versuchsaufbau haben wir die Situation, in der sich unsere Personen befinden, nur als „Raum“ beschrieben und nicht gesagt, wie man sich die Situation genau vorzustellen habe. Ist das, was wir oben „Raum“ genannt haben, in dem zwei Personen sitzen, wirklich ein Gebäude moderner Bauart, oder ist es ein tief einsehbares Glasgebäude, in das der Dritte hineinsehen kann, oder ist es ein Zelt, durch das Laute dringen, die der Dritte hört? Wenn der Dritte diese Laute hört, ist es Sprache, die er inhaltlich versteht? Und würde Privatheit entstanden sein, wenn der eine die Sprache der anderen nicht verstehen würde – ein Kaspar Hauser mitten in New York? Oder ist die geschilderte Raum-Situation vielleicht nur eine abgesteckte Fläche, ein Claim, in dessen Mitte zwei auf je einem Stuhl sitzen und weit entfernt am Horizont der Dritte, der beide weder hören noch richtig sehen kann? Was wäre hier privat, und was öffentlich?

Bei näherem Nachdenken leuchtet ein, dass für diese Situationen der Aspekt der Information eine Rolle spielt: mal hört der Dritte, mal sieht er – oder eben nicht. Und was er sieht und hört, das kann Bedeutung für ihn haben, mal nur für ihn, mal auch für andere. Die Konzepte von Privatheit und Öffentlichkeit sind also von Information und Kommunikation (und einem Trägermedium) nicht zu lösen, und zwar weit bevor der Computer überhaupt erfunden wurde. Beide können, wie wir an Kaspar in New York gesehen haben, auch von der Bedeutung von Sprache und anderer Zeichen nicht getrennt werden. Das Private und das Öffentliche unterscheiden sich hinsichtlich Information. Privatheit ist, wo informationelle Differenz besteht.

Als zweite Bedeutungsebene wird das Private in Abgrenzung zum Öffentlichen, der Angelegenheit aller, der res publica und zum Gemeinwohl verstanden. Dieser Aspekt wird hier ebenso ausgeklammert wie Eingriffe in die Privatsphäre, welche unmittelbar die Autonomie betreffen, also faktische Eingriffe (z.B. staatliche Körperuntersuchungen) oder dezisionale Eingriffe (Eingriffe in die Entscheidungsfreiheit)

2. Medien als Träger von Differenz

In dieser Situation unserer fiktiven archaischen Aufstellungen verändern nun Medien alles. Die Schrift, die als Information sichtbar macht, was vorher fast immer körperlich an Menschen gebunden war (menschliche Äußerungen gab es nicht ohne anwesende Menschen), ermöglicht Durchbrechungen des Privaten, weil Zugang zu den Schriftzeichen den Zugang zum Menschen ersetzt. Das Buch macht die Information so reproduzierbar, dass sie allerorten, wo das Buch ist, an Dritte gelangen kann. Der Fotoapparat konserviert auf Fotos das Äußere des Augenblicks, die Erscheinung der Dinge. Und diese Erscheinung nimmt auch die Fernsehkamera mit Halbfotos die Sekunde auf, nur dass sie diese Erscheinungen via Sender über Geräte zu Empfänger-Massen multipliziert. Und alle diese Medien tragen (Informations-) Muster, die wohlmöglich privat sind, hierhin, dorthin, in die Welt. Sie tragen im Extremfall nach Art des „Big Brother“-Fernsehformates das Intimste sofort in Echtzeit in die ganze Welt, mit oder ohne Zustimmung des Betroffenen und – im Unterschied zum TV-Format – nicht als inszenierte Handlung, sondern als echte.

3. Kenntnis als unwiderruflicher Kopiervorgang

Schon bei diesen alten Medien kann man die Verletzung des Privaten nicht ungeschehen machen und Schaden schwerlich kompensieren, weil der öffentliche Widerruf genauso wenig hilft wie eine Zahlung in Geld: Information, die den Empfänger erreicht hat, hat sich quasi in ihm fortgesetzt, so dass diese neben der Codierung im Substrat besteht, dessen Vernichtung oder Untersagung den Duplikationsprozess nicht mehr revidieren kann. Pointiert: Die Bücherverbrennung kommt zu spät, wenn die Bücher gelesen sind. Kenntnisnahme ist ein unwiderruflicher Kopiervorgang von informatorischer Differenz, an dessen Ende die Differenz aufgehoben ist.

4. Technik, Erwartung, Soziale Normen

Natürlich sind heute Verletzungshandlungen nicht die Regel, weil wir gelernt haben, mit diesen technischen Innovationen umzugehen. Wir wissen heute, dass wir Plätze mit Menschen fotografieren dürfen, nicht aber dem Einzelnen mitten ins Gesicht. Man kann sich also vorstellen, dass jede dieser Innovationen den Umgang von Menschen mit Privatheit und Öffentlichkeit verändert hat, dass sie also alte Verhaltensmuster verändert hat und neue soziale Normen geschaffen hat. Die Vorstellungen von Privatheit und Öffentlichkeit sind Erwartungshaltungen an unsere Umwelt in Bezug auf informatorische Sachverhalte. Denn anders als unsere Vorfahren wissen wir nämlich auch, dass wir auf öffentlichen Plätzen damit rechnen müssen, in gehörigem Abstand fotografiert zu werden, als Beiwerk nämlich. Der Fotoapparat hat auf unsere Vorstellung davon, wie weit wir mit Beobachtung rechnen, zurückgewirkt. Und in den heutigen Konzepten wie Privacy by Design (vgl. auch den Begriff des Informationsschutzes) zeigt sich die gegenläufige Entwicklung, dass Technik und Prozesse über Eigenschaften verfügen, mit denen Erwartungshaltungen erfüllt werden können. Diese Erwartungshaltungen zeigen sich auch bei den heutigen Schlüsselbegriffen Privacy by Default, der Einwilligung, Datenvermeidung, Datensparsamkeit, Datenhoheit, Informationsrecht und Transparenz. Dabei sollte man nicht dem Irrtum unterliegen, dass Technik immer der Erwartungshaltung zuwider laufen muß: Schon der Beichtstuhl dient dem Schutz des Beichtgeheimnisses und er ist – zusammen mit Regelungen des Kanonischen Rechts – eine Entwicklung zu Barockzeiten, den einfachen Stuhl des Priesters durch Technik und Norm auf ein höheres Schutzniveau zu heben. Hier schafft Technik erst Privatheit.

Die Gesellschaft hat lange gebraucht, um auf Fragestellungen Antworten zu finden, die von neuer Technik ausgelöst wurden. Diese Antworten betrafen nicht nur die Frage, in welcher Situation man Menschen fotografieren darf. Es ging beispielsweise darum, ob man Briefe an Fremde öffnen darf und, wenn ja, wer welche (Adressat bzw. Verschluss). Es ging um die Frage nach der Behandlung von Kommunikationsakten wie Ehrverletzungen und Gewaltaufrufen, und solcher Akte, die sich gegen staatliche Rechtsgüter richten – und diese Diskussionen sind teilweise durch das Internet wieder entflammt. Wir haben das allgemeine Persönlichkeitsrecht weiterentwickelt, das Presserecht geschaffen, Betretungsrechte im Mietrecht geregelt und vieles andere mehr.

Die Geschichte von Privatheit ist eine eigene, lange Geschichte.
Was wir jedoch mit dieser Raffung zeigen können: Erstens sind die Strukturen von Privatheit und Öffentlichkeit schon früh in der Menschheitsgeschichte angelegt. Zweitens beruhen sie (mitsamt ihren Problemen) auf der Spannung zwischen Individuum, das sich selbst erfahren und die Grenze zwischen sich und Umwelt erfahren will, als etwas Getrenntem auf der einen Seite und seinen dafür notwendigen Kommunikationsbedürfnissen mit anderen Menschen (einzeln oder in Gemeinschaft) auf der anderen Seite. Und sie setzen sich, drittens, in den typischerweise gestiegenen Kommunikationsbedürfnissen der komplexer gewordenen Gesellschaft fort – Arbeitsteilung, Leistungsaustausch, Industrialisierung, Medien, Dienstleistungsgesellschaft und Urbanisierung seien als Schlagwörter genannt, um dieses Bedürfnis zu veranschaulichen. Plakativ: Der autarke Bauer auf seinem Oikos im Allgäu kann die Balance für sich meist leichter finden als der Kommunikationsberater in Berlin. Zweitens zeigen schon Beichtstuhl und Briefumschlag als Privacy Enhancement Technology, dass außer Normen auch Technik eine Rolle spielt

5. Das Hinzutreten des Computers

Vor rund 40 Jahren kommt der Computer in den Alltag und speichert Daten, was der Impuls für Datenschutz ist. Geregelt wird – wir müssen ab jetzt den Zeit- und Inhaltsraffer nutzen – zunächst der Kern, nämlich Ansprüche auf der Basis einer Vorstellung von „Herrschaft über Daten„, die regelmäßig „personenbezogen“ sind, in Prozess-Schritten erhoben und verarbeitet werden und von der Grundidee her sich in abgetrennten Systemen befinden, die von Staat und Privatunternehmen betrieben werden. Diesem Gedanken wiederum liegen Ideen aus dem späten 19. Jahrhundert zugrunde, vor allem das „Right to privacy“ von Warren/Brandeis, wonach jedem Individuum das Recht zustehe, selbst zu bestimmen, inwieweit seine „Gedanken, Meinungen und Gefühle“, mithin personenbezogene Informationen, anderen mitgeteilt werden sollten.

6. Autonomie und Gemeinwohl

Vor fast 30 Jahren wird dann angesichts der umstrittenen Volkszählung das „Recht auf informationelle Selbstbestimmung“ vom BVerfG geboren, genauer: aus dem allgemeinen Persönlichkeitsrecht abgeleitet. Dies ist das Recht des Einzelnen, grundsätzlich selbst über die Preisgabe und Verwendung seiner persönlichen Daten zu bestimmen. Wer nicht wisse, was mit seinen Daten geschehe, werde aus Vorsicht sein Verhalten anpassen, argumentiert das Gericht. Dies erinnert uns an die Vorstellung eines Panoptismus ( griech. Panoptes = „das alles Sehende“) nach dem Vorbild eines perfekten Gefängnisses, des „Panopticons„, von Jeremy Bentham, im Grunde ein architektonisches Prinzip der Überwachung, bei dem die Beobachteten in der dystopischen Reinform permanent keine Privatsphäre haben, weil sie ihnen nicht gewährt wird. Dieser Aspekt des „Beobachtet-Fühlens“ bringt neben dem bisherigen individual-grundrechtlichen Aspekt den Gemeinwohl-Aspekt als Aspekt ins Spiel. Hier geht es nämlich um eine vorsorgliche Maßnahme, um die Meinungsfreiheit und damit das Funktionieren der Demokratie zu sichern. Es spielen also in modernen Demokratien zwei Rechtsaspekte bei unserer Fragestellung mit:

  1. Wieviel Privatheit braucht es, um das Grundrecht nicht zu verletzen? Und:
  2. Inwieweit kann der Informationsfluss nicht nur gegenüber staatlichen Organen, sondern gegenüber allen gesellschaftlichen Teilen so gestaltet werden, dass er den demokratischen Meinungsbildungsprozess unterstützt?

Wir sind hier wieder beim Zweck der Agora im (Stadt-) Staat der Polis angekommen, die dem Gemeinwohl diente.

8. Informationssysteme als Vermittler und Verdichter von sozialer Realität

Pointiert gesagt: Die Privatheit des einen darf nicht verletzt werden, für die Meinungsbildung muss aber Wissen über andere irgendwie gewonnen werden (auch durch eigene Anschauung), damit der politische Prozess funktioniert. Ein Paradoxon, das nur dadurch aufzulösen ist, dass gesellschaftliche Schutzsphären entstehen, welche Daten über andere möglichst in (wissenschaftlichen Studien-) Situationen gekapselt, anonymisiert, mehrfach aggregiert und abstrahiert und in gesellschaftlichen Teilsystemen verarbeitet bzw. medial vermittelt an Dritte gelangen lassen, damit sie „Meinung“ entstehen lassen, die mit bestmöglicher Begründung genau diese Meinung geworden ist und nicht nur aus der kleinen Welt des meinenden, wählenden Bürgers stammen. Am Beispiel erläutert: Wer etwa seine politische Wahlentscheidung auch von Sozialpolitik abhängig machen und Lösungsvorschläge zu sozialen Brandherden bewerten möchte, muss vorher empirisch und konkret gewonnene Erkenntnisse haben, damit seine gesamte Wahlentscheidung nicht auf Vermutungen beruht. Wie geht das heute? Mit Informationstechnik, die Daten erfasst und diese in vielen Prozesschritten vom Einzelinterview über den Bericht bis zur medialen Schlagzeile verarbeitet.

Der demokratische Aspekt gibt also einen Transparenzimpuls in gesellschaftliche Systeme, die sich in technischen Informationssystemen niederschlagen, die wiederum potentielle Gefahrenherde für die im selben Atemzug ausgerufene informationelle Selbstbestimmung sind. Auch hier zeigt sich also die Spannung, dass einerseits Information fließen soll, die andererseits aus der Realität menschlichen Handelns kommt und mitunter gar nicht anders als aus der Realität des Einzelnen abgeleitet werden kann.

B. Allgemeine Phänomene

1. Grundlagen

Während also die Systeme zur Vernetzung tendieren müssen, um Komplexität zu bewältigen, und weltweit die Globalisierung ihren Lauf nimmt, tritt vor 20 Jahren das Internet in die Welt. (Dass 10 Jahre zuvor, also gleich nach dem Volkszählungsurteil, die ersten Mailboxen in Deutschland entstanden, die Information weit weg, sogar an unbekannte physische Orte und das bis zur Einführung des Zeittaktes für Ortsgespräche sogar mit Flatrate transportierten, ist eine Pointe der Geschichte: Diese Infrastruktur war ja zum Teil bewusst geheim.) Mit dem Internet macht die Entwicklung wieder einen Sprung. Durch weltweite Kommunikation verwirklichen sich große Chancen für eine globale Kommunikation in Echtzeit, durch Kommunikation von Transaktionsdaten werden Wirtschaftsprozesse effizient ermöglicht und so der Wohlstand vermehrt.

Umgekehrt zeichnet sich das Internet durch eine Reihe Eigenschaften und hierdurch hervorgerufenen Phänomenen aus, welche Konsequenzen für unser Thema „Privatsphäre und Öffentlichkeit“ haben.

  • Ubiquität: Mit der Allgegenwärtigkeit und Überallverfügbarkeit (Ubiquität) von Information aufgrund ihrer Schriftlichkeit und der mannigfachen Vervielfältigungs- und Replikationsmechanismen sind starke Phänomene zu beobachten, welche jede informationelle Trennung (von Räumen oder Sphären) immer latent gefährden. Das Netz tendiert dazu, informatorische Differenz auszugleichen, wie es auch die Finanzmärkte tun. Wir haben es hier mit einem weiteren Phänomen der Globalisierung zu tun: Nach den Waren, den Finanzen, den Umwelteigenschaften beginnt nun die Information global die Verhältnisse zu verändern. Das Netz ist ein Gleichmacher der informatorischen Verhältnisse.
  • Transaktion: Durch die Vermischung von Kommunikation mit Transaktion entstehen Chancen und Risiken; dem Social Commerce der Empfehlungskäufe steht gegenüber, dass diese Transaktionen neue Daten generieren, die aus dem Privaten ins Öffentliche strömen können und zum Teil ja sogar sollen; was sonst ist denn der Beitrag eines Nutzers in einem sozialen Netzwerk, er habe soeben einen bestimmten Artikel gekauft? So ist also der Satz aus dem Cluetrain-Manifest, „Märkte sind Gespräche“, nur die halbe Wahrheit. Vollständig lautet der Satz der Zukunft „Märkte sind Gespräche über Firmen, Produkte, Transaktionen und Käufer.“, womit klarer wird, dass nicht nur der Käufer über seine Transaktionen, sondern auch sich selbst erzählt.
  • Identität: Information ist im Vergleich analogen Medien sehr einfach, unbeschränkt und kostengünstig reproduzierbar, so daß sich in Kombination mit weitgehender Fälschbarkeit neue Probleme für den Schutz des Privaten ergeben, weil die Identität des Urhebers einer Information nicht gesichert ist. Ohne Identitätsmanagement kann es „innerhalb des Systems“ immer nur abgeleitete Vertrauensstellungen geben, welche aber „von außen“ prinzipiell gleichwertig sind.
  • Simulacrum: Das Internet repräsentiert Information der physischen Welt, so dass die Unterscheidung zwischen Original und Kopie, Vorbild und Abbild, Realität und Imagination schwierig geworden ist (Stichwörter „Simulacrum“ nach Baudrillard, „Virtualität„, „Hyperrealität“ und ähnliches): Was unterscheidet „Einkaufen“ in der einen Welt von „Einkaufen“ in der anderen Welt? Aus der radikalen Sicht eines „Ich“ muss dieses „Ich“ in beiden Fällen physisch Handeln, um sich zu bewegen und zu kommunizieren, bis die Ware kommt. Jenseits solcher sehr theoretischer Überlegungen stellt sich aber immer dann, wenn ein Prozess sein Pendant in der digitalen Welt gefunden hat, immer die Frage nach den Datenspuren, dem Datenschatten. Schon Lukrez erklärte in De Rerum Natura die Sichtbarkeit der Dinge mit ihren feinen Schichten, die sie aussenden, bis sie auf unsere Netzhaut treffen; er versuchte so ohne das Konzept von Göttern zu erklären, dass unsere Wahrnehmung auf kleinster Urmaterie (Atomen) beruht, die sich in ständiger Bewegung im leeren Raum befindet und durch Kollision Natur erschafft. Ist die Digitalisierung bestimmter Vorgangsabschnitte wirklich Grund genug, um wie selbstverständlich davon auszugehen, dass alle digitalisierten Vorgänge frei von Spuren sind? Oder müssen wir uns wie in der physischen Welt damit anfreunden, dass manche Vorgänge ebenso zu beobachten sind wie der Einkauf von Bio-Lamm am Stand des Lieblingsbauern auf dem städtischen Bio-Wochenmarkt ? Und um wieviel mehr stellt sich die Frage, wenn unser Handeln sogar mit der Absicht durchgeführt wird, von anderen wahrgenommen zu werden, weil wir kommunizieren wollen?

2. Sphären und Personas

Die Vorstellung, den Menschen umgäben Ringe von Sphären, die ineinander wie Zwiebelschalen geschachtelt sind, ist zwar vor allem im Recht noch anzutreffen, das die Konzepte der „Intimsphäre“ und der „höchstpersönlichen“ Sphäre, des „Kernbereichs der Privatsphäre“ neben bzw. innerhalb der Privatsphäre und die Sozialsphäre kennt.

Weiter entwickelt und heute verbreiteter als Theorien von Sphären sind solche der Personae: Wir haben zwar eine personale Identität, bewegen uns aber in verschiedenen sozialen Strukturen mit verschiedenen Personae. Wir zeigen in der Familie, unter Freunden, „Surf-Freunden“, im Sportverein und so weiter unterschiedliche Seiten von uns. Eine Information, mit der wir in einem sozialen Umfeld freizügig sind, wollen wir in einem anderen nicht preisgeben. Typisch, sagt man, seien fünf Gruppen von bis zu zehn Personen.

Diesem Konzept fehlt es an Praktikabilität. Unterstellt man, dass dasselbe Modell auch auf die Online-Nutzung übertragen werden kann, so muss man konstatieren, dass auch die besten Internetdienste die Personas bis heute nicht einmal modellhaft umsetzen können. Außerdem wäre die Komplexität und die Bedienbarkeit nach heutigem Ermessen für normale Nutzer nicht beherrschbar. Es müsste zusätzlich darum gehen, die Suchabfragen oder -keywords, den Sozialen Graphen, die Interessen, die Käufe, die Kalenderplanungen, die Geolokation und ähnliches abzubilden. Es müsste darum gehen, auch Finanzdaten und Gesundheitsdaten und ähnliche große Bereiche flexibel abzubilden (vielleicht in einem geschützten Modul). Und all diese Daten müssten auch noch anders gehandhabt werden, damit jedermanns Personae sich im Internet so verhalten wie außerhalb des Internets.

Die größte Schwäche der Personas sind, dass sie eine Generalisierung von Lebenssachverhalten ohne Berücksichtigung von Einzelbeziehungen sind, obwohl unser Vertrauen erstens relativ gegenüber einzelnen Individuen entsteht, wir uns zweitens in unterschiedlichen Kontexten anders verhalten und wir dieses drittens intuitiv und wohl kaum verallgemeinerbar tun. Dies soll sogleich gezeigt werden.

3. Kontext von Kommunikationsakten, Kommunikationsgeschichte als soziale Realität

Ein weiterer Aspekt ist Kontext einer Information. Dieser kann auf verschiedene Weise zu Kommunikationsproblemen führen:

  1. Fehlender, unvollständiger oder gefälschter Kontext ist schon immer ein Thema menschlicher Kommunikation gewesen, weit vor der Erfindung des Computers. Wir kennen dies etwa aus vielfältigen Diskussionen um „aus dem Kontext gerissene“ Interviewzitate.
  2. Zum Kontext gehört auch, dass der Absender zu erkennen gibt, welche Vertraulichkeitsstufe sein Kommunikationsinhalt haben soll, zum Beispiel durch Flüstern, Zwinkern, Zurseitenehmen, besondere Zeit- und Ortswahl („nachts am Grenzstein“) und ähnliches. Hierzu fehlt es im digitalen Teil der Welt noch an Kultur, weil die Schriftform scheinbar wenig Differenzierung bietet.
  3. Aber Kontext ist nicht nur ein Absender-Thema. Schon immer setzte ein Erkenntnis- und Verstehensakt meist ein gewisses Vorverständnis, gewisse Kenntnisse beim Empfänger voraus. Jedes herkömmliche Medium reißt schon Formen aus dem Kontext – wodurch sollte sichergestellt sein, dass der Empfänger ausreichende Kontextinformation hat? Das ist eines der Probleme im Umgang mit dem heutigen Internet: Je größer das Publikum ist, weil weniger Hürden (z.B. Kosten) und weniger begrenzte Zugangswege bestehen, desto unklarer wird, welcher Kontext vorausgesetzt werden kann.

Der eingangs (1.) genannte Fall des unvollständigen, weil beim Vervielfältigen bzw. Übertragen verlorene Kontextes ist neben gefälschtem Kontext das Hauptproblem. Es muss eine Grenze zwischen dem geben, was Kontext einer Information ist, und dem, was nicht mehr Kontext ist: niemand möchte das Internet duplizieren. Aber wo ist diese Grenze: Der vorherige Absatz, der ganze Beitrag, ein Thema, die Nachrichtenlage des Tages – in seinem zeitlichen Verlauf, mit verlinkten Texten, referenzierten und referenzierenden Kommentaren, mit Bild und Quelle?

Wie zum Beispiel wollen wir damit umgehen, wenn einzelne Kommentarbeiträge bei Diskussionen in Sozialen Netzwerken zu löschen wären, also zum Beispiel Kommentar Nummer sieben, wenn acht und neun auf ihn Bezug nehmen und so notwendigen Kontext verlieren würden? Hier zeigt sich wie im Prismenglas, dass Gespräche mehrerer Personen aus einer höheren Warte ein „übergeordneter“ Kommunikationsakt sind, die entstellt und zerstört werden, wenn man sie reduktionistisch zerlegt und mit den erlegten Teilen nach Belieben verfahren will. Darf man Nummer sieben löschen, wenn sie den wesentlichen Impuls zur Diskussion beigetragen hat? Es ist auffällig, dass in der Praxis des Internets über diesen Punkt häufig gestritten wird. Ist das Ergebnis nicht „gemeinsam“ erarbeitet, wird ein Folgekommentar nicht entwertet, wenn man ihm den Kontext nimmt? Wir haben derzeit keine Lösung. Dass Information aus der Vergangenheit zerstört wird, dass sie vergessen wird, verschwindet, das kennen wir. Was wir nicht kennen ist, dass einzelne Kommunikationsakte noch während des gemeinsamen Kommunikationsaktes unwiderruflich im Jetzt gelöscht werden, und dies auch noch durch einseitigen Akt eines Teilnehmers, der sich wohlmöglich aus besten Gründen auf seine Rechte beruft. Nicht anders übrigens, wenn ein Dritter einen Beitrag geschrieben hat, der vom Betroffenen zur Löschung veranlasst wird. Das ist, etwa im Falle von Beleidigung und Volksverhetzung, ein ohne Zweifel richtiger Vorgang, doch taucht hier ein Phänomen auf, was auch unser Thema betrifft. Das Löschen als actus contrarius mag angemessen sein, aber in wessen „Sphäre“ ist das von der „Persona“ gesagte, nachdem es weltweit verschriftlicht wurde? Man könnte, ganz gegen die herrschende Meinung, sagen: Was geschehen ist, ist geschehen – ganz so, als seien wir über eine Straße gegangen und wären dabei von einer Kamera aufgenommen worden. Die Strecke noch einmal rückwärts zu gehen hilft hier nicht. Und so haben wir auch hier einen Konflikt, den das Internet im Vergleich zum Buchdruck verschärft, denn die Information im Internet können wir häufig nicht „verbrennen“ und es gibt gute Argumente, dass wir uns vielleicht sogar auf den Gedanken einlassen müssen, eine alte Falschinformation genauso als historische Schlechtleistung stehen zu lassen wie die Gräueltaten in unseren Geschichtsbüchern, die wir ebenfalls nicht löschen. Was an Kommentaren der Individuen während der Kommunikation einander Kontext ist, ist eben auch das Ergebnis sozialer Interaktion und somit soziale Realität, die einfach ist, wie sie ist.

4. Relativität, Vertrauen, Kontextualität, Intuitivität

Wie auch immer man die kulturellen Wurzeln von Privatheit im Detail betrachten mag, sie haben mit Vertrauen zu tun: Wer darf was wissen? Und zwar entweder, ganz archaisch, weil wir befürchten müssen, dass uns der andere früher oder später Nachteile zufügt. Aber auch, weil wir befürchten müssen, dass eine Information ohne unsere Zustimmung oder unser Wissen Dritten zur Kenntnis kommt und uns also diese Nachteile zufügen könnten. Vertrauen dient der Überbrückung von Unsicherheiten im Verhalten anderer Menschen (Luhmann). Gerade letzteres ist kritisch, denn – hier wird das Problem des analogen und digitalen Informationsflusses wieder offenbar – es wird durch den letzten Schritt des Austretens aus unserem Kenntnisbereich für uns nicht mehr klar, wen eine Information bereits erreicht hat.

Es ist also potentiell jedermann ein Wissender, was uns die Entscheidung darüber, wen wir was wissen lassen, vor allem von dem Vertrauen abhängig machen läßt, dass er erstens uns keine Nachteile zufügt und zweitens diese Information nicht „leakt“. Während man bis vor kurzem noch gesagt hätte „Vorsicht ist die Mutter der Porzellankiste“, würde man heute sagen: „Vorsicht, jeder ist ein Wikileaks.

Wegen der Bedeutung der Beziehung zu jedem Einzelnen mutet es also zu simpel an, von „der Privatsphäre“ oder „den Personas“ als einem Modell, einem statischen Gefüge, zu sprechen. Vielmehr scheint es so, als handelte es sich erstens aus Sicht des Subjektes um das Kondensat aus einer Vielzahl einzelner Beziehungen zu anderen Personen (1:n) und zweitens als Denkmodell um die soziale Verdichtung des Verhaltens aller Personen (n:n) in einer Referenzgruppe, einem Land, einem Kulturkreis. Etwas zugespitzt: Wer empirisch messen will, was „Das Konzept der Privatsphäre weltweit“ ist, braucht Daten über ein repräsentatives Set von 7 Milliarden Menschen und muss folglich n-Fakultät Beziehungen erfassen. Eine Aufgabe für die Soziologie, die keine kleine Aufgabe ist.

Zur personalen Relativität kommt eine weitere Dimension hinzu. Ein Mehr oder Weniger an Vertrauen zwischen Menschen ist kein statischer Zustand, sondern wird vergeben, erworben und kann verloren werden, ist also ein zeitlich gestreckter Prozess. Wer kennt nicht die Reue nach einem Vertrauensbruch, die Information überhaupt gegeben zu haben?

Hinzu kommt noch mehr an Komplexität. Vertrauen ist nicht nur Bedingung für bestimmte Kommunikation, sondern auch deren Ergebnis: Das Vertrauen erhöht sich, wenn eine Information vertraulich gehalten wird. Über einen gewissen Zeitraum erweist sich, dass es richtig war, sich zu offenbaren. Umgekehrt ist Vertrauen an faktisches Handeln des Gegenübers gekoppelt: Ein Angriff auf die körperliche Unversehrtheit schadet, selbstloses Handeln („füttern“) nützt. Und schließlich kann niemand sicher sein, ob es eine externe Kraft gibt, die den Vertrauensbruch erwirkt (Beispiel: Erpresser E erpresst von A den Aufenthaltsort von B). Wir müssen uns sogar auf in zeitlich gestreckten Prozessen gewachsenes Vertrauen verlassen, weil wir keine sichere Kenntnis über die innere Motivation eines anderen Menschen haben und diese nur durch Beobachtung seines Verhaltens und eigene Schlüsse ersetzen können.

Dieser Aspekt des Vertrauens und seiner zeitlich-prozessualen Komponente ist kaum analysiert, verstanden oder gar technisch implementiert.

Dabei wäre es technisch nicht allzu schwierig, unterschiedliche Vertrauensstellungen zwischen Personen abzubilden (wie vielfach heute schon: Familie-Freunde-Bekannte-etc.). Eine großes Problem ist, aber dass diese Information keine Gültigkeit hat, weil es immer Menschen sein werden, die eine für sie verbindliche Aussage über die Vertrauenswürdigkeit eines anderen Menschen treffen können. Nur Menschen wissen nämlich, wer sich im Real Life vertrauenswürdig verhält, so daß Algorithmen selbst dann zu folgenschweren Fehleinschätzungen kämen, wenn diese unsere Internet-Kommunikation perfekt interpretieren könnten. Und so werden wir es immer mit dem Phänomen zu tun haben, dass Vertrauen schwindet, und dass Information, die bereits verteilt wurde, hiernach nicht mehr an die Stelle gehört, an die sie zuvor verteilt wurde.

Schließlich gibt es ein weiteres Problem mit dem Modell der Personas. Es berücksichtigt nicht die Systematik, nach der wir entscheiden, welche Persona wir anwenden. Wohlmöglich ist das, was uns als Modell einleuchtet, in Wirklichkeit von Ausnahmen so durchlöchert, dass nicht mehr viel von ihm übrig bleibt? Fünf Beispiele aus der Fülle des Lebens: So wird das zusammenwohnende Ehepaar während des Trennungsjahres möglicherweise den Nullpunkt an Vertrauen erreicht haben („Familie“), während zweitens die Kinder des Ehepaares alle familiären Geschehnisse den Nachbarn erzählen und drittens die Mutter jeden Abend mit einem „Surfing friend“ intime Geheimnisse tauscht. Auch wird die Frage, ob man seinen Wohnungsschlüssel seinem Nachbarn geben sollte, weniger von Sphären und Personas als von individuellem Vertrauen abhängen. Fünftens gibt es unter gutverdienenden Steuerberatern derselben Kanzlei („Arbeit“) möglicherweise die gleiche Freizügigkeit mit Einkommensinformationen wie sechstens unter Hartz-IV-Empfängern, die sich zum ersten Mal in ihrem Leben vor einem Amt treffen und schon von daher wissen, welche Einnahmen sie haben.

Jedenfalls gibt also keine allgemeingültigen Regeln, sondern eine höchst komplexe „Business Logic“, nach der Menschen mit Information gegenüber anderen Menschen umgehen. Es kann gut sein, dass wir es hier mit nicht formalisierbarem, höchsten Wissen zu tun haben, das wir Intuition nennen, weil es das älteste Wissen des Menschen repräsentiert, das noch älter ist, als er selbst: Wem kann ich vertrauen und wie weit kann ich das – in dieser Sekunde? Schon der Fisch hatte vermutlich Erkennungsmuster, wie er feindliche Wesen erkannte.

5. Peer-To-Peer-Öffentlichkeit, Handelnde Dritte, Publikation – Die Befreiung der Daten aus der Datenbank

Neue Komplexität ist auch entstanden, wenn wir die Struktur der Beteiligtenverhältnisse ansehen. Zwar hat es immer schon Konstellation mit drei Beteiligten gegeben, etwa wenn A mit C über B spricht oder wenn A ein Foto von B gemacht und dieses C gegeben hat. Unsere heutigen Rechtskonzepte gehen jedoch als Prototyp von einer Beziehung Bürger-Staat oder Bürger-Unternehmen aus, mithin von Zweierbeziehungen. Durch das breite Auftreten von Möglichkeiten, für jedermann im Web zu schreiben („WriteWeb“ als Teil von „Web 2.0.“) sind jedoch einige der Massenphänome Dreierbeziehungen, beispielsweise das Zuordnen von Personennamen und Mailadresse auf Fotos. Dieses „Tagging“ ist seit kurzem der Normalfall geworden, und zwar nicht auf großen sozialen Netzwerken, sondern und von Bilderdiensten, Bildbearbeitungsprogrammen und Spezialanwendungen. Auch die Möglichkeit, fremde Adressdaten hochzuladen, ist inzwischen auf dem Weg zum Standard. Hinzu kommen Dienste wie Bewertungsdienste wie Spickmich.de (Lehrer) und docinsider.de (Ärzte), die darauf abzielen, dass Information über bestimmte Bürger publiziert wird. Noch weiter gehen Dienste wie das inzwischen abgeschaltete rottenneighbour.com, auf denen anonym Cybermobbing betrieben werden kann. Zu diesem Zweck des Cybermobbings werden heutzutage viele Web-2.0-Plattformen genutzt, beispielsweise Videoportale, bis der Rechtsverstoß gemeldet wird. Wieder andere wie Jigsaw.com machen es zum Geschäftsmodell, dass Nutzer die verkäuflichen Kontaktdaten Dritter eingeben und hierfür einen Dollar erhalten – MicroDatenhandel in Heimarbeit ist da. Und dazu, dass Dritte den Personen Orte zuweisen wie den Fotos bei where-is-this.com, ist es nur ein kleiner Schritt: Check Deine Freunde ein und tu was für den ganzen Clan.

Wir beginnen uns damit zu befassen, dass Bürger Daten von Bürgern erfassen, und dabei haben wir zusätzlich damit zu tun, dass diese Bürger eben keine Fachleute sind und ihnen folglich die Tragweite ihres Handelns häufig nicht klar ist, wenn sie nicht vorsätzlich wie beim Cybermobbing handeln. Vom Gefühl, „mein Fotoalbum zu beschriften“ bis zur Vorstellung, auf einem fremden Dienst in der Cloud personenbezogene Daten Dritter abzulegen, ist es mitunter noch ein großer Schritt. „Privacy Violation by Crowdsourcing“ ist ein neues Phänomen. In diesem Zusammenhang ist auch das „Sprechen über einen Dritten“ zu erwähnen, dass es zwar schon in frühen Internetforen gab, mit maschinellen Analysen werden aber auch hier aus unstrukturierten Texte strukturierte, „harte“ Daten gewonnen: Es ist kein Problem, aus Tweets mit Geburtstagsgrüßen das Geburtsdatum beinahe aller Twitterer zu ermitteln.

Und noch weitere Fragen tun sich auf: Darf der Staat auf derart gewonnen Daten zugreifen oder besteht gegebenenfalls ein Verwertungsverbot? Lässt es sich dauerhaft wertungsmäßig unterscheiden, dass jedermann Fotos von Demonstrationen machen und diese im Internet veröffentlichen darf, wohingegen die Polizei an spezifische Voraussetzungen gebunden ist?

Schauen wir uns die IT-Systeme an, welche die Daten halten, sieht es nicht anders aus. Während der Datenaustausch zwischen Privatunternehmen mit Großrechnern der 70er selten vorkam, tauschen heute Unternehmen alle möglichen Daten in standardisierten Formaten. Zwischen Unternehmen ist die Vernetzung gestiegen: wo man früher noch Daten mühsam standardisierte (vom den ersten Ansätzen der EDI in den 60ern bis zum weltweiten UN/ISO-Standard EDIFACT), Datenträger tauschte und dann per DFÜ bewegte, erledigen heute APIs mit Web Services den Austausch standardisiert und in Echtzeit. Dass überhaupt Unternehmen Daten in großem Umfang publizieren, ist ein Phänomen der Vernetzung via Internet. Von der Öffentlichkeit kaum wahrgenommen sieht man dies im B2B-Bereich sehr gut, in dem beispielsweise das „Procurement“ Unternehmen verbindet. Aus den alten Solitären sind also vernetzte Solitäre geworden, ein Netz. Heute haben wir die nächste Stufe erreicht: Daten werden zwischen Online-Diensten ausgetauscht, nur dass es diesmal hauptsächlich Kommunikation von Endnutzern betrifft. Tweets landen in Suchmaschinen und auf Facebook oder Google +, Bilder des einen Fotodienstes werden in einem anderen angezeigt, Apps lesen Kontaktlisten aus und transferieren selbige so zwischen zwei Systemen. Aggregatoren wie FriendFeed oder rivva sammeln Kommunikation ein und zeigen sie an eigener Stelle an. Spezielle Ereignisdienste wie PubSubHubbub sorgen dafür, dass andere Dienste von Änderungen informiert werden. Theoretisch sind wir heute soweit, dass jede Information überall sein könnte, was nicht nur Informatiker vor Herausforderungen stellt, sondern auch Endkunden verstört: Eh man sich versieht, sind Daten in Drittsysteme repliziert. Ganz neue Dienste versuchen die allerorten verteilten digitalen Fotos an einer Stelle zu sammeln (Beispiel everpix.com), lösen aber weder die Ursache vielfacher gleicher Inhalte noch unsystematisch verteilter Inhalte, sondern reparieren den Zustand mit einer Umgehungslösung. Die erste Konsequenz: Dem Laien ist nicht mehr klar, welches System eigentlich was wohin kopiert hat, die Vorstellung von getrennten Publikationen schwindet – das Internet ist eine einzige, große Publikation Milliarden verlinkter Seiten, das Neue Buch der Bücher. Die zweite Konsequenz: Wer ist hier eigentlich noch der Diensteanbieter erster Ordnung, der die Information als erster ins Internet speiste, wer ist Anbieter zweiter Ordnung (der sie verbreitete), und wer hat technisch und rechtlich die Kontrolle über den Replikationsvorgang? Es wird schwieriger, dem Autor seine (Text-)Symbole zuzurechnen und es wird auch schwieriger, die Institution zu identifizieren, der man vertrauen kann. Alle Information scheint überall.

6. Institutionen, Personenanordnungen, Un-Strukturen

Auffällig an den Veränderungen im modernen Internet ist auch, dass die festen Strukturen von Institutionen, die wir bisher kennen, um neue Strukturen und höchst amorphe Gebilde ergänzt werden, die neu für uns sind. Wo wir es gewohnt sind, einzelne Personen, privatwirtschaftliche Unternehmen und staatliche Organe sowie bestimmte Sonderfälle wie NGOs zu erkennen, finden wir nun neue Anordnungen kommunizierender Menschen vor, die für uns in der digitalen Welt neu sind und die wir im Recht nicht als eigenständige Phänomene sehen.

Wenn Nutzer beispielsweise auf einem Fotodienst Fotos markieren, sprechen wir gern von ihnen als der „Crowd„. Wer ist hier im klassischen Sinne der Autor des Inhalts, wer ist das Subjekt, dem wir Vertrauen können? Entsteht hier eine Art „Systemvertrauen“ in die Plattform, den Marktplatz?

Offensichtlich verbindet die Personen nur ein abstraktes Ziel, dass man ihre Fotos mit bestimmten Schlüsselwörtern wiederfinden möge. Aber ein gemeinsames Zusammenwirken dieser Art ist neu in der digitalen Welt, obwohl wir bei genauem Hinsehen ähnliches von den Wegzeichen der Wanderer kennen, die in Einzelarbeit und ohne Kenntnis voneinander an einem gemeinsamen Zweck arbeiten. Anders etwa bei einem Wiki, das der Entdeckung von Plagiaten dient: hier verfolgen die Beteiligten einen klaren gemeinsamen Zweck, der ein Anfang und wohl auch ein Ende hat und gehen arbeitsteilig vor. Entsprechendes gilt, wenn Nutzer gemeinsam an Landkarten arbeiten. Anders wieder, wenn sich ein sogenannter Twitter-Shitstorm ad hoc bildet, binnen Stunden explosiv entwickelt, um sich sodann wieder niederzulegen – hier gab es vielleicht keinen gemeinsamen Zweck und hier ist vielleicht nicht einmal ein Ende auszumachen – wann sind „Gespräche der Gesellschaft“ zu Ende, zum Beispiel über Staatsverschuldung? Ergebnis: Wir finden Anordnungen von kommunizierenden Menschen vor, deren Dauer sehr unterschiedlich sein kann, deren Zweck mehr oder weniger bestimmt ist, die mehr oder weniger voneinander wissen und deren soziale Bindung unterschiedlich stark sein kann. Auf der einen Seite bestehen beispielsweise langfristige Aktivitäten mit einem bestimmten klaren und gemeinsamen Zweck und enger sozialer Bindung der Beteiligten, man nehme nur das gemeinsame Hochladen von Bildern einer Feier und das Taggen dieser Bilder. Auf der anderen Seite finden wir Aktivitäten, die entweder kurz sind oder die gar kein definiertes Ende haben, die keinen definierten Zweck haben und bei denen die Beteiligten keinerlei Bindung eingehen und womöglich auch gar keine Kenntnis voneinander haben. Was wir im öffentlichen Raum noch als „Ansammlungen“ oder „Versammlungen“ kennen, zeigt sich in der digitalen Welt als amorphes „Etwas“, als dynamische „Un-Struktur“. Hinsichtlich dieser Beobachtungen ist unser Konzept von Sphären und Personas wohl noch nicht leistungsfähig genug. Und das, obwohl es dank Technik schon lange Lebenssituationen gibt, in denen Menschen soziale Strukturen wie in einer wissenschaftlichen Laborsituation herausbilden, beispielsweise 1.000 Personen auf einem Überseedampfer, die es als 1er, 2er, 6er-Grupppen betreten und nach sechs Wochen mit veränderten Gruppenstrukturen verlassen, um danach in einem Melting Pot wiederum Veränderung zu erfahren.

Im Extremfall wissen die Beteiligten nicht einmal, dass Daten gesammelt und bestimmten Zwecken zugeführt werden, beispielsweise bei Stauwarnern, die Bewegungsdaten übermitteln, und bei Diebstahlmelde-Diensten, die bestimmte Häuser als gefährlich erkennen lassen. Dieser Effekt wird sich mit dem Internet of Things verstärken, wenn noch mehr Dinge miteinander kommunizieren und erst recht niemand mehr weiß, warum und worüber und welche Schlüsse sie dabei ziehen. So ist heute schon bekannt, dass Smart Meter über den Stromverbrauch das abgerufene Fernsehprogramm erkennen lassen, wenn die Messung sehr genau ist.

Die neuen sozialen Gefüge von der „Crowd“ bis zu den „Un-Strukturen“ verändern informatorische Sachverhalte gefährlich, weil sie anonym, schnell und von enormer Schlagkraft sein können. Gleichzeitig sind sie so jung, dass wir unsere Konzepte von Zurechnung und Verantwortung prüfen müssen: Wer ist hier Täter, wer ist Teilnehmer? Sind alle, die Webanalyse-Software beitreiben oder „Gefällt mir“-Buttons einbauen nicht eher Gehilfe oder Werkzeug denn Täter? Oder werden wir neue Konzepte benötigen in einer Welt, die zigtausende Handelnder aktivieren kann?

7. „Mega-Öffentlichkeit“, Query-Öffentlichkeit, Unsichtbarkeit

Die Öffentlichkeit, die durch das Internet entsteht, hat nie gekannte Ausmaße. Jede Webseite, die nicht explizit einem geschlossenen Benutzerkreis zugeordnet wurde, kann von Milliarden Menschen eingesehen werden. Zusätzlich überwindet sie unsere gelernten Erfahrungen von Distanz und Nähe: Wir können in Sekunden zwischen New York, Rio und Dänemark hin und her klicken. Und schließlich überwindet das Web auch zeitliche Vorstellungen, denn grundsätzlich muss man sich die Daten unbegrenzt haltbar vorstellen. Diese drei Phänomene kennzeichnen „Mega-Öffentlichkeit„, die uns noch fremd ist. Doch es ist paradox: Zugleich verschwindet Öffentlichkeit, wenn man sie als Spiegel der Gesellschaft versteht: jeder kann spiegeln und niemand sieht mehr alles, die „Öffentlichkeit“ der Massenmedien wird immer schwerer herzustellen.

Dabei ist paradox, dass auch die Öffentlichkeit unseres Hauses unbegrenzt ist: es kann ja jeder U.S.-Bürger, jeder Brasilianer und jeder Däne an ihm vorbeispazieren und uns ins Fenster schauen.

Bezüglich unseres Hauses sind wir aber doch recht sicher, dass außer ein paar Nachbarn und Menschen, die nicht weit von uns wohnen, niemand vorbeischauen wird. Dieses Urvertrauen fehlt uns im digitalen, obwohl die Verhältnisse dort nicht anders sind: es kommt ja nur auf unsere Website, wer sie angesteuert hat (in der Regel über eine Suche , „Query/Anfrage-Öffentlichkeit„). Anders formuliert: wie weit die Öffentlichkeit tatsächlich reicht, entscheidet der Empfänger.

Im Unterschied zur alten Welt jedoch wird er normalerweise nicht gesehen, während er selbst sieht und beobachtet. Die Unsichtbarkeit des Sehenden ist also ein weiteres Phänomen.

C. Spezielle Phänomene

1. Große Kommunikationsdienste / Plattformen

Das Internet hat schon seit Anbeginn die Möglichkeit geboten, auf Basis der definierten Kommunikationsstandards und -protokolle eigenständige Serverapplikationen aufzusetzen, die anderen die Möglichkeit zur Kommunikation boten. Die drei Datenstrukturen Personendaten, Kommunikationsdaten und Verhaltensdaten finden sich schon in den alten Foren (Bulletin Boards), in denen Nutzer kommunizierten, wobei sie sich häufig mit Personendaten anmelden mussten, bevor ihre Texte gespeichert wurden, und wobei über Logfiles einfache Zugriffsprotokolle erstellt wurden.

Mit Auftreten der großen Web-2.0-Dienste, vor allem großer Sozialer Netzwerke, kam es jedoch zu einer quantitativen Veränderung, die man als qualitativen Sprung der Datenerhebung ansehen muss: Wo jeder zweite Bürger der Online-Population, zumeist unter Klarnamen, in einem einzigen, großen Dienst mit anderen kommuniziert, entstehen zusätzlich zu den eigentlichen Kommunikationsinhalten aussagekräftige Interessensprofile und Muster der sozialen Interaktion und der Interaktion mit allen Systemteilen, die tiefe Analysen seines Verhaltens zulassen.

Dienstenbieter wiederum prüfen mit hohem Aufwand Beiträge von Nutzern auf verschiedene Rechtsverletzungen und Verletzungen von Nutzungsbestimmungen, und sie schalten Profile frei, erteilen Hinweise oder „Verwarnungen“ und deaktivieren Nutzerprofile. Dies erfolgt, um eigener Haftung zu entgehen und den Nutzen des Dienstes zu erhöhen. In kommunikativer Hinsicht nehmen diese Anbieter aber auch eine Sonderstellung in der Kommunikation ein und sind vielleicht als Letztinstanz in einem freiwilligen und somit privat-vorstaatlichen Mechanismus einer mehrstufigen Selbstkontrolle anzusehen. Man könnte sie also nicht nur als potentielle Täter von Verletzungen der Privatheit, sondern auch als ordnendes und schlichtendes Element begreifen und ggf. nutzen.

Diese Anbieter können auch als Treuhänder von Daten anzusehen sein, denen die Daten von Nutzern anvertraut werden. Es gelten jedoch drei Besonderheiten: Zum einen haben Anbieter zusätzlich grundsätzlich vollen Zugriff auf Verhaltensdaten. Das Paradoxon ist daher, dass auch der vermeintlich unauffällige Nutzer hierdurch erst ein wesentliches Risiko schafft. Zum anderen haben die Anbieter für die Zukunft der Nutzung die Herrschaft über die Mechanismen der Plattform und können so faktisch (Änderung von Privatsphäre-Einstellungen, Neues Funktionsmodul) oder rechtlich (Nutzungsbestimmungen, „Code is Law„) starken Einfluss auf die künftige Handhabung von Privatheit und Öffentlichkeit nehmen. Schließlich gibt es Schnittstellen- und Plattformkonzepte, bei denen die Anbieter Dritten eine gewisse Vertrauensstellung gewähren. Eine App, die auf Daten eines sozialen Netzwerks mit Zustimmung des Nutzers zugreift, holt sich zwar dessen Zustimmung, auf korrekte Funktion kann der Nutzer aber nur Vertrauen, weil die App bis zu einem gewissen Punkt durch den (Plattform-)Anbieter zertifiziert ist.

Es fällt auf, dass die Anbieter hinsichtlich des Gefährdungspotentials nicht viel anders als eMail-Hoster zu beurteilen sind. Wir haben uns nur bei letzteren schon daran gewöhnt, dass unsere eMails über Server Dritter versandt werden (und das auch noch zumeist im Klartext), genauso wie wir uns längst daran gewöhnt haben, Transaktionsdaten an Banken und Kommunikations- oder Bewegungsdaten an Telekommunikationsunternehmen zu liefern. Die Irritation der Öffentlichkeit wird wohl zumeist eher dadurch hervorgerufen, dass die Anbieter der neuen digitalen Dienste erstens neuartige und noch nicht verstandene Funktionen entwickeln (Beispiel: Geokoordinaten über WLAN) und zweitens neue soziale Praktiken prägen (Beispiel: Check-Ins, Foodspotting…) – dies auch noch in einem atemberaubenden Tempo, soziale Netzwerke hatten ja erst 2007 in der Breite den Durchbruch. Es kann daher nicht verwundern, dass es durch das Handeln der großen Internetdienste-Anbieter zu gesellschaftlichen Friktionen kommt.

Von besonderer Bedeutung ist dabei allerdings die gut maschinenlesbare, strukturierte Information, die durch semantische Daten entsteht. Wenn also eine Plattform ein Verhalten speichert, also zum Beispiel „Ich mag Coca-Cola“, dann erfolgt dies im Schema <Person> <Relation> <Objekt>. Auf diese Weise lassen sich Vorlieben, Käufe, Orte und vieles andere mehr abbilden. Die großen Anbieter haben damit längst begonnen, zum Beispiel um die Ergebnisse von Suchabfragen zu verbessern.

Aus subjektiver Sicht der meisten Nutzer ist allerdings zweifelhaft, ob es wirklich ein Konzept von „Plattform“ im Sinne eines abgegrenzten Bereiches gibt. Zwar ist die Software eine gut greifbare, weil geschlossene, abgegrenzte, per URL-aufrufbare „Blaue“ mit bekanntem Logo, doch ist für eine einzige Person völlig unklar, was außer der von ihm selbst bestimmten Daten öffentlich ist und was privat. Aufgrund komplexer Privatsphäre-Einstellungen wird ein greifbares Bild von „Räumen“ nämlich verhindert. Ebenso ist aufgrund von Datentransfers zwischen Plattformen manchmal nicht klar, welche Daten zu welcher Plattform „gehören“. Es gibt also kein genaues Bild von Systemgrenzen, „Plattformen fransen aus“, was uns den Umgang erschwert. Wo das Ziel der Plattform ist, mit granularen Einstellungen maximalen individuell-situativen Schutz zu erreichen, verhindert genau dieses aber ein klares Bild der Situation, weil man nicht Herr Alles-Sieht ist, der alle Einstellungen aller Beteiligter sehen und begreifen kann.

2. Verschränkung von Kommunikation und Transaktion

In der heutigen Internetwelt sind Transaktions-Websites (insbesondere eCommerce) von Kommunikationsdiensten getrennt und nur mit Links verknüpft (z.B. ein Facebook-Link auf einen Shop-Artikel). Zu den Sharing-Funktionen, die diese Links erzeugen, sind aber in jüngerer Zeit kaum merklich andere Daten hinzugekommen: Shares werden gezählt („Anzahl Tweets“), im eCommerce-Umfeld tauchen über Social Plugins Kontaktlisten auf. Aufgrund der Kundenwünsche, die gern nach Empfehlung kaufen, und infolgedessen nach dem Wunsch von Anbietern, die gern mehr verkaufen, werden sich diese beiden Welte in den nächsten Jahren stark verschränken. Wir wissen noch nicht, welche Formen dies

genau anneh­men wird. Es ist jedoch naheliegend (Phänomen blippy.com, iTunes-Käufe auf Ping), dass Käufer bestimmter Schichten und Produkte eine weitere Datenspur der Transaktionsda­ten im Web hinterlassen werden. Dies bedeutet, dass ein bisher eher als privat empfundener Bereich nun teilweise öffentlich wird. Eventuell werden wirtschaftliche Anreize die Nutzung beschleunigen („3% auf Ihren Kauf, wenn sie ihn ihren Freunden erzählen.“). Bei Spezialanbie­tern in sensiblen Bereichen, aber auch bei Vollsortimentern kann es zu unerwünsch­ten Veröffentlichung kommen, sei es technisch bedingt oder durch Fehlverhal­ten der Nutzer.

1.        Daten als Tauschgut

Seit den werbefinanzierten Internetangeboten hat sich die Sicht geprägt, der Nutzer eines Dienstes bringe seine Daten gegen eine Leistung des Diensteanbieters ein. Dies gilt nicht nur, soweit die Auslieferung von Werbung in irgendeiner Weise maßgeschneidert ist, sondern auch, wenn andere Verwertungsformen (z.B. Direktansprachemöglichkeit durch Head­hunter) bestehen oder der Anbieter selbst wiederum Nutzerdaten handelt. Hier ist zum Teil ein komplexes ökonomisches Verwertungssystem entstanden, das auf diesem Grundmechanis­mus aufsetzt.

Außer den naheliegenden Perspektiven des klassischen Datenschutzes sind hierzu weitere Aspekte zu sehen, die unsere Gesellschaft künftig beschäftigen könnten. Erstens könnte es Menschen geben, die aus finanziellen Gründen faktisch gezwungen sind, ihre Daten zur Verwer­tung anzubieten. Der wohl geringe wirtschaftliche Wert von einigen EUR ist nach der gegenwärtigen Schutzsystematik kein Grund, das Problem geringzuschätzen, denn maßgebli­che Konsequenz ist die Preisgabe eines Freiheitsrechtes. Zweitens könnte dieser Tausch­aspekt den Umgang mit Daten im digitalen Zeitalter generell ändern. Drittens entstehen neue Geschäftsmodelle, zum Beispiel treten Dritte als Treuhänder von Daten auf oder Anbie­ter veröffentlichen Kaufdaten und entgelten dies dem Käufer. Viertens könnte ein echtes Do-Ut-Des die Tätigkeit der Diensteanbieter selbst ändern – sei es, dass sie den Nutzer als Kunden begreifen, sei es, dass sie sich um Kunden auch in dieser Hinsicht in Wettbewerb geben, zum Beispiel dadurch, dass sie den Nutzern mehr Rechte in den Nutzungsbedingun­gen zuweisen.

2.        De-Publizierung

Die Aussage „Das Internet vergisst nichts“ mag als pädagogisch intendierter Rat richtig sein, fachlich ist sie in ihrer Unbedingtheit falsch. Ganze Dienste werden vom Netz genommen, weil die Unternehmen insolvent sind. Einzelne Online-Produkte rechnen sich nicht und werden eingestellt. Beispiele wären die Communities von GMX, Giga, Nintendo und Bym. Bei technischen Relaunches werden Kommentare nicht übernommen. Nutzerkommen­tare von eCommerce-Shops verschwinden, weil jährlich 30% des Artikelstam­mes aus dem Sortiment genommen werden. Öffentlich-rechtliche Anstalten sind zur Depublika­tion verpflichtet. Unternehmen nehmen alte Websites vom Netz, weil sie einen Relaunch machen. Vorstände begrenzen Archivdauern der Websites auf gesetzliche Fristen, so dass ältere Pressemitteilungen verschwinden. Wer findet heute noch die Geschichten der sog. „New Economy“?[1]

Die Konsequenz dieser Erkenntnis ist, dass im digitalen Medium (genau so wie bisher auch) Teile der (Spuren von) Kommunikation verschwinden können, welche mit Privatheit zu tun haben. Dadurch kann die oben genannte De-Kontextualisierung eintreten oder auch explizite Klarstellung oder gezielte Störinformation verschwinden. Wenn also – wie im „echten Leben“ auch – es dem Betroffenen gelang, über seinen Aufenthaltsort zu täuschen, weil er hierzu Grund hatte, könnte es sein, dass genau diese Handlung durch De-Publikation verschwindet und somit die Ur-Darstellung allein steht.

3.        Unfreiwillige Öffentlichkeit/Intentionalität

Wer kennt sie nicht, die Geschichten versehentlich öffentlich geposteter Veranstaltungs­einladungen, die für Private bestimmten Statusmeldungen von Politikern. Zu den nicht intendierten Privatsphäre-Verletzungen gehören auch zweitens solche aufgrund unverstandener Privatsphäre-Einstellungen sowie drittens solche wegen unver­ständlichen Zusammenwirkens verschiedener Software-Module (Geolocation auf OS-Ebene, auf Browser-Ebene, auf Dienste-Ebene). Viertens gehören in diese Kategorie ebenso Daten Dritter, beispielsweise Kontaktdaten bzw. Adressbücher, die von Nutzern hochgeladen werden in der Annahme, sie seien „sein eigenes Adressbuch“ und das Zielsystem sei „seine eigene Fanpage“.

Ein viertes Phänomen stellen Daten dar, bei denen sich der Veröffentlichende nicht darüber im klaren ist, dass diese Daten im Zusammenhang mit anderen Daten bestimmte Schlüsse zulassen. Beispielsweise könnte man aus einer Abfolge von Einkäufen via blippy.com und einem abend­lichen Tweet schließen, dass der Nutzer eine Blondine beim Candle-Light-Dinner bekocht hat.

Ein fünftes Phänomen liegt vor, wenn maschinelle Verfahren Nutzerverhalten analysieren und dabei Wahrscheinlichkeiten zutage fördern, die uns gar nicht bekannt waren. Beispiels­weise lässt sich die Eigenschaft eines Mannes, dass er homosexuell ist, mit einer hohen Wahr­scheinlichkeit aus seinem sozialen Graphen schließen, wenn unter seinen Freunden einige als homosexuell bekannt sind (MIT 2007). Auch die Trinkgewohnheiten lassen sich erkennen, wenn jemand häufig schreibt, was er gerade trinkt, was er gerade an Alkohol gekauft hat, und wenn er Bilder postet, die Dritte mit Schlüsselwörtern wie „betrun­ken“ versehen.

4.        Ausschluß, Verabseitigung, Anonymisierung, Verschlüsselung, Verstecken

Es gibt eine Reihe von bekannten Verfahren, wie im Internet Privatheit hergestellt wird. Das einfachste Verfahren besteht in der Wahl eines Kommunikationsmittels, das die Kommunika­tion nur mit definierten Empfängeradressen voraussetzt, beispielsweise E-Mail oder Chat. Ausschluss undefinierter Teilnehmer findet aber auch statt bei geschlosse­nen Benutzergruppen, zum Beispiel in Foren. Zu den it-technischen Mittel gehört ebenso, die gesamte Kommunikation in einen abseitigen Bereich zu verlegen, beispielsweise durch Benutzung eines seltenen Ports. Künftig kann auch eine Möglichkeit darin bestehen, sich ein eigenes Netzwerk aufzubauen  – Ad-Hoc-Meshups, neue Wireless-Dienste mit hoher Reich­weite und Body-to-Body Networks[2] können die Kommunikationslandschaft neu prägen, indem sich viele Menschen für bestimmte Zwecke aus dem Internet ausschließen.

Während der Inhalt auf den genannten Wegen jedoch leicht ermittelt werden kann, gehen zwei Techniken weiter: Anonymisierung verschleiert die Identität der Teilnehmer, Verschlüsselung codiert die Kommunikationsinhalte selbst mit einem Schlüssel, der nur berechtig­ten Personen zur Verfügung stehen soll. Eine weitere Möglichkeit besteht darin, die Information zu verstecken. Das geht entweder mit hergebrachten Verfahren wie Geheimschrif­ten und Geheimsprachen, aber auch mit neuen digitalen Mitteln, zum Beispiel indem man die Information mit technischen Mitteln so in andere einbettet, dass sie nicht ohne weiteres erkannt wird (Steganographie).

Bei der Entwicklung dieser Techniken ist auffällig, dass es fast immer aufdeckende Gegenmit­tel gibt, von Abhören unverschlüsselter Mails über den Port-Scanner bis hin zur Steganalyse und Kryptanalyse. Absolute Privatheit, die nicht gebrochen werden kann, gibt es im Internet nicht; selbst ein guter Anonymisierungsdienst kann nur dann nicht abgehört wer­den, wenn man ihn selbst betreibt. Es ist heute nicht vorhersehbar, wer im Kampf der Metho­den und Gegen-Methoden die Oberhand haben wird. Vielleicht werden sogar aufde­ckende, die Privatheit brechende Verfahren eines Tages jedermann zur Verfügung stehen.

5.        Blockade, Desinformation, Noise

Neu bei den modernen Kommunikationsmitteln ist, dass man ihr Funktionieren durch Einfluss­nahme auf Infrastruktur stören kann. Was man beim Handy schon als Störsender oder „Handy-Blocker“ kennt, geht auch bei Funksignalen aus WLANs und anderen Funknet­zen, welche Internetprotokolle nutzen. In der Zukunft ließe sich so beispielsweise ge­zielt eine Nutzung an bestimmten Geokoordinaten unterbinden. Dies ist freilich eher ein Instrument digitaler Kriegsführung.

Grundsätzlich ist es aber auch für den Privatnutzer denkbar, die Kommunikation von Endgerä­ten anderer auf diese Weise mit einem „Internet-Blocker“ zu blockieren; in einem Café könnte man mit Störsender oder Internet-Blocker das Twittern nach außen blockieren und auf diese Weise eine Sphäre sichern. Ein ähnliches Phänomen zeigt sich bei einem Patent, wo ein Server einem Handy aufgrund seiner Standortinformation die Kamera deaktivieren kann; dies könnte Aufnahmen von Musikveranstaltungen und ähnliches verhindern und so also eine Sphäre Dritter schützen. Technologie spannt hier also einen Schutzschirm auf, der sowohl zum Schutz von Intellectual Property als auch zum „Sphären“-Schutz verwendet wer­den kann.

Ein weiteres Phänomen ist gezielte Desinformation. So ist es ein leichtes, durch alte Fotos ein falsches Bild zu vermitteln oder durch Software falsche Geokoordinaten zu generieren. In Zukunft sind Automaten und Robots für solche Tätigkeiten gut geeignet, programmiert be­stimmte desinformierende Datenstrukturen zu hinterlassen. Auf diese Weise können falsche und irreführende Daten erzeugt werden – nichts anderes macht ja heute schon, wer bei Registrie­rungsformularen bewusste Falschangaben macht, um seine Privatsphäre zu schüt­zen, und wer „shared bogus accounts“ nutzt.

Sobald Maschinen diese Aufgaben übernehmen, wird es auch möglich sein, ein Informations­rauschen zu erzeugen, das andere Informationen überdeckt. Um ein heute mögli­ches Verfahren zu nennen: ein Browser-Plugin könnte vordefiniert und automatisch solange verschiedene Webseiten aufrufen, bis die vorgetäuschten Interessen von der Profi­ling-Engine des Werbevermittlers für die maßgeblichen gehalten werden. Nicht absichtsvoll, sondern zufällig erzeugte Desinformation könnte man als Informationsrauschen oder Noise bezeichnen. 10 vom Nutzer eingegebene Abfragen gehen in 150 von der Maschine erzeugte Abfragen unter, die eine falsche Datenspur legen. So ähnlich arbeitet seit 2005 schon das Browser-Plugin TrackMeNot, das die Interessen-Erkennungsmechanismen von Suchmaschi­nen irritieren soll, in dem es maschinell neue Suchabfragen erstellt. Setzt man das Plugin in Deutschland ein, wird jedoch eine Pointe deutlich: Aufgrund der falschen Abfragesprache können die Abfragen von der Suchmaschine erkannt und ignoriert werden. Die Tarnkappe funktioniert also nicht. Niemand weiß, ob es eines Tages gelingen kann, jegliche Datenspu­ren mit Fehlinformation zu verwischen. Sobald aber die Spuren Muster aufweisen, wird die Verdeckungsabsicht deutlich und der Nutzer ist enttarnt. Es ist ein Katz- und-Maus-Spiel der Algorithmen. Woher wollen wir wissen, ob unsere informatorische Tarnkappe noch funktioniert? Spion und Spion.

6.        Algorithmik

Ein weiteres Phänomen ist die Gewinnung neuer Daten aus bestehenden Daten mit Hilfe von Logik oder Algorithmen. Man könnte hier neben den freiwil­lig abgegebenen Daten und den observierten Daten auch von abgeleiteten Daten spre­chen.

So können etwa Wahrscheinlichkeitswerte zu Bonität, Krankheiten und Kriminalität aus der Gesamtbetrachtung von Personendaten und Statistiken erstellt werden. Dies erfolgt mit Bonitäts­daten schon lange im eCommerce zum Nutzen der Beteiligten. Ebenso lassen sich gesundheitliche Risiken aus Statistiken der Luftüberwachung ableiten. Über tiefe Textanalyse können beliebige Objekte analysiert werden, z.B. Reisedaten von Personen (vgl. recorded­future.com) und anderes mehr.

Wir können derzeit nicht absehen, wie leistungsfähig und aussagekräftig die Verfahren der Zukunft sein werden. Neben den vielen Chancen zeigen sich jedenfalls auch Risiken. Zum einen werden maschinelle Hinweise gegeben, hinsichtlich welchen Aspektes eine Person genauer zu betrachten ist, so dass die Chance deutlich steigt, ein privates Faktum aufzudecken. Beispiels­weise könnte man bestimmte religiöse Minderheiten aufgrund ihres Einkaufsverhaltens eventu­ell gut erkennen. Und wo maschinelle Schlüsse plausibel sind, etwa hinsichtlich der Kriminalitätsrate einer Person, bewirken diese Hinweise tatsächlich ein Verhalten der Um­welt, das dieselben Konsequenzen wie die Aufdeckung eines tatsächlichen Faktums haben. Wer von einem Fraud-Detection-System der Zukunft als „Wahrscheinlich-ein-Dieb“ klassifiziert wird, wird wohl noch weniger als ohne dieses Kainsmal stehlen wollen. Wir ha­ben es also bei zutreffenden Schlüssen mit Aufdeckung des Ungewollten zu tun und bei fal­schen Schlüssen mit der Wiedergeburt des menschlichen Vorurteilswesens mit maschinellen Mitteln.

7.        Inhalteüberwachung

Relativ jung ist die Inhalteüberwachung, die im digitalen Raum wegen maschineller Verfah­ren die Inhalte von Kommunikation weitgehend analysieren kann und die somit Sonderfall der Algorithmik ist. Schon bei der Untersuchung von Mails werden für werbliche Zwecke Interessensprofile erzeugt; dies ist kein Geheimnisbruch, da die „Einsicht“ durch „nicht­sehende“ Maschinen geschieht und mit Kenntnis des Absenders in die Sphäre des Betrei­bers geraten, der diese Maschinen betreibt. Ein ähnliches Phänomen tritt bei maschinel­ler Erkennung von Spam und Fake-Profilen auf, denn es wird vor allem in sozialen Netzwerken mit (Social Media) Monitoring-Anwen­dungen die Kommunikation inhaltlich analysiert. Schließlich sind – neben Kriminellen – auch Staaten mit der maschinellen Inhalte­analyse befasst, wobei hierzu auch Schnittstellen bereitgestellt werden. Unter dem hier betrachteten Gesichtspunkt ist evident, dass alle diese Anwendungen eine Softwaregat­tung vorantreiben, die das Potential hat, sphärenüberschreitenden Informationsfluss auszulö­sen, der von Absendern und Betreibern nicht gewollt ist, und somit zu schwerwiegen­den Konsequenzen führen kann. Beispielsweise ließe sich, um nur den Fall öffentlich verfügbarer Information zu betrachten, anhand gecrawlter Filmrezensionen und mit statistischen Daten über das Ausleihverhalten von homosexuellen Frauen die Homosexuali­tät einer Autorin erkennen.

8.        Automatisierung

Ein neueres Phänomen sind auch Applikationen, die halb- oder vollautomatisch Daten sam­meln, welche herkömmlich der Privatsphäre zuzurechnen sind. Einige dieser Applikatio­nen veröffentlichen diese Daten auch. Beispielsweise publiziert blippy.com Transaktionen, die mit Kreditkarten getätigt wurden (Vorläufer ist Apples Ping), voyuurl.com veröffentlicht URL-Folgen von Browsersessions, GPS-Tracker speichern Geokoordinaten für Dinge aller Art (insbesondere Autos) und Personen,  Facebook zeichnet gelesene URLs sowie Bücher, Musik und Filme auf und veröffentlicht diese in der Timeline.

Zusätzlich zu diesen technischen Phänomen beginnen Menschen, mit Selftracking ihre Lebens­gewohnheiten und Fähigkeiten zu messen und zu analysieren, mehr im Portal quantified­self.com. Beispielsweise werden Schlafgewohnheiten in Relation zu Lebensgewohnhei­ten gemessen, Wissenslücken bei Quizzes maschinell erkannt, Launen auf mögliche Ursachen geprüft, Surfverhalten optimiert und Sport sowie Essensgewohnheiten und Körpergewicht analysiert. Hierzu wird zum Teil spezialisierte Hardware (insbes. Senso­ren) verwendet, die künftig auch in Kleidung als Wearable eingebettet sein kann und für die ferne Zukunft als Implantat eingesetzt werden soll. Diese modernen Ideen haben ihr sozial adäquates Pendant im Gesundheitswesen (M-Health), bei dem Herzfrequenzen, Blut­druck, Position und andere medizinische Werte an Server übermittelt werden, beispiels­weise[3] bei Demenzpatienten.

Alle nicht medizinisch motivierten Verfahren sind gesellschaftlich umstritten. Viele Nutzer und Unternehmen erwarten neuartige Erkenntnisse und halten die aktuellen Phänomene für den Vorboten des Datenschattens, der uns künftig in der Ambient Intelligence begleiten wird und halten diese Entwicklung für die logische Fortsetzung der Erfassung öffentlich zugängli­cher Bilddaten. Erste Kritiker warnen vor einer Veränderung, die soziale Zwänge auslöst, ohne dass die Folgen absehbar wären.

9.        Anonymität und Pseudonymität, De-Anonymisierung

Anonymität und Pseudonymität gibt es nicht erst seit Erfindung des Internets, doch auch sie machen strukturelle Probleme, je genauer man hinsieht. Denn beide Konzepte gibt es nicht isoliert, sondern es kann sie nur in Bezug auf andere Menschen geben: Während es einer­seits dem Bergbauern vielleicht in seinem kleinen Umfeld gar nicht möglich ist, anonym aufzutre­ten, kann dies für denselben Bergbauern in einer fremden Stadt die Regel sein, da ihn dort niemand erkennt. Beide Konzepte setzen nämlich mindestens eine weitere Person voraus, den Wissenden bzw. Nicht-Wissenden. Dieser kann die Identifikation der Person entwe­der gar nicht vornehmen (Anonymität) oder er gehört als Wissender zu einem begrenz­ten Personenkreis, der die Identität dieser Person anhand von Merkmalen erkennen kann, während der Nicht-Wissende die Identität nicht erkennen kann. Dabei ist der Name der Person der naheliegendste Fall möglicher Merkmale: einen Anonymous scheinen wir nicht zuordnen zu können, einen Peter Pan hingegen schon. Was aber, wenn es nur eine Person gäbe, die sich Anonymous nennt, und zehn, die sich Peter Pan nennen? Wie man sieht, dreht sich auch die Identifizierbarkeit um, weswegen es genau genommen auf die Bedeu­tung des Namens nicht ankommt. Allein entscheidend ist, ob wir eine eindeutige Adressie­rung einer Person vornehmen können, und dabei kann es statt eines Namens auch ein ganz anderes Merkmal sein, z.B. einmalig-eindeutige Kleidung, ein Apfel auf dem Kopf, ein roter Hahnenkamm, die jeweils als Adressierung dienen. Hinzukommt, dass die Adressie­rung so weit von Dauer sein muss, dass ein Wiedererkennen möglich ist: Die Rose im Knopf­loch hilft beim Blind Date, den Partner zu erkennen, hebt aber dessen Anonymität erst auf, wenn er sie ein weitere Gelegenheit trägt, so dass wir die Person als bekannt erkennen. Adam und Eva wären also auch dann nicht anonym gewesen, wenn sie sich keine Namen gegeben hätten – ein Wiedersehen genügt.

Vielleicht muss man also sagen, dass Anonymität der theoretische Urzustand ist, der solange aufgehoben ist, wie sich eine Person innerhalb einer sozialen Struktur bewegt und mit ande­ren interagiert. Wer dann wieder anonym sein will, muss sich dorthin begeben, wo sich sein gewohntes Personenumfeld nicht befindet – und so ist das Weggehen in eine andere Stadt, ein anderes Land oder einen Kontinent der typische Fall des bürgerlichen Neuanfanges, der mit Anonymität wieder beginnt.

Im Internet dienen Anonymität und Pseudonymität zunächst dem Schutz der Person. Ihre Identität soll nicht für alle (=öffentlich) erkennbar sein – es entsteht also Privatheit als ein Für-Sich-Sein beziehungsweise Unter-Einander-Sein. Dabei tauchen eine Reihe von Phänome­nen auf. Erstens ist dieser Schutz unabhängig vom Zweck der Handlung, kann also auch böser Absicht dienen. Ein Beispiel: Derselbe Lehrer, dessen Pseudonymität ihn eben noch vor seinen Schülern schützte, kann diese eine logische Sekunde später nutzen, um verbo­tene Bilder von Schülerinnen herunterzuladen. Anonymität und Pseudonymität sind also zwangsläufig ambivalent, je nach Absicht der Person. Zweitens gibt es technische Mittel, die Anonymität aufzuheben, wie Gesichts-, Stimm- und Texterkennung, was im Nachhinein den Schaden stark erhöhen kann, weil der Betroffene sich gerade in der Annahme, geschützt zu sein, sehr klar artikuliert hat (s.o., TrackMeNot-Plugin). Drittens kann man im Internet schon aufgrund der Komplexität „versehentlich die Tarnkappe verlieren“, was zum selben Ergebnis führt. Viertens setzt Kommunikation ein Wiedererkennen von Absendern der Kommunikationsakte voraus, weswegen auch der anonyme Nutzer sich wiedererkennbar zeigen muss und so wohlmöglich einzigartige Merkmale preisgibt, zumal Kommunikation auf ihre Fortsetzung angelegt ist. Und fünftens behaupten viele, mit anonymen Personen sei im Vergleich zu identifizierten Personen nur weniger Vertrauen zwischen den Beteiligten möglich. Gerade hier ist die Anonymi­tät aber zugleich ein Stück „Privacy in Public“, in der die Beteiligten sich mehr anver­trauen können, weil sie sicher sein können, dass der Kontakt ohne ihr Zutun nicht das digitale Medium verlässt. Es scheint also die Schutzwirkung der Anonymität zum einen von der Absicht der Beteiligten, zum anderen von der Ein- bzw. Mehrseitigkeit der Beziehungen abzuhängen.

Ein weiterer Aspekt ist, dass ein Identitätswechsel aufgrund einiger Phänomene zum Teil schwierig geworden ist. Zwar kann man im Extremfall für einen Neuanfang den Namen wech­seln, doch machen öffentliche Fotos und bestimmte Profilinformation es nötig, auch das Aussehen zu verändern. Von den ersten Fällen, in denen Polizisten ihren Aufgaben nicht mehr nachgehen können, weil sie aufgrund von Internetdaten gut identifizierbar sind, wird berichtet.[4] Auch anhand dieses Beispiels zeigt sich, wie ambivalent die Veränderungen sind, denn was der Erkennung von Tätern dienen kann, kann den Einsatz von Polizisten verhin­dern.

Mittel- und langfristig ist es fraglich, ob es ohne Privacy Enhancement Technology (PET) Anonymität und Identitätswechsel überhaupt ge­ben kann für Personen, die im Internet kommunizieren. Es gibt nämlich viele Technologien, welche die Aufdeckung der Identität bezwecken. Beispielsweise wird in der Autorenerkennung (aus der forensischen Linguistik) versucht, Merkmale von Autoren mit Wahrscheinlichkeitswerten zu versehen und Autorenidentität mit Textvergleichen zu erkennen. Neben diesem gern „sprachli­cher Fingerabdruck“ genannten Prinzip gibt es auch den technischen Fingerabdruck, beispielsweise ergibt die Kombinatorik aus Browser- und Systemeigenschaften häufig eine eindeutige Identität (s. panopticlick.com). Auch kann heute anhand sozialer Interaktionsmus­ter (wer kommuniziert wann mit wem worüber) eine Identität mit Wahrschein­lichkeiten versehen werden. Die Augmented ID befasst sich mit der Kombination aus Gesichtserkennung und zeigt dem Gegenüber Personendaten des Betrachteten. Fügt man nun noch die Erkenntnisse zu Algorithmen, Automatismen und Ambient Intelligence hinzu, sieht man die Entwicklung: Die Anzahl von Auslösern bzw. Sensoren steigt, die Einspei­sung ins Internet nimmt zu, die Analysefähigkeiten von Software nehmen zu. Wer hier noch Kommunizieren will, muss im Allgemeinen bleiben und sich in jeder Beziehung verwechselbar verhalten, so dass Kommunikationszwecke in frage gestellt werden. Wie soll ich meine Identität und ein Innen und Außen trennen, wenn ich mich nicht kommunikativ unterscheiden darf? Hier ist ein fundamentales Problem.

10.   Big Data

Nach der mooreschen Faustregel verdoppelt sich die Anzahl der Transistoren je Chip in weni­ger als zwei Jahren. Grob gesagt verdoppelt sich Rechenleistung je EUR jährlich. Hinzu kommt leistungsfähigere Software, z.B. für Virtualisierung und Skalierung. Seit neuestem ist es möglich, 1 PetaByte (=1.000 GigaByte) an Daten innerhalb einer halben Stunde zu sortie­ren; für diesen Rekord wurde die Aufgabe auf einem System von 8.000 Servern verteilt.[5]

Was Techniker „Big Data“ nennen, also neuerdings mögliche, schnelle und günstige Auswer­tung sehr großer Datenmengen, bietet viele Chancen für die menschliche Gesellschaft. Ei­nige davon sehen wir schon heute, etwa Live-Stauwarnungen auf Landkartendiensten, wel­che diese Daten aus den Positionsdaten der Fahrzeuge gewinnen, oder Statistiken und Progno­sen über aufkommende Krankheiten mit regionalen und zeitlichen Angaben. Andere Dienste sind am Horizont sichtbar, wie simultan funktionierende Echtzeit-Übersetzungen, die aus einer Vielzahl von Übersetzungen im Internet gespeist werden. Wieder andere wie Hochrechnungen und Analysen gesellschaftlicher Trends (Beispiel: Berechnung makroökonomi­scher Trends) und politische Problemlösung kann durch Kenntnis von Daten über komplexe Systeme und Strukturen erleichtert werden; die Gesetzgebung kann so empi­risch fundiert werden (Stichwort: evidence-based policy). Aus einer gewissen Perspektive können hierunter eines Tages auch Abstimmungsdaten aus Bürgerbeteiligung und ähnlichem fallen. Wir könnten aus vielen Quellen, insbesondere Sozialen Netzwerken, neue empirische Daten erhalten und auswerten, um menschliches Sozialverhalten zu erforschen und so – pathetisch ausgedrückt – die „Soziologie 2.0“ begründen. Stichwort „End of Theory“ (Chris Anderson[6]).

Wir wissen heute noch nicht, wie hoch der Preis für solche Erkenntnisse sein wird. Wie auch sonst bei Datenbeständen bestehen hier Risiken, allen voran Missbrauch, fehlerhafte Anonymisie­rung und versehentliche oder absichtlich-geleakte Veröffentlichung dieser Daten. Dabei könnte es sein, dass durch die Kumulation von Big Data mit anderen Phänomenen Probleme der De-Anonymisierung entstehen. Es ist nämlich nicht ganz klar, wie schädlich beispielsweise eine anonymisierte Liste aller ehemaligen Mieter eines Hauses ist (Wohnung, Zeitraum etc.), wenn das Haus nicht hundert, sondern nur vier Mietparteien hat. Würden nämlich hierzu nun weitere Big-Data-Töpfe zugemischt wie die Bonität und Krankheitsdaten, könnte man aussagekräftige Wahrscheinlichkeitsberechnungen darüber durchführen, wer als Rollstuhlfahrer im Erdgeschoss auszog und wer als „Besserverdiener“ im selben Monat das Penthouse anmietete. Die Adressierbarkeit von Personen steigt.

In jedem Fall bleibt eine geringe Wahrscheinlichkeit eines Daten-Unfalls, der möglicherweise ungekannte Auswirkungen auf die Privatsphäre von Millionen Menschen hat. Schon 1990 hatte der geplante Verkaufsstart von Lotus Marketplace, einer CD mit Datensät­zen von 120 Millionen U.S.-Haushalten erhebliche Proteste ausgelöst. Big Data ist einerseits ein quantitatives Problem, hat aber auch eine qualitative Seite, weil auf neuen Anwendungsfeldern neue Daten genutzt werden, die Data Value haben, und weil Verschiebun­gen sozialer Strukturen denkbar sind, etwa wenn bei einer bestimmten Krank­heit jeder erkrankte Bürger namentlich bekannt würde.

11.   Raumüberwachung, Überwacher-Überwachung

Jedermann kennt heute die Video-Überwachung von Kunden und Mitarbeitern durch Privatunternehmen, aber auch durch Staatsorgane (v.a. an öffentlichen Plätzen), was vielerorts diskutiert wird. In jüngerer Zeit fügt sich hier ein neues Phänomen ein: Bürger über­wachen Bürger. Auf der einen Seite sind Pennycams für jedermann günstig verfügbar (z.B. bei eBay und hier http://megaspy.net). Zum anderen werden Smartphones mit hochauflö­senden Kameras der Regelfall sein, die bereits heute Videos (z.B. via UStream) live streamen können. Schließlich werden wir, getrieben durch die großen Internetanbieter das Vordringen von Videotelefonie an den Arbeitsplatz und auch ins Heim erleben, so dass häu­fig Kameras mit Internetanschluss vorzufinden sein werden. Es ist nur noch eine Frage des Zeitpunktes, bis Kameras allerorts direkt ins Internet streamen können und auch von außen ansprechbar sind. Denn auch hier schreitet die Technik fort, WLAN-Technologie mit 16 Gbps ist noch in diesem Jahrzehnt zu erwarten.[7] Drahtlose Funknetze mit Reichweiten deutlich über die heutigen WLAN-Standards hinaus sind angekündigt.

Hinzu kommen noch zwei weitere Phänomene. Die oben schon angesprochene GPS-Signal-Ermittlung findet nicht nur bei Handies statt, sondern auch bei Fahrzeugen und bei Dingen, die wir wiederfinden wollen, z.B. Laptops und Handies[8] (übrigens inklusive Datenübermittlung und Nutzer­foto vom Dieb). Entsprechende Technologien kommen für die Ortsbestimmung von Perso­nen zum Einsatz, z.B. für Kranke und Kinder. In Kombination mit Gesichtserkennung und Auto-ID-Verfahren im Zusammenhang mit RFID-Chips ist damit der nächste Schritt nahe: Zu den Videos und Ortsangaben kommen Personendaten hinzu. Was wie eine versehentlich entste­hende Dystopie aussieht, wird in Teilbereichen schon erprobt: So gibt es etwa in den Nieder­landen einen Pilotversuch, bei Nahverkehrsmitteln die Videoüberwachung um Gesichtserken­nung zu ergänzen, damit über Datenbankabfragen Personen mit Hausverbot maschinell erkannt werden können.[9] In den USA wird der erste Gerichtsbeschluss kontro­vers diskutiert, wonach ein GPS-Empfänger für polizeiliche Ermittlungen ohne richterlichen Beschluss zur Ortsbestimmung des Verdächtigen eingesetzt werden darf.[10] Unabhängig da­von kann es vorkommen, dass Sicherheitsmängel es Dritten ermöglichen, sich der techni­schen Infrastruktur zu bedienen, beispielsweise Stalker die Ortsermittlung ihrer Opfer.[11]

Neben diesen faktisch entstehenden oder beabsichtigten Veränderungen entstehen weitere Phänomene: Unter Policing the Police wird das Phänomen verstanden, dass Bürger Polizisten überwachen (vgl. OpenWatch.net und den CopRecorder, „inverse Überwachung“). Ebenso entstehen Szenarien im Sinne einer Bürgerwehr oder militanten Gruppen, die andere Bürger überwachen („Türken überwachen Kurden“). Und schließlich bleibt am Ende die Frage, ob nicht durch massenhafte Datensammlung von Bürgern und Unternehmen sich nicht die Diskussi­onslage um staatliche Überwachung verschiebt: Outsourcing Staatlicher Überwa­chung an die Bürger.

D. Schluss

Die Ausführungen haben gezeigt, dass das Internet als der dem Buch und den Massen­medien folgende mediale Umbruch nicht nur die Informationsverarbeitung der Menschheit allgemein verändert, sondern Auswirkungen auf Privatheit und Öffentlichkeit haben wird. Denn die Grenze zwischen beidem ist in vielerlei Hinsicht fließend und unscharf, und sie ist eine Grenze, die unmittelbar mit der Durchlässigkeit für Information zu tun hat. Wenn jede Information überall ist, gibt es keine Privatheit mehr. Private Information ist das, was im In­nen ist und vom Außen getrennt ist; sie ist informatorische Differenz. Auch die bloße Erschei­nung ist Information, sie kann mit Mitteln des Internets ebenso übertragen werden und diese Information wirft daher gleiche Fragen auf.

Das Internet bringt Mechanismen mit sich, welche die informationelle Trennung von Innen und Außen aufheben, z.B. weil Information kopiert, abgeleitet und sogar neu erzeugt wer­den kann, weil die bloße Erscheinung niemanden zuvor zur Kenntnis kam. So hebt es die informatorische Differenz zwischen technischen Systemen, aber auch zwischen gesellschaftli­chen Systemen auf. Man könnte daher annehmen, dass Internetmechanismen a priori die Grenze der Privatheit verschieben in dem Sinne, dass es mehr Öffentlichkeit und weniger Privatheit gibt.

Doch ist diese Prognose völlig unsicher, solange nicht geklärt ist, ob die neuen Technologien nicht auch „Gegenmittel“ hervorbringen, beispielsweise spezielle und geschützte Endgeräte, Blockademechanismen, großflächige private Netze und ähnliches – so wie Webanalyse-Soft­ware zur Entwicklung von Plugins geführt hat (Anzeige von Analyse-Software beim Surfen) und wie die Online-Werbung den Ad-Blocker provozierte. Ob es hierbei zu technischen Gegenmitteln kommen wird (z.B. Blockaden und Noise), ist unklar; bei der Videoüberwachung wird es kein sinnvolles Gegen­mittel geben, da wir uns nicht ständig vermummen wollen. Vielleicht müssen sich künftige Generationen sogar daran gewöhnen, dass sie außerhalb von ihnen kontrollierter Räume ständig beobachtet werden können.

Besorgniserregend, weil die Autonomie betreffend, sind eine Reihe von Technologien, wel­che Aussagen erzeugen können, die dem Nutzer nicht vorher erkennbar sind, namentlich Algorithmen zur Identitätsermittlung wie Autorenerkennung, aber auch Analysen von Verhaltens­daten. Kritisch sind auch identitätsaufdeckende Techniken, von der Gesichtserken­nung bis zum Erstellen von „Fingerabdrücken“ aus aller Art von Informationen. Die Gefahren könnten sich durch die Ausdehnung ins Internet Of Things und die Automatis­men verstärken.

Ambivalent ist auch die Frage nach Anonymität und Pseudonymität, weil diese zwar eine wünschenswerte Option darstellen, aber mit guter und mit schlechter Absicht eingesetzt werden können – und folglich sind auch die Entwicklungen ambivalent. Ebenso ist die Frage nach Privatheit nicht schlechthin mit einem „100%“ zu beantworten, denn wo Information von Mensch zu Mensch unter Abwesenden nicht unmittelbar übertragen werden kann und mit Hilfsmitteln mittelbar nicht geschehen dürfte, gäbe es kein komplexes soziale Gefüge, gibt es keine moderne Gesellschaft. Eine Option für das Individuum muss gegeben sein, für die moderne, ausdifferenzierte Gesellschaft ist dies jedoch im Ganzen keine Lösung.

Wir werden, weil viele Technologien noch sehr jung sind (Gesichtserkennung,  Geokoordinatenermitt­lung, verschriftlichte Alltagskommunikation im Web („Write­Web“) mit Sozialen Graphen), noch am Anfang stehen (Big Data, Semantic Web) oder weiter in der Zukunft liegen (Body-To-Body-Networks), die Sachlage ständig beobachten und bewerten müssen und bei der normativen Grenzsetzung flexibel bleiben müssen.

Kurzfristige Überforderung im sozialen Gebrauch neuer Technik, korrekturbedürftige techni­sche Fehlentwicklungen, unangemessene Reaktion der Beteiligten sind ebenso wahrschein­lich wie Über- oder Unterregulierung, weil das Tempo der Entwicklung alle Systeme der Gesell­schaft berührt. Doch dieser Umbruch ist aus einer historisch-kulturellen Perspektive nicht der erste – und die hinter den Phänomen verborgenen Konzepte, Strukturen, Probleme und Lösungen sind so alt, dass es überraschen würde, wenn die Menschheit die Vorteile des Umbruches nicht langfristig zu nutzen und die Nachteile zu beherrschen in der Lage wäre.



[1] http://carta.info/31497/alles-ist-ueberall-vergisst-das-internet-wirk­lich-nichts/

[5] http://business.chip.de/news/Google-So-werden-1-Petabyte-an-Daten-sortiert_51591014.html

[6] http://edge.org/3rd_culture/anderson08/anderson08_index.html

[7] http://blog.infotech.com/analysts-angle/peering-ahead-multi-gigabit-wireless-will-replace-cables/

[8] vgl. http://www.apple.com/de/icloud/features/find-my.html – “Find-my“-Funktion in Apples iOS 5.0.