tl;wnr (too long; will not read): Wie sollen Online-Dienste mit sog. Hassrede umgehen, am Beispiel eines antisemitischen Postings eines Youtubers mit Millionenreichweite? Eine Frage der Unternehmensethik.
Viele Menschen und Medien schreiben die letzten 24 Stunden über das letzte Video des Youtube-Stars Julien (ich verlinke es hier nicht, aber ein Infoquelle ist zum Beispiel hier).
Ich bin selbst der erste, der provokante Äußerungen mit Unkenntnis, Dummheit und emotionaler Fehlhaltung zu erklären versucht. Ich bin der Ansicht, dass man Menschen nicht für Dummheit bestrafen sollte, denn sie haben meistens keine Wahl in dieser Hinsicht. Es hat auch nicht jeder das Werkzeug entwickeln können, Situationen sozial zu bewerten. Und ich glaube, man sollte nicht jede Äußerung als Sachaussage nehmen, sondern ihren Ironiegehalt wahrnehmen, sie als Kunstform auffassen und so weiter: im Zweifel immer für die Meinungsfreiheit, auch für Dummheiten. Und ich glaube, es muss nicht alles sanktioniert werden, was moralisch nicht okay ist, dafür haben wir nämlich das Strafrecht als ultima ratio. Für mich ist der Mensch fehlbar, das macht ihn aus, daher nehme ich Entgleisungen bis zu meiner Schmerzgrenze wie Unfälle hin, aus denen Menschen früher oder später lernen werden. Vielleicht lernen wir in ferner Zeit auch, dass gar nicht Meinung ist, was aus wirtschaftlichen Motiven gesagt wird, weil es gar keinen Gültigkeitsanspruch hat, sondern ihn nur vorgibt zu haben. Julien interessieren weder Lokführer noch alle anderen Beteiligten, er ist seine eigene Marionette, die er zum Geldverdienen spielt.
Ich bin auch der Ansicht, dass sich eine Gesellschaft keinen Gefallen damit tut, von Privatunternehmen Eingriffe in Handlungen aller Art zu fordern. Ihr, Google, könnt in nicht-diskriminierender, inhaltsneutraler Weise Euer „Hausrecht“ wahrnehmen, nach Eurem Ermessen. Aber eine Gesellschaft sollte das nicht von Euch ohne Rechtsgrundlage fordern, weil sie so hoheitliche Aufgaben auf Private umwälzt, ohne dabei das zu erreichen, was der Rechtsstaat erreicht. Erstens: Es wären im Rechtsstaat verlässliche Regeln, die für alle gelten, so aber würden sie bei jedem Anbieter anders gelten. Zweitens: Gegen staatliche Eingriffe kann man sich immer wehren, Rechtsmittel gibt es fast immer – und wo man sich nicht wehren kann (unmittelbarer Zwang), kann man wenigstens hinterher feststellen lassen, dass das handelnde Staatsorgan im Unrecht handelte. Drittens: Über die Grenze sollten nicht diejenigen bestimmen, die die lautesten sind. Vielmehr bedarf es einer demokratisch legitimierten Entscheidung. Ergo: eine vom Grundgedanken her hoheitliche Aufgabe auf Private umzulasten (weil dem Gemeinwohl dienend, vgl. die Herkunft des Begriffes Polizei), ist keine gute Idee. Ich wünschte mir, die vielen Menschen, die immer wieder von Online-Plattformen ein Vorgehen gegen „Hater“ fordern, wären sich darüber im Klaren, dass sie hier einen Rückschritt in der Zivilisation fordern. Denn auch das gern so genannte „Hausrecht“ ist das Recht des Stärkeren, der nämlich diese Ressourcen besitzt und hieraus seine Rechte ableitet. Vielleicht kann man den umgekehrten Standpunkt auch vertreten: Es braucht weniger starken Staat, wenn kleinste soziale Einheiten ihren Frieden selbständig finden, Nachbarn, Kneipenwirte, Turnvereine. Aber Google ist kein Kneipenwirt, sondern wohl dasjenige Unternehmen, dass weltweit gleich nach Facebook die meisten zwischenmenschlichen Interaktionen vermittelt. Eine einheitliche, weltweite Regelung von Google und Facebook, der dann noch Vkontakte und Sina Weibo und Renren beitreten, entspräche einer fast welt-polizeylichen Regelung für den digitalen Raum.
Dieser Fall aber von Julien und seiner unsäglichen Vergasungs-Aufforderung, liegt in zweierlei Hinsicht anders als andere Fälle von Entgleisungen in Social Media:
Erstens verdient er damit viel Geld, weil er mit solchen Stunts Aufmerksamkeit bündelt, die er bei Euch vermarktet bekommt. Er handelt also mit voller Absicht und mit wirtschaftlichem Ziel. Nun ist auch das leider nichts ungewöhnliches. Die Welt ist voll von Stars und Celebs, die vor allem dadurch auffallen, dass sie aufgefallen sind, und die sodann von Unternehmen vermarktet werden, bis sie nicht mehr auffallen. Ich würde das Handeln solcher Unternehmen und Celebs nicht verbieten, aber ich bitte mir auch nicht zu verübeln, dass ich diese Marken nicht schätze. (Und: Denkt an Euren Markenwert und den Wert Eurer Plattform als Werbeumfeld.)
Zweitens: dass Ihr selbst daran verdient, das finde ich in diesem Fall nicht in Ordnung. Ihr vermarktet antisemitischen Dreck (und dem Hörensagen nach noch Dreck mit anderen Attributen), unterstützt die Dreckschleuder mit einer Umsatzauskehrung und steckt Euch Eure Marge in die eigene Tasche. Dieser Mensch, von dem niemand weiß, wann er seine 1,2 Millionen Youtube-Fans wie die Kettenhunde loslässt, kann sich aber im Internet ohne jeden Aufwand seine eigene Bühne schaffen. Er braucht spätestens jetzt keine Netzwerkeffekte von Digitalplattformen mehr. Und Ihr braucht dieses Geld nicht, es stinkt.
Sorgt bitte dafür, dass er auf Eurer Plattform verschwindet. Das ist also weniger eine rechtliche Frage als – bezogen auf Euer eigenes Handeln und Eure eigene Wertschöpfung – eine Frage der Unternehmensethik.
Also sollte Google solche Videos blockieren, da sie mit an dem Gesagten verdienen? Finde ich schwierig das Argument.
Fakt ist, dass Google an allem was auf YouTube Geld macht und natürlich auch an allem, was keine Werbung direkt im Video zulässt, Geld verdient. Würden wir daraus aber herleiten, dass Google aus Unternehmensethischen Gründen Videos mit verunglimpfendem Inhalt (was immer das dann sein mag) zu blockieren, befinden wir uns doch wieder bei dem von dir benannten zivilisatorischen Rückschritt.
Man könnte aber argumentieren, dass, indem Google dem Videoerzeuger ebenfalls Geld zufließen lässt, sie diese Meinung nicht nur unredigiert präsentieren, sondern tatsächlich unterstützen.
Die Folgerung daraus wäre aber meines Erachtens dann nicht mehr, dass Google dieses Video sperren, sondern die Option der Monetarisierung für dieses Video abschalten sollte. Nicht als Bestrafung, sondern um sich davon zu distanzieren.
Die Nichtanrechnung von Werbeumsatz ist eine interessante Idee. Bringt aber auch Google in einen schweren Konflikt mit den Inhalteanbietern, weil Google sich dem Vorwurf aussetzt, wirtschaftlich motiviert zu sein.
Ich kann Ihnen leider nicht die Grundzüge einer Unternehmensethik aus dem Ärmel schütteln, aber in diesem Fall ist es doch klar, dass der Traffic und damit der Umsatz durch die Resonanz auf provokante Zitate hervorgerufen wird, die mindestens antisemitisch und gewaltaufrufend sind. Und gerade _weil_ ich der Meinung bin, dass das Unternehmen nur ausnahmsweise zusteht, glaube ich, dass eine Art Kodex von der Zivilgesellschaft entwickelt werden muss, der sodann für Unternehmensethik einen Mindeststandard setzt. Wie beim Presserat und Pressekodex, siehe Antwort zu Dirk Hansen.
Danke dass Sie das aufgreifen. Ich habe diesen Beitrag gleich mehrlach gelesen und interpetiere ihn hoffentlich richtg: Als Versuch, mit Augenmaß zu reagieren.
Über eine Stelle bin ich aber gestolpert. Wenn ich das richtig lese, wird hier der Ruf nach einem Vorgehen gegen Hater durch Plattformbetreiber einem „Rückschritt in der Zivilisation“ gleichgesetzt.
Da liege ich nun, gestrauchelt. Denn meine Wahrnehmung erschreckend deutlicher Töne aus sehr vielen, sehr öffentlichen digitalen Räumen deutet gerade auf das Gegenteil eines zivilisatorischen Fortschritts hin. Juliensblog ist da wirklich nur ein Beispiel.
Trügt der Eindruck wachsender (sprachlicher) Verrohung tatsächlich? Und hat der Staat nicht längst seine ordnende Rolle (meinetwegen auch Legitimation) verloren. Stattdessen üben die Infrastrukturplattformen doch längst eine Art globalisierter Polizeigewalt aus.
Beileibe kein rechtsfreier Raum, in der Tat: Dessen Gesetze sind die internen Richtlinien: Das Video des Vergasers entspräche den Community-.Regeln, ließ YouTube doch offiziell verlauten.
Ich bin nicht sicher, ob sich ein zvilisiertes Selbstgespräch der digital vernetzten Gesellschaft nur mit Hilfe von Appellen an Unternehmens-Ethik und Good Terms sozialer Mirkoorganismen erreichen lässt. Gar nicht sicher.
Ja, in den ersten Abschnitten plädiere ich für Augenmaß.
Dass der Tonfall online härter geworden ist, höre auch ich, allerdings kann das ein Ergebnis von Filterblasen sein. In meiner „Online-Umgebung“ tritt es nicht auf. Wir haben zigtausende von sich täglich neu formierenden „Öffentlichkeiten“, daher wäre ich mit Verallgemeinerungen sehr vorsichtig.
Der Staat hatte bisher eine ordnende Rolle in der Kommunikation von Menschen, die nicht in Formen von massenmedialer Organisation operieren, indem strafrechtlich Grenzen formulierte; Beleidigung, Volksverhetzung etc. Nach meinem Eindruck ist er schon aufgrund der Menge damit überfordert und die meisten Menschen haben gar nicht die Erwartung, etwaige Täter anzuzeigen, sondern reagieren direkt mit den Plattformbetreibern. Ich denke, das ist vom Prozess her auch richtig.
Nicht richtig ist, dass Plattformbetreiber einzeln die Spielregeln festlegen und willkürlich, begründungsfrei und ohne Eskalationsweg Entscheidungen treffen (das meinte ich mit dem Vergleich zum Rechtsstaat). Ich glaube, es braucht irgendeine Art von Kodex, der aus der Zivilgesellschaft kommt. Dies kann die Politik sein oder andere sog. Multi-Stakeholder-Prozesse. Wenn es einen Pressekodex gibt, warum nicht auch einen Plattform-Kodex? Wenn es einen Presserat gibt, warum nicht auch einen Plattformrat? (Bitte gleich auf supranationaler Ebene). Dies glaube ich aus zwei Gründen: Erstens würde Verlässlichkeit hergestellt, wo die Grenzen sind, plattformübergreifend, denn Regeln, die überall anders und nicht vorhersehbar sind, kann man nicht einhalten. Zweitens glaube ich, dass die Qualität der sog. Communityrichtlinien verbessert würde; was Google in den Bedingungen schreibt, ist sehr, sehr schlecht, als Jurist fallen mir sofort 10 Fragen ein, die Google nicht beantwortet, und über die Gerichte seit Jahrzehnten nachgedacht haben. Drittens wäre es auch für die Unternehmen leichter, eine zweite Linie für Entscheidungen zu haben. Ich glaube, dass Google sich ganz bewusst entschieden hat, nicht einzugreifen, weil eine bloße Unternehmensentscheidung einen sehr viel größeren Schaden anrichten kann, bis hin zur Bedrohung der Google-Mitarbeiter, die das hinter den Kulissen im übrigen auch andeuten.
Bei der Auswahl der Mittel würde ich nicht auf das Strafrecht verzichten, da habe ich mich vielleicht missverständlich ausgedrückt. Ich halte das Ehrkonzept für fragwürdig, aber das ist nicht konsensfähig.
Ein Kodex als Ergebnis eines supranationaler Multi-Stakeholder-Prozess der Zivilgesellschaft. Weil ich, wie Sie, glaube, dass das der beste Weg wäre, kämpfe ich jetzt zunächst alle zynischen Reflexe nieder. Und damit meine jahrzehntelangen Erfahrungen im operativen Mediengeschäft auf nahezu allen Ebenen, auch mit dem Presserat.
Als Projekt wirkt das Unterfangen jedenfalls wie die Einführung des herrschaftsfreien Diskurses nach Habermas bis nächsten Dienstag. (ups, Entschuldigung) Es bleibt die – aus meiner Sicht – erschreckende Ungleichzeitigkeit von ökonomisch-technologischer Entwicklung und gesellschaftlicher Rahmung.
Im Zentrum des Problems steht für mich der Begriff Verantwortung. Also: Wie stellen wir legitime Regeln auf, die auch gelten? Es ist nämlich hier wie bei jeder Führungsaufgabe: Wenn ich den bislang betrauten Institutionen/Personen das Vertrauen entziehe, habe ich es selbst wieder an der Backe.
Heißt beim Kodex der öffentlichen Kommunikation: Wir alle! Ein Bewußtsein dafür kann ich nicht erkennen. Ein Verfahren auch nicht. Stattdessen füllen andere das Autoritäts-Vakuum. Nicht mit Ethik, sondern mit Geschäftsbedingungen.
Aber das muss natürlich nicht so bleiben.
Ich teile Ihre Skepsis. Trotzdem sind es ja zum Teil einfache Fragen, die man mal diskutieren müsste, zur Zeit diskutiert aber niemand in irgendeinem Rahmen, formt niemand Alternativen. Man kann das mit gutem Grund als einen langfristigen sozial-evolutionären Prozess sehen.
Man kann aber auch sagen: Wenn wir konkret über Antisemitismus reden, welches Maß und welche Thesen sind sozial geächtet? Zur Zeit schreibt Google ja nur: jede Form von Gewaltaufrufen gegen Personen oder Gruppen. Muss es ein „Gewaltaufruf“ sein oder reicht eine Behauptung (wie bei der Holocaust-Leugnung)? Und muss objektiv als Folge eine Gefährdung der öffentlichen Ordnung zu befürchten sein? Wenn ja, mit welcher Wahrscheinlichkeit?
Das klingt jetzt wohl recht juristisch, aber das ist doch hier im Falle Julien der Problemkomplex. Antisemitisch, Gewaltaufruf (+), Gefährdung wohl (-). Folglich könnten Google und Facebook einheitlich operieren. Wenn wir uns einig sind, dass erst eine Gefährdung des öff Friedens einen Eingriff durch den Plattformbetreiber rechtfertigt, muss Google hier NICHT einschreiten. Im Gegenteil, eine Sperrung/Löschung erzeugt neue, ernsthaftere Konflikte.
Anders, wenn man als zweiten Maßstab wirtschaftsethisch argumentiert: Mit Antisemitismus soll Geld nicht verdient werden. Daher ziehe ich diese zweite „Wall“ hoch.
Unlösbar wären derlei Fragestellungen sicher nicht. Aber bevor man die Ideal-Konkurrenzen (z.B. Meinungsfreiheit/Menschwürde/Schutz von Leib und Leben) sauber abwägen könnte, bräuchte es die dafür allgemeinverbindlichen Kriterien.
Diese umfassend und niveauvoll zu diskutieren, war nie leichter als heute. Der Überfluß an Möglichkeiten wird da ja fast schon zum Problem (+).
Codices abschließend zu formulieren und verbindlich zu verabreden, bedürfte des Vertrauens in legitimierte Menschen/Institute/Verfahren. Schon ziemlich schwierig, zumal auf supranationaler Ebene (+/-).
Richtig übel wird es beim häßlichen Bruder der Verantwortung, genannt Autorität. Denn ab und an muss man die Regeln durchsetzen. Und den entsprechenden Leviathan auch wiederum kontrollieren. Der müsste angesichts hochvermachteter Interessen nämlich recht stabil gebaut sein. (–).
Die Alternative wäre aber leider eine Fortsetzung des Trends zu Faustrecht-Öffentlichkeiten nach Plattform-AGB, den ich glaube beobachtet zu haben. Allein im Falle des Juliensblogs reden wir von schlappen 1,2 Millionen Abonnenten.
Um es nicht destruktiv abgleiten zu lassen: Es wäre m. E. leistbar, ein breites Bewußtsein dafür zu schafen, als erstes folgende Frage beantworten: Was wollen wir unter gesellschaftlicher Öffentlichkeit verstehen? Ich denke tatsächlich, dass sich so langsam jede/r darüber seine/ihre Gedanken macht. Hieße der Anlaß nun GdL-Bashing oder Germanwings. Vielen ist mulmig.
Medienkompetenz, so verstanden, wäre ein Pflichtfach, von der Schule bis zur Rente. Neben Geschäftsmodellen brauchen wir nun einmal auch ein Gesellschaftsmodell für die digital vernetzte Gesellschaft. Sonst gehen wir sozial pleite.
(tl; dr: Sorry!)
Ich habe mal vorgeschlagen, Unternehmen wie Google und Facebook als Völkerrechtssubjekte aufzuwerten. Es mag sein, dass die Strafverfolgung national weiterhin greift; letztlich müssen wir bei Normen und deren Setzung aber internationale Regime für diese quasi-staatlichen Korporationen etablieren. / Die Konjunktur des Begriffs „Plattform“ irritiert mich aus vielen Gründen. / In Deiner Einleitung spricht Du mir aus dem Herzen. „Zivilisatorischer Rückschritt“ passt und Deine Geduld mit nicht-promovierten Diskussionsteilnehmern ehrt Dich. Gibt es nur noch sehr selten. Auch mit dem ‚provoziert sein‘ wird gelegentlich agiert, als wolle man Menschen vernichten.Unerträglich, dass jemand mit letzterem Geld verdient. Ich bin da insgesamt für eine Ächtung, gerne auf supranationaler Ebene.
Alles richtig, danke für den Beitrag. Es gibt natürlich eine Technik, der Masse an Hetze und rauhem Ton Herr zu werden, mindestens das oben erwähnte Weibo, das chinesische Twitter-/Facebook-Pendant, wendet sie an: Zensur mithilfe von Filtern. Mir selbst ist es passiert, dass beispielsweise selbst Staatschefs der jüngeren Vergangenheit blockiert werden, sobald man sie chinesisch schreibt. Das zeigt natürlich eindrucksvoll, wie durch einfaches Ausweichen auf andere Sprachen oder nur Nuancierung die Filter ausgehebelt werden können.
Es gibt entsprechende Filterrechnik auch für Tonspuren, manche Streamingdienste verkaufen das als „Familyfilter”. Diese könnte man dann aber möglicherweise durch Nuscheln, in jedem Fall aber durch Gestik aushebeln.
Die Frage ist aber, wer möchte Zensur?
Ich befürchte, dass das die einfachste, weil kostengünstigste Antwort der großen Anbieter sein könnte, sollten sie gesellschaftlich tatsächlich massiv unter Druck geraten, eine Art Kodex zu entwickeln und dann einzuhalten.
Dass der Umgangston insgesamt rauher geworden sei, kenne auch ich nur vom Hörensagen, es ist aber nur nachvollziehbar, wenn „Internet für Alle” gefordert und umgesetzt wird, dass dann eben auch Alle dabei mitmachen. Es ist dieses tiefdemokratische Grundprinzip des Netzes, das beim Wegfiltern von Meinungen Einzelner auf der Strecke bleibt.
Folgendes würde ich mir daher wünschen.
1. Den Ansatz des Entzuges der Monetarisierung finde auch ich interessant.
2. Ich habe nichts gegen Wortfilter, wenn diese Filter nicht zur Zensur genutzt werden, sondern wie in diesem Fall zB. bewirken, dass Youtube-Filmchenvorschläge im Umfeld des betreffenden Videos ausschließlich aufklärenden Charakter haben. Nichts anderes machen diese Unternehmen ja bereits in Bezug auf das Platzieren von Werbung. Sie filtern Text und Gewohnheiten und schauen, was dementsprechend zum aktuell Betrachteten passt. Die Technik scheint also zu existieren, jetzt fehlt noch der Kodex. Wer könnte das organisieren? Die G7 + Russland? TTIP, das dadurch sympathisch würde (Hilfe!)? Die UN? Schwierige Frage. Für die Entwicklung einer Lösung wäre ich jedenfalls bereit, mitzuhelfen Druck zu erzeugen.
Ich verstehe Ihren Vorschlag nicht. Hätten technische Filter im hier behandelten Julien-Fall gewirkt? Ich glaube nicht. Ich sehe eigentlich überhaupt keinen sinnvollen Einsatz von Stoppwortfiltern in sog. General-Interest-Angeboten. Soll ich Joaschka Fischer nicht mehr wörtlich zitieren dürfen mit seinem „Arschloch“-Zitat? Jedenfalls bekommt man die hier behandelten Fälle von Antisemitismus und anderen -ismen so nicht gelöst.
HALT! Es geht mir NICHT darum, etwas wegzufiltern. Natürlich wollen wir weiterhin beleidigen dürfen, und sei es als Teil einer Aufarbeitung oder als Satire. KEINE Zensur. Es geht mir darum, Filter, meinetwegen Selektoren, dazu zu nutzen, den related content in solchen Fällen nicht aus der Blase dieser Begriffe selbst zu generieren, sondern aus einem redaktionell assoziierten Begriffspool.
Bei „vergasen” jenseits des Verbrennungsmotorkontextes also eher related content aus dem großen Bereich Antifa, bei unangemessener Wortwahl nicht (nur) Beiträge mit ebenso unangemessener Wortwahl, sondern (auch) Gegenteiliges.
Der Algorithmus müsste natürlich abwägen können, inwiefern nur zitiert wird und wo die Grenze zu Hetze erreicht ist. Diese Begriffspools aufzubauen und zu assoziieren könnte Teil des Schaffens einer ethisch korrekten Infrastruktur sein.
ANDERERSEITS, und das mag dabei eine nicht zu unterschätzende Gefahr sein, könnte eine solche Infrastruktur wohl sehr leicht in ein echtes Zensurinstrument umgewandelt werden. In ziehe meinen Vorschlag zurück. Wahrscheinlich wäre allen bereits (auch unter weiteren Gesichtspunkten wie zB. Werbung) geholfen, wenn die related-content-Funktionen der großen Portale einfach abgeschaltet würden.