Workshop 2: „Wie könnte Medienethik für Suchmaschinen und soziale Netzwerke aussehen?“

Veröffentlicht von jr am

SCD2014-341Workshop 2: Medien, Ethik, Wirtschaft – “Aufmerksamkeitsverteiler – wie könnte Medienethik für Suchmaschinen und soziale Netzwerke aussehen? Diskussion von Fallbeispielen.” mit:

Kordula Attermeyer, Konrad Lischka | Staatskanzlei NRW

Kordula Attermeyer begrüßt die Workshopteilnehmer. Nach einer kurzen Vorstellung der beiden Referenten steigt Konrad Lischka direkt ins Thema ein. Zunächst geht es um die Relevanz von sogenannten Aufmerksamkeitsverteilern. Aufmerksamkeitsverteiler sind beispielsweise Suchmaschinen oder soziale Netzwerke wie Facebook oder Twitter, die direkt zu Artikeln auf (Nachrichten-)Portalseiten leiten. Anhand einer Grafik veranschaulicht Lischka, in welcher Verteilung über welche Kanäle der Traffic zu den Portalseiten läuft.

SCD2014-332Eine der zentralen Fragen, die in verschiedenen Fallbeispielen diskutiert werden soll, lautet: Wie finde ich es als Nutzer, dass eine Software mehr oder weniger auswählt, was mich interessiert und auf welche Artikel ich aufmerksam werde? Die Zahlen belegen, dass mittlerweile ein sehr großer Teil der Artikel, die auf den großen Nachrichtenportalen gelesen werden, über die sozialen Netzwerke angesteuert werden und nicht über die Nachrichtenseiten selbst. Doch welche Auswahlkriterien liegen der Auswahl, die mir gezeigt und vorgeschlagen wird, zugrunde?

Ein einziger Klick leitet direkt zum Artikel, man sucht nicht mehr das Nachrichtenportal selbst auf und wählt dort die Artikel aus, die man liest.

Formuliertes Ziel für den Workshop ist die Diskussion dieser Fragen und Probleme mit den Teilnehmenden. Dazu stellen die Referenten drei Beispiele zur Diskussion.

Fall 1: Das Facebook-Experiment

2012 wurde von Facebook eine Studie durchgeführt, deren Ergebnisse im Sommer 2014 vorgestellt wurden und die eine Diskussion um die Zulässigkeit solcher Verfahrensweise ausgelöst hat.

Die These, die der Studie zugrunde lag, war, dass wenn man den Nutzern überdurchschnittlich oft positive Texte zeigen würde (die überdurchschnittlich häufig positiv besetzte Wörter und Formulierungen enthielten), diese sich danach anders verhalten würden, als die, bei denen das Gegenteil der Fall sei. Die Testgruppe umfasste dabei weltweit 700.000 Nutzer, wobei es keine Angaben zur lokalen Verteilung der in die Studie einbezogenen Nutzer gab.

Die Studie kam zu dem Ergebnis, dass beide Gruppen aktiver waren als sonst. Die mit den positiveren Texten schrieben danach auch selbst positivere Beiträge bei FB.

Die Frage, die sich stellt, ist die nach der Ethik eines solchen Experimentes, das ohne das Wissen oder Einverständnis der in die Studie einbezogenen Nutzer durchgeführt wurde.

SCD2014-344In der Diskussion mit den Workshopteilnehmern gibt es sehr unterschiedliche Haltungen: Einer der Teilnehmer ist der Meinung, dass Facebook als privates Unternehmen so etwas durchführen kann ohne das Einverständnis seiner Nutzer. Fast jeder stimmt den AGB zu, die FB ein solches Recht einräumen, ohne sie vorher überhaupt zu lesen. Generell ist ein solches Verhalten in einem wissenschaftlichen Kontext jedoch nicht denkbar.

Die Frage Lischkas, ob man das Experiment gut fand, beantwortet einer der Teilnehmer mit: „Im Nachhinein fand ich das Experiment gut und kulturell interessant.“ Ein weiterer wichtiger Aspekt, der von Seiten der Teilnehmer angesprochen wurde: „Was passiert mit der Zielgruppe, die unwissentlich schlechtere Nachrichten bekommen hat? Was passierte mit den Leuten, deren Leben dadurch nachhaltig zum Negativen manipuliert wurde?“ Die Vermutung liegt nach Meinung im Publikum nahe, dass Facebook bewusst nicht vorab informiert hat, um sich solchen Fragen und eventuellen rechtlichen Konsequenzen (Stichwort USA: Klagewelle) nicht stellen zu müssen.

Weitere Stimmen von Seiten der Teilnehmenden:

  • Marktforschung folgt bestimmten Regeln, deshalb ist eine solche manipulative Vorgehensweise zu verurteilen.
  • Die Diskussion hängt auch vom kulturellen Raum ab. In den USA würde eine solche Diskussion ganz anders geführt werden. Ob Shitstorm oder Cypermobbing, dies alles sind neue Phänomene, die überall neu und anders diskutiert werden.

Die Referentin fasst kurz die Ergebnisse der Diskussion zusammen:

  • Ethik ist ein Instrument zur Diskussion.
  • FB ist etwas anderes als Rundfunk oder Forschung.
  • Zentral ist das Aushandeln von Spielregeln , deren Inhalte aber noch offen sind.

Fall 2: Verkaufte Aufmerksamkeit

Man sieht Inhalte, weil jemand dafür bezahlt hat, dass man auf sie aufmerksam wird. Was passiert in sozialen Netzwerken? Jeder Nutzer besitzt nur eine begrenzte Aufmerksamkeitsspanne. Wenn nun ein Teil der Posts, die Nutzer sehen und lesen, bezahlt sind bzw. dafür bezahlt wird, dass sie bevorzugt zu sehen sind, sinkt der Anteil der originären Postings, die man lesen kann. Das Problem daran ist, dass niemand sagen kann, wie groß der Anteil der Artikel/Posts ist, die originär sind und für welche bezahlt wurde, damit sie eine höhere Sichtbarkeit bekommen. Dieses Problem wird anhand des Beispiels einer NGO aufgezeigt, die dafür zahlen müsste, damit ihre Artikel/Postings eine größere Reichweite erzielen bzw. deren Reichweite sich aufgrund des Nichtbezahlens wesentlich verringert hat.

Konrad Lischka öffnet die Diskussion für die Teilnehmenden: Die Frage kommt auf, ob dies überhaupt als Problem zu betrachten ist. Netzwerke suche ich mir als Werbetreibender und als Nutzer proaktiv aus und habe hier eine sehr große Auswahl und Vielfalt zur Verfügung – im Gegensatz zu Informationsangeboten wie Tageszeitungen oder Nachrichten im Fernsehen. Da Nutzer selbst aktiv entscheiden können, kann jeder, der seinen Content anbieten möchte, ebenfalls selbst entscheiden, welche Reichweite er möchte und auf welche (kommerzielle) Art er seine Inhalte anbieten möchte.

Ein positiver Aspekt: Etwas auf FB zu promoten, ist für relativ geringe Summen mit sehr großer Reichweite möglich. Ein negativer Aspekt: Wenn alle überall Werbung schalten könnten, gäbe es nur noch Werbung zu sehen/zu lesen

Die Referentin fasst ihren Eindruck der Diskussion zusammen: Das Wissen, was zu tun ist, um sich zu schützen, ist sehr ausgeprägt.

Fall 3: Personalisierung & Filterblasen

Konrad Lischka stellt die Frage: Warum sehe ich bei FB ständig Unterhaltungsprogramm-Werbung?

Das Netzwerk trifft eine Auswahl, welche Artikel Nutzern angezeigt werden. Aber woher kommt diese Auswahl? Es gibt keine Möglichkeit, einen Vergleich zu ziehen, wie die Auswahl aussähe, wenn man keine persönlichen Angaben ( Freunde, Seiten-Likes etc.).hinterlassen hätte. Wäre es gut, wenn man darüber Informationen hätte?

Die Meinung der Teilnehmer dazu ist nicht durchweg negativ: Personalisierung kann einen gewissen Vorteil bieten. Durch begrenzte Aufmerksamkeitsmöglichkeiten ist eine Filterfunktion durchaus von Vorteil.

Ein weiterer Aspekt: Die Logik der Anbieter ist es ja gerade, die Parameter nicht offenzulegen und nicht, dies in die Hand der Nutzer zu geben, ebenso wie bei der Google-Suche. Ein Feedback innerhalb des Systems steuert jedoch im begrenzten Rahmen die Auswahl.

Eine durch einen der Teilnehmer formulierte These: Die Filterblase ist heute eher weniger ausgeprägt. Sein Beispiel: Früher gab es Leute, die nur eine einzige Tageszeitung gelesen haben, was quasi der Inbegriff einer Filterblase darstellt. So etwas findet heute kaum noch statt.

Die Referentin fasst die Ergebnisse der Diskussion kurz zusammen:

Personalisierung kann Vorteile haben, gewünscht ist es aber, dass man wählen kann. Transparenz wäre schön, widerspräche aber der Logik des Geschäftsmodells.


1 Comments

Freiheit für das Internet! · MD.H newsroom · 13. November 2014 at 11:17

[…] Informationen und die verschiedenen Aspekte der Workshopteilnehmer können hier nachgelesen […]

Comments are closed.