153 Goodcast - Hass als Geschäfftsmodel - Anna-Lena Hodenberg von HateAid

Shownotes

Was passiert, wenn Engagement im Netz plötzlich politische Sprengkraft bekommt? In der 153. Episode des Goodcast spricht Anna Lena Hodenberg von HateAid über eine Realität, die viele lieber ausblenden. HateAid ist eine gemeinnützige Organisation aus Berlin, gegründet 2018, die Menschen unterstützt, die online angegriffen werden. Sie beraten Betroffene, stabilisieren sie emotional und gehen für sie vor Gericht, oft inklusive Finanzierung der Prozesskosten. Allein im Jahr 2024 haben sie tausende Fälle begleitet und Hunderte Anzeigen und Klagen ermöglicht. Doch genau diese Arbeit sorgt für Konflikte. Wenn eine Organisation beginnt, Plattformen juristisch herauszufordern und politische Regeln im Netz mitzugestalten, wird sie selbst zur Zielscheibe. Es geht um Macht, um Deutungshoheit und um die Frage, wer im digitalen Raum die Grenzen setzt. Und dann ist da noch ihre persönliche Geschichte: ein Einreiseverbot in die USA, Vorwürfe der Zensur und eine NGO, die plötzlich im Zentrum internationaler Spannungen steht. Ein Gespräch über Hass, Verantwortung und darüber, warum der Kampf um ein sicheres Internet längst kein rein digitales Thema mehr ist.

Eine Produktion von MAKIKO* für die Viva Equality gemeinnützige UG

Gastgeber: Julius Bertram

Mitarbeit: Tilman Perez

Produktion: MAKIKO*

Transkript anzeigen

00:00:07: Hallo und herzlich willkommen zu einer neuen Ausgabe des GoodCast.

00:00:10: Mein Name ist Julius, heute bei mir zu Gast ist Anna-Lena von Hodenberg.

00:00:15: für die, die schon länger treue Zuhörer in dieses Podcast sind ja ihr täuscht euch nicht ich habe schon mal mit Anna-lena gesprochen und zwar Ende zwei Tausend Dreiundzwanzig.

00:00:24: damals noch im alten

00:00:25: Büro

00:00:26: haben wir über Hate Aid gesprochen was Hate Aid macht wie Hate Aid funktioniert warum sie das macht.

00:00:31: das heißt wenn ihr da mehr Informationen wollt springt man dahin.

00:00:34: Denn wir reden heute über ein paar andere Dinge, die reden darüber vor allem wie Anna-Lenas letztes halbis Jahr war.

00:00:41: Wer regelmäßig auf LinkedIn unterwegs ist, konnte quasi gar nicht an ihr vorbei.

00:00:46: Im Weihnachten im Jahr zwei tausendfünfundzwanzig haben sie und ihre zweite Geschäftsführerin einen Einreiseverbot bekommen für die USA.

00:00:53: Und was das für Sie persönlich heißt?

00:00:55: Was es für die Organisation heisst und wie das sein kann dass eine nicht despektierlich kleine Berliner Organisation in das Fahrwasser der großen globalen Auseinandersetzung kommt und wie man sich da alles zusammenreihung kann, genau darüber reden wir.

00:01:10: Es ist völlig verrückt wie geopolitische Interessen dazu führen dass Anna Lena und andere Personen kurz zur Weihnachten ein Einreiseverbot für die USA bekommen.

00:01:20: Darüber reden wir uns noch über viele andere Dinge.

00:01:22: Wie immer, erzähle deinen Freundinnen von diesem Podcast.

00:01:24: Erzähl deinen Bekannten und Verwandten.

00:01:26: Alle von diesen Podcasts, damit es möglichst viele Leute hören!

00:01:28: Und es gibt eine Steady-Page.

00:01:30: Wenn du möchtest, dann guck da vorbei auf Steady.

00:01:33: Such dir da den Good Cast und unterstützt unsere Arbeit.

00:01:36: Jetzt geht's erstmal los.

00:01:37: Viel Spaß!

00:01:42: Annalena herzlich willkommen zum zweiten Mal im Good Cast.

00:01:45: Vielen Dank

00:01:46: Ich freue mich sehr dass Du hier bist.

00:01:48: Wir haben gerade eben gemeinsam nachgeguckt.

00:01:49: wir haben das letzte mal miteinander gesprochen am Oktober.

00:01:53: Wenn du diesen Zeitraum mir zu kurz zusammenfassen würdest, was hat sich seitdem getan?

00:01:58: Puh!

00:01:59: Zweieinhalb Jahre.

00:02:02: Wahnsinnig viel.

00:02:04: Wir haben angefangen... ja wir haben große Plattformen verklagt mit großen Grundsatzprozessen.

00:02:11: also wir haben großes Verfahren gegen Twitter gestartet und wir haben ein großes Verfahr Anfang dieses Jahres gegen Google startet.

00:02:18: der Digital Services Act ist in Kraft getreten.

00:02:21: Das war erst mal ein riesengroßer Moment der Hoffnung, weil wir dachten okay krass jetzt gibt es so ein ganz starkes Gesetz für ein sicheres und geschützteres Internet und waren irgendwie so total hoffnungsfroh.

00:02:35: Und gleichzeitig ist letztes Jahr Donald Trump hat seine zweite Amtszeit gestartet hat dem den Kampf angesagt und genau.

00:02:47: Und als Folge daraus haben wir Anfang dieses Jahres, sind wir sozusagen mitten in so einen geopolitischen Konflikt geraten ... und haben eine Sanktion, also ein Einreiseverbot in die USA ganz prominent bekommen.

00:03:03: Wir sind noch die Organisationen, die wir damals waren.

00:03:06: Und wir sind es auch nicht, weil sich einfach so viel geändert hat.

00:03:10: Ist es denn besser geworden seitdem?

00:03:11: Das Internet.

00:03:14: Leider nicht, ich muss sagen... Genau es hat sich nicht viel verändert.

00:03:20: also wir sind in der Situation wo wir eigentlich gut haben mehr Strafverfolgung in Deutschland zumindest aber die kommt überhaupt nicht hinterher weil das internet weil soziale Medien eben Ja, Orte sind wo systemisch einfach so viel Gewalt, Desinformationen Dinge die auch eben für Kinder und Jugendliche gefährlich sind.

00:03:43: Weil die eben also den Kinder- und Jugendschutz einfach missachten passieren dass eben da eine Strafverfolgung oder auch etwas was eben danach kommt wenn das Kind schon in Brunnen gefallen ist Wenn diese Verstöße alle schon passiert sind Die überhaupt nicht hinterherkommt Und wir eigentlich hatten wir ein Gesetz zum ersten Mal in Europa für den ganzen europäischen Binnenmarkt, in die Lage bringen sollte zumindest in einigen Punkten vor die Lage zu kommen.

00:04:08: Also zu sagen bevor der Verstoß passiert, bevor der Kinder- und Jugendschutz da verletzt wird, bevor eine Person mit dem Tod bedroht wird.

00:04:18: Bevor versuchen wir eben diese sozialen Medien durch Regulierung so zu gestalten dass die Risiken geringer sind Und dieses Gesetz wird einfach nicht durchgesetzt.

00:04:30: Deswegen ist es so ein bisschen wie einen Fiebertraum, weil man eigentlich hat alle Werkzeuge in der Hand und sie sind alle da.

00:04:41: Sie werden eben nicht umgesetzt, weil die weltpolitische Lage so ist.

00:04:44: Und deswegen hat sich substanziell auch auf den Sozialmedien nicht viel verändert.

00:04:47: Sondern wir sind eigentlich in der gleichen Situation... ...und sogar fast noch wenn du dir jetzt anguckst.

00:04:53: die großen Digitalkonzerne, Musk, Zuckerberg Besos, alle haben sich halt hinter Donald Trump gestellt.

00:05:02: und erst mal so eine Attitüde, Regulierung in Europa ist jetzt für uns nicht mehr Fokus.

00:05:08: Sondern für uns ist Fokus uns hier mit der US-Regierung gutzustellen die eben auch andere Interessen hat.

00:05:14: Und das was uns für uns der Fokus ist einfach maximalen Profit zu machen.

00:05:19: Ja plötzlich ist sozusagen wie sicher ist das Internet?

00:05:22: also um auf deine Frage zurückzukommen Ist es denn jetzt sicherer geworden?

00:05:26: Plötzlich ist die Frage, wie sicher ist das Internet zu einer geopolitischen Frage geworden.

00:05:30: Wo auf der einen Seite die Europäische Union steht mit der Frage werden wir im Internet hinkriegen unsere Gesetze und unsere demokratischen Werte durchzusetzen.

00:05:39: Und auf der anderen Seite die USA sagen Wir wollen das nicht!

00:05:42: Und wir sind bereit auch wirklich krasse Maßnahmen zu ergreifen um das eben zu verhindern.

00:05:48: Warum werden die Gesetzen nicht durchgesetzt?

00:05:50: Weil Donald Trump mit Strafzöllen droht Weil Donald Trump damit droht, die Unterstützung für die Ukraine einzustellen.

00:05:59: Also wir haben schon vor der Wahl ... Drei Wochen vor der Wahler J.D.

00:06:03: Vance ein großes Interview gegeben, wo er gesagt hat, wenn Elon Musk in Europa reguliert wird, dann werden wir die Ukraine nicht mehr unterstützen.

00:06:12: Dann werden wir unsere NATO-Unterstützung zurückziehen.

00:06:16: Donald Trump hat gesagt, wenn ein US-amerikanisches Social Media Unternehmen wie zum Beispiel Meta Wenn die einen Bußgeld bekommen, dann sehen wir das wie ein Strafzoll.

00:06:27: Und dann gibt es Straffzölle

00:06:28: zurück.".

00:06:29: Das heißt ... Die Bedrohung ist auf einmal so groß, dass sich die Europäische Union zweimal überlegt, ob sie halt ein Bußgelderverfahren verhängt oder nicht?

00:06:41: Nachdem sie das erste Bußgeltverfahren verlängert hat, nämlich zwei Wochen vor Weihnachten, kam auch prompt die Antwort.

00:06:47: Es war noch eine softe Antwort, sind jetzt keine StraffZölle.

00:06:50: aber Man hat eben sehr, sehr klar am Vierentzwanzigsten, also am Drei- und zwanzigendzwölften beziehungsweise am Viertenswanzigundzwölften dann an Weihnachten ein sehr klares Signal gesetzt in dem man eben fünf Personen einen ehemaligen Kommissar der Europäischen Union zwei Personen aus Großbritannien die eben eine gegen Desinformationen und Radikalisierung im Internet arbeiten.

00:07:10: Und eine Organisation aus Deutschland mich und meine Geschäftsführungskollegin hat man halt sanktioniert weil wir eben daran arbeiten, dass dieses Digitalgesetz durchgesetzt wird.

00:07:20: Und das war halt sozusagen so ein erster Warnschuss und das hat die Europäische Kommission auch gut verstanden.

00:07:25: Jetzt hast du das Thema ja schon angesprochen und ich würde direkt darauf eingehen obwohl ich da eigentlich erst später erst hinkommen wollte.

00:07:31: wie muss ich mir das vorstellen?

00:07:32: Hast du eine E-Mail bekommen oder habt ihr es am vierzehnzwanzigsten morgens in der Zeitung gelesen?

00:07:36: Nee wir haben es am dreinzwanziger Nachts Um ... um ... um dreiundzwanzig Uhr, siebenvierzig werde ich ... Josefine hat es noch mal nachgeguckt.

00:07:44: Halt jemand uns darauf aufmerksam gemacht, weil es gab schon ein bisschen Berichterstattung und es gab auch Link in ein paar Leute die irgendwie dazu gepostet hatten Und ich war kurz davon ins Bett zu gehen, es war der Dreiundzwanzigzehn Zwölft.

00:07:56: Ich meine was macht man da schon?

00:07:58: Am nächsten Tag ist heilige Abend und dann muss dann irgendwie ... Man will dann irgendwann ins Bett und diesen heiligen Abend am nächsten Tag begehen, freut sich schon ein paar Tage frei.

00:08:06: Und ich hab noch mal, weil als Geschäftsführerin guckt man halt am Ende des Tages immer nochmal auf sein Handy bevor man ins Bett geht.

00:08:12: Ja, dann habe ich nur auf mein Handy geguckt und hab diese unbeantworteten Anrufe von meiner Geschäftskollegin Josefine Ballon gesehen.

00:08:19: Ja, und dann habe ich die angerufen.

00:08:21: Und dann sind wir auf X gegangen und haben die Tweets angeguckt.

00:08:25: Ein Tweet von Herrn Rubio dem Außenminister im Amerikanischen der eben gesagt hat fünf Personen wurden sanktioniert weil sie zum DSA arbeiten also zum Digital Services Act zu genau diesem europäischen Gesetz Und deswegen so interpretiert er, ist Sensor von US-amerikanischen Unternehmen betreiben.

00:08:46: Weil sie bewaffnete Organisationen sind und Radical Activists, also ich kann es nicht anders sagen, weaponized organization and radical activists, so hat der's halt geschrieben.

00:08:56: Dann gab es in zwei Tweets von US Undersecretary Sarah Rogers die kann auch jeder sich im Internet noch angucken.

00:09:01: Da wird eine kleine Biografie von uns aufgemacht und wird gesagt hier aus denen und den Gründen dürfen Josefine Ballon und Anna Lena von Hohlenberg in die USA anreisen.

00:09:12: Ja, und das war's!

00:09:13: Es gab auch nie irgendwie eine andere Notifikation oder ein Brief- oder ein Schriftstück... es gibt drei Tweets

00:09:19: Auf einer ganz persönlichen Ebene.

00:09:20: was macht das mit dir?

00:09:22: Ganz viele Sachen.

00:09:25: Das ist so ne totale Bandbreite.

00:09:27: also auf der einen Seite ist es halt krass bedrohlich.

00:09:30: Also du sitzt halt so in deiner Wohnung im Berlin und denkst so krass dass US-Ausministerium hat mich gerade zur Personanongrater erklärt Und du spürst natürlich so diese ganze Macht, die hinter so einem Apparat von so einem riesengroßen Staat steckt.

00:09:47: Von dem der jetzt auch in der letzten Zeit sich nicht gerade damit hervorgetan hat, irgendwie rechtsstaatlich besonders genau oder also ich versuche es mal höflich auszudrücken, der auch ab und an den Rechtsstaat einfach auch ignoriert.

00:10:06: Die US-Regierung hat jedes Recht zu sagen, die Person darf nicht einreisen.

00:10:10: Das machen wir in Deutschland auch, das ist gängige Praxis.

00:10:13: aber darum geht es ja hier nicht.

00:10:15: Es geht ja darum an Heiligabend fünf Personen ganz öffentlich zu stigmatisieren und eine Drohgebärde auszusprechen und zu versuchen ... Wir haben einen Akt der Repression genannt also die halt so unter Druck zu setzen dass sie Angst haben, ihre Arbeit weiterzumachen.

00:10:36: Und bis zu einem gewissen Grad ist das auch so.

00:10:40: Also es ist erst mal wirklich total beängstigend.

00:10:44: Dann ist es völlig unklar was das eigentlich bedeutet.

00:10:47: also wer darf dann jetzt nicht mehr einreisen?

00:10:49: nur ich oder auch meine Familie?

00:10:50: So steht zumindest in dem Tweet.

00:10:51: Was bedeutet Familie?

00:10:53: sind das jetzt alle meine Verwandten?

00:10:55: sind das meine engen verwandten?

00:10:56: Das kann man alles gar nicht wissen.

00:10:58: und wurde eben noch was Zweites in den Raum gestellt, nämlich dass die Sanktionen... Also man hat dann so von diesen Magnitzki-Sanktion gesprochen.

00:11:07: Das sind so Sanktsionen, die russische Oligarchen normalerweise bekommen und da hat man betont das sind jetzt nicht diese Magnitzky-Sanktionen aber man hat sie ebenso auch im Tweet in den Raum gestellt.

00:11:17: Und das ist halt das was dem Chef des Internationalen Gerichtshofs passiert ist, dass halt die Bankkonten, die Visa-Karten gesperrt wurden Dass halt die Bank konnten, dass man eben nicht mehr an sein Geld kommt.

00:11:29: Dass man alle Verträge, die man mit US-amerikanischen Unternehmen hat gekündigt werden also weg mit Amazon, weg mit Netflix, dein Google Account, dein Microsoft Account... Also alles halt einfach gesperrt wird und du so ein bisschen wie in die neunziger Jahre zurück katapultiert wirst wenn du nicht eine Open Source Infrastruktur vorher aufgebaut hast.

00:11:48: Genau das macht natürlich wahnsinnig Angst gerade auch dieser finanzielle Bereich, nicht nur für dich persönlich sondern auch die Organisation.

00:11:55: Und gleichzeitig ist es auch so neben der Angst gibt's ein anderes Gefühl nämlich auch das Gefühl zu sagen okay... Das was ich mache hat genau in das richtige Wespennest gestochen.

00:12:06: also wir haben sozusagen ja den es ist genau da angelegt wo es wirklich wirklich weh tut.

00:12:15: und wenn du das machst dann gibts eben auch du legst dich halt mit so großen mit so großen Unternehmen an wie, keine Ahnung.

00:12:23: wir verklagen ja X. Wir verklagen Meta.

00:12:25: Wir verklagen Google.

00:12:28: Ich habe auch öffentlich kritisiert wie die USA eben... Zum Beispiel ist genau wie USA eben mit den Plattformen, wie die US-Regierung mit dem Plattform umgeht.

00:12:38: ich hab öffentlich kritisiert Wie eben auch Frauenfeindlichkeit auf den Plattformen wächst und wie das auch was damit zu tun hat, dass eben jemand der wegen Vergewaltigung verurteilt wurde.

00:12:48: Die Präsident der USA ist und eben auch sehr frauenfeindlich sich verhält.

00:12:53: Und die Plattformbetreiber zum Beispiel Musk und Zuckerberg ja auch sehr so in dieses Horn irgendwie blasen.

00:13:00: Dass du lächst dich halt mit solchen Leuten an und wenn das erfolgreich ist und wenn es genau in die richtige Stelle piekst dann gibt es auch eine Reaktion.

00:13:15: Und das ist jetzt so ein Konfrontationsschritt, der da jetzt irgendwie passiert ist?

00:13:20: Aber der ist auch eine Chance!

00:13:22: Der ist nicht das Regime Zeichtheit sein wahres Gesicht und das ist eine Chance Menschen zu erklären was hier eigentlich gerade passiert, worum es wirklich geht.

00:13:30: weil ich glaube dass der Großteil der Menschen nicht weiß, dass es eben gerade diesen geopolitischen Konflikt darum gibt.

00:13:36: wer bestimmt eigentlich was wir jeden Tag in den sozialen Medien lesen.

00:13:39: Darum geht's ja am Ende.

00:13:40: Es geht am Ende darum, dass neunzig Prozent der jungen Menschen ihre Nachrichten nicht mehr irgendwie über Zeitung oder eine App oder über eine Webseite lesen.

00:13:52: Sondern die Lesen, die über die Feeds der Social Media Kanäle.

00:13:57: Und es geht darum wer bestimmt was denen angezeigt wird.

00:14:02: und wenn es nach Donald Trump geht dann alles was er möchte und wenn das nach den Plattformbetreibern Alles, was sich am besten verkauft.

00:14:10: Also auch Gewalt und Desinformationen.

00:14:13: Auch Dinge die total Kinder- und Jugendgefährlich sind.

00:14:15: Egal!

00:14:17: Und wenn es nach der Europäischen Union geht?

00:14:19: Dann eben Dinge, die unser Grundgesetz Menschenrechte waren... ...die unsere demokratischen Werte waren,... ...die nicht unsere Wahlen manipulieren und gefährden,... ....die den Kinder-und Jugendschutzeinhalten.

00:14:30: Und genau da stehen wir sozusagen wer bestimmt.

00:14:34: wie unsere öffentlichen Räume aussehen, womit wir uns als Gesellschaft aussetzen und auch unsere Kinder.

00:14:41: Und dieses Einreiseverbot ist noch mal eine gute Gelegenheit um diesen Konflikt einfach zu erzählen und Menschen hier zu sagen.

00:14:49: Darum geht es jetzt irgendwie gerade – das geht euch alle was an!

00:14:53: Dieses Regime scheut vor nichts zurück.

00:14:56: Die Plattformbetreiberinnen sind nicht unsere Freunde, sondern im Gegenteil Die haben sich mit diesen Präsidenten verbündet und scheuen vor nichts zurück, um eben zivilgesellschaftliche Organisationen, Wissenschaftlerinnen und auch die Europäische Kommission unter Druck zu setzen keine Regulierung durchzuführen.

00:15:19: Also nicht unsere Werte auf diesem Plattform umzusetzen sondern eben weiter dieses laissez-faire Verhalten.

00:15:27: Woher kommt es, dass bei mir der Eindruck entsteht?

00:15:29: Dass wir im Grunde über so eine Art von rechtsfreiem Raum reden.

00:15:31: Ja also...

00:15:32: Vielleicht kann ich hier noch ein Beispiel geben.

00:15:35: Ich habe eines aus der ganz aktuellen unserer Praxis und da hab' ich das Gefühl, dass mein Beispiel ziemlich mit dem korrespondiert, womit ihr zu tun habt.

00:15:42: Auf der einen Seite wissen wir alle, dass es nicht in Ordnung ist im Rahmen von Recruiting personenzogene Daten hochzuladen um die zu scannen und zu gucken.

00:15:50: wer passt jetzt ganz besonders gut auf ne Stelle?

00:15:52: und gleichzeitig wissen wir und das weiß ich von genug Unternehmern und Unternehmerinnen, dass sie genau das tun.

00:15:56: Warum tun Sie das?

00:15:57: Weil es ist reguliert, aber es droht doch irgendwie keine Strafe.

00:16:00: Das passiert ja nichts!

00:16:01: Woher kommt das, dass sich das so als normal eingestellt hat und man Dinge tun kann?

00:16:05: uns zieht keine Strafen nach sich?

00:16:06: Es gibt

00:16:07: zwei Aspekte dazu.

00:16:08: also einer ist eben auf dieser strafrechtlichen Ebene da haben wir ganz lange Polizei- und Staatsanwaltschaften ganz lange einfach den digitalen Raum ein bisschen ignoriert.

00:16:17: viele Menschen haben auch nicht angezeigt.

00:16:19: Also wo kein Kläger ist, ist auch kein Richter muss man auch sagen Das ist das eine Und es ist einfach so eine Masse.

00:16:27: Also du hast ja selber gerade gesagt, alle machen es.

00:16:29: Es ist halt einfach so ne krasse Masse dass sie auch gar nicht hinterher kommen.

00:16:34: und auf der anderen Ebene, weil in Deutschland wir haben schon genau die Gesetze sind ja schriftlich da das heißt einerseits so diese Frage nach Durchsetzung der Gesetzen und das zweite ist eben auf der europäischen Ebene Du hast halt ein Gesetz aber du musst es halt auch durchsetzen sonst ist es nicht das Papierwert auf dem es steht Und deswegen hast du das Gefühl, es ist ein rechtsfreier Raum.

00:16:56: Weil in den Gesetzen stehen Dinge also wie das Internet aussehen sollte wenn wir jetzt in diese ganzen Gesetze gucken dass der einen Himmel weiter unterschied zu dem was wir Wenn du jetzt auf eine Social Media Plattform welche auch immer gehst Es ist ja ein himmelweiter Unterschied wenn du auf ne große Social Media Platform gehst Wie es da jetzt aussieht und das hat damit zu tun Dass du das gefühl hast okay Das ist ein rechtes freier raum obwohl es das nicht is.

00:17:21: Ich würde immer sagen, es ist ein rechtsdurchsetzungsfreier Raum.

00:17:24: Aber wie kommt das dann dazu?

00:17:25: Also ich habe jetzt vor kurzem was gelesen und ich wusste es nicht.

00:17:27: Es sind auch erst ein paar Tage her, dass GROC inzwischen die Möglichkeit hat auf Anweisungen Leute richtig frontal zu beschimpfen.

00:17:32: Und das ist doch eigentlich klar, dass es das nicht tun dürfte und dass sich das nicht tue sollte.

00:17:35: Richtig!

00:17:37: Meines Erachtens nach ist das auch ein ganz klarer Verstoß gegen das Digitale Dienstegesetz weil eben eine neue Funktion eingeführt wurde auf X und normalerweise ist X verpflichtend nach dem digitale Dienstegesetz.

00:17:47: diese neuen Funktionen nämlich diese Beschimpfungspfunktion die einmal zu testen, was für Risiken sie haben könnte.

00:17:53: Strukturelle Risiken und ich meine ...

00:17:55: Welche Risiken könnte eine Beschimpfungsfunktion schon haben?

00:17:59: Genau das ist halt, sieht ein Blinder mit dem Krückstock, dass es total klar ist, dass das ganz großes Risiko für viele Personen haben könnte Und dass vor allen Dingen da super viele illegale Inhalte produziert werden könnten.

00:18:12: Und Exatas hat einfach nicht geprüft vorher.

00:18:14: Das heißt Das ist eigentlich ein Verfahren, das müsste die Europäische Kommission untersuchen.

00:18:18: Und meines Erachtens würde sie auch zu neunneinzig Prozent in den Schluss kommen.

00:18:21: Dass es einen Verstoß ist gegen den Digital Service.

00:18:23: Es ist so, dass Sie dann ein Bußgeld verhängen müssen?

00:18:26: Okay!

00:18:26: Dann verhäng'n die ein Buusgeld... ...dann zahlen je, das dürft ihr den reichsten Menschen der Welt relativ wenig interessieren weil das macht er aus einer Portugasse und am Ende ist genauso wie vorher.

00:18:33: Das würd ich so nicht sagen.

00:18:34: Weil die Verstöße sind schon sehr erheblich und es gibt sehr viele Verstösse und du kannst bis zu sechs Prozent des jährlichen Umsatzes pro Verstoess als Bußgelt verhängen.

00:18:44: Das heißt, wenn die Europäische Kommission da mal wirklich Hand anlegen würde und starten würde und wirklich ein Bußgeld nach dem anderen verhängen würde dann würde das am Ende für X tatsächlich eine Rolle spielen.

00:18:55: Eigentlich seid ihr am Ende in das Fahrwerk zwischen die Räder gekommen, zwischen geopolitischen Interessen, nämlich dass sie einen keine Zölle haben wollen, die anderen dafür einen rechtsfreien Raum haben wollen oder zumindest einen einen Zensur freien Raum dieses Jahr selber betonen.

00:19:07: Und ihr hängt da dazwischen weil ihr sagt naja es funktioniert eigentlich nicht ohne dass wir uns jetzt nicht ein bisschen regulieren.

00:19:11: Ihr müsstet also durchsetzen Aus Angst vor Repressalien.

00:19:14: Genau, wir sagen halt es muss durchgesetzt werden.

00:19:17: Wir stehen dafür ein das ist unsere Mission zu sagen Menschenrechte müssen im Internet durchgesetzt wird Da gibt's gar keine Frage.

00:19:26: Und genau mit dieser lauten Stimme Stehen wir da und unterstützen eben auch die Europäische Union oder machen auch Druck.

00:19:35: Deswegen sitze ich ja auch hier.

00:19:36: deswegen mache Ich auch darauf aufmerksam wenn eben nicht durchgesetzt werde.

00:19:38: deswegen fordern wir Die ganze Zeit dass eben dieses digitale dienstegesetz jetzt mal endlich auch wirklich konsequent durchgesetzt wird, ist auch eine Forderung an die Bundesregierung sich dafür einzusetzen.

00:19:48: Genau und in dieses Fahrwasser sind wir halt gekommen.

00:19:51: Und ich sage dir noch was?

00:19:54: Was das perfil ist es wenn man sich dieses Gesetz anguckt dass digitale Dienstes läuft so Die europäische Kommission also die Aufsichtsbehörden können nicht den ganzen Tag im Internet alles durchforsten und gucken wo gibt es Verstöße?

00:20:05: da haben sie gar nichts Personal.

00:20:07: Das heißt man hat das Gesetz so gestaltet dass man gesagt hat zivilgesellschaftliche Organisationen, wie wir zum Beispiel oder Wissenschaftlerinnen forschen halt im Netz.

00:20:16: Sehen das es bei manchen Sachen Risiken gibt?

00:20:18: Oder dass es Verstöße gibt gegen das Gesetz?

00:20:20: Wie zum Beispiel bei dieser Beschimpfungsfunktion von GROC und reichenden dann bei der Europäischen Kommission eine Beschwerde ein und sagen hier europäische Kommission guck mal hier.

00:20:28: Wir haben hier einen Verstoß gefunden untersucht das Mal so.

00:20:32: wenn jetzt aber eine US Regierung allen mit Sanktionen droht die sich daran beteiligen Dann macht das niemand mehr.

00:20:40: Dann hat die Europäische Kommission, an die Aufsichtsbehörden auch keine Beweise mehr dafür.

00:20:43: Das heißt dann ist das Gesetz tot?

00:20:46: Was am Ende ein civilgesellschaftliches Problem ist, quasi eine Maus, die sich selber in den Schwanz beißt und eine Katze, die sie selbst beißts.

00:20:52: Wenn ich das richtig verstanden habe – bitte korrigier mich, falls es verkehrt ist – einer der Hauptgründe, warum ihr da dazwischen gekommen seid, ist, dass ihr als Institution Trusted Flagger seid.

00:20:59: Genau!

00:21:00: Was is'n Trusted

00:21:00: Flagger?!

00:21:01: Also ein Trusted-Flegger ist Teil des Digital Services Act.

00:21:05: Man hat gesagt, oh Gott, da sind ja so viele illegale Inhalte auf den Plattformen.

00:21:10: Und wie kriegt man das denn hin?

00:21:12: Die Plattform ... Du kannst ja illegale Inhalter auf dem Plattform posten noch und nöcher!

00:21:17: Und die Plattforms sind nicht verpflichtet diese illegalen Inhalten zu entfernen.

00:21:21: Außer sie werden notifiziert.

00:21:22: Das heißt außer du gehst hin und sagst Hallo gucken Sie mal hier ist eine Vergewaltungsandrohung.

00:21:28: Hallo gucken sie mal hier.

00:21:28: ich habe einen Hakenkreuz gefunden.

00:21:30: Hallo, Insta.

00:21:31: Kannst du das mal wegmachen?

00:21:32: Hallo, TikTok!

00:21:33: Bitte entfernen Sie das.

00:21:34: Vorher nicht.

00:21:35: Das heißt vorher kann es die Plattform nicht verpflichtet, das Hakenkreuz zu entfernen und nicht die Morddrohung zu entferne, sondern das kann auf der Plattform stehen bleiben.

00:21:43: Sie sind dafür nicht haftbar.

00:21:45: Und dann hat man gesagt, mein Gott, wie kriegt man das denn hin?

00:21:47: Dass eben diese Inhalte auch schnell entfernt werden.

00:21:51: Weil man will ja nicht, dass die illegalen Inhalten dafür immer und ewig stehen bleiben.

00:21:56: Das heißt, man braucht zivilgesellschaftliche Organisationen, die eine bestimmte Expertise haben.

00:22:01: Zum Beispiel wir, ne juristische Expertise.

00:22:02: Wir haben ne Juristin, die sitzt da.

00:22:05: Wenn uns Inhalter gemeldet werden, prüft sie, ob die wirklich illegale Inhalts sind.

00:22:10: Und wenn sie illegale inhalt sind, haben wir einen extra Meldewicht damit wir das den Plattform melden können und sagen können, hallo.

00:22:16: Das ist jetzt nicht einfach eine normale Meldung von einem User der vielleicht keine juristische Expertise hat sondern wir haben das noch mal rechtlich geprüft.

00:22:25: Dieses Hakenkreuz ist sehr wahrscheinlich illegal Und dann sind die Plattformen verpflichtet als erstes zu prüfen also sozusagen ganz oben auf den Stapel zu stellen.

00:22:34: Die Idee dahinter ist halt zu sagen Inhalte, die sehr sehr wahrscheinlich illegale sind sollten früher angeguckt werden, damit sie schneller aus dem Internet entfernt werden.

00:22:44: Damit Sie halt weniger Schaden anrichten.

00:22:46: Damit deine Kinder ich keine Hakenkreuz jeden Tag sehen müssen.

00:22:52: Damit die Morddrohungen halt schnell ausm Netz kommt und so weiter.

00:22:55: Also während auf der einen Seite tausend von Trolls sitzen, die das Internet fluten mit Falschmeldung oder Blödsinn ... sitzen auf der anderen Seite wenige Personen, die sich das angucken und das Gegen prüfen.

00:23:04: In der Hoffnung dass dann die Plattform das löscht, habe ich das richtig verstanden?

00:23:08: Das hat sich ziemlich angehört, so war es nicht gemeint aber...

00:23:10: Nee, aber das ist so genau!

00:23:11: Das ist

00:23:11: ein Kräfteungleichgewicht.

00:23:12: Und das größte Krefterungleich Gewicht ist halt, dass wir eine juristisch geschulte Person haben, die das halt prüft und die Prüfungen bei den Plattformen.

00:23:21: wenn du jetzt zum Beispiel als User da was einreichst also sagst hier guck mal hier das Hakenkreuz Dann ist das halt meistens KI.

00:23:27: Da sitzen keine Juristen Und die entscheiden dann, ob die Inhalte gelöscht werden oder nicht.

00:23:32: Hört sich an wie ein Kampf gegen Windmühlen?

00:23:33: Ja

00:23:34: total!

00:23:35: Wir müssen da am Ende irgendwie positiv rauszukommen und in eine positive Richtung drehen.

00:23:38: Das

00:23:39: schaffen wir auch.

00:23:40: Auf jeden Fall.

00:23:40: Ich finde es total spannend – ich glaube, da bin ich nicht der Einzige, sondern auch die Leute, die das jetzt hören -, dass es ja total spannend ist zu verstehen weil im Grunde stehen wir davon einen ziemlich großen Haufen Scheiße.

00:23:50: Und ich frage mich schon, wie man dem was entgegenstellen kann... Also ich hab verstanden, Trusted Flagger kann ich einen Haken ran machen.

00:23:59: Ich habe auch verstanden wie das funktioniert.

00:24:02: Was mich noch interessiert ist, wie lang ist denn dieser Meldeweg?

00:24:05: Jetzt hab' ich das angezeigt Das kommt bei euch an und dann geht es zur Plattform und da machen die vielleicht das Visti, wie lange das dauert.

00:24:10: Ähm

00:24:11: also wenn wir das... Wir haben jetzt Wir sind jetzt in der Zeit lang Trusted Flagger und wir sehen, dass so ungefähr bis zu ca.

00:24:20: die Inhalte von uns entfernt werden und auch viel schneller als wenn normale User das anzeigen.

00:24:26: Weil wir haben nämlich bevor wir Trusted Flagger geworden sind ein Test gemacht wo wir als ganz normale User in Inhalter angezeigt haben auf allen Plattformen über zwei Jahre lang und haben halt geguckt wie lange brauchen... Wie sind die Meldwege überhaupt ausgestaltet?

00:24:38: Wie lange brauchen UserInnen um damit eben Inhalten entfernt?

00:24:43: Und da waren über fünfzig Prozent der Inhalte, die nicht entfernt wurden.

00:24:46: Die auch eindeutig illegal sind.

00:24:48: und bei uns wenn wir als Trusted Flagger melden werden mehr Inhalt entfernt.

00:24:52: also werden so zwischen siebzig-und achtzig Prozent der inhalte entfernt und auch schneller entfernt als wenn es normale Userinnen machen.

00:24:58: Was heißt schnell ungefähr?

00:24:59: Ich überlege mir wie viel... Also ich meine wir wissen ja das funktioniert dann gut wenn sich viral verbreitet was ja der Grundfehler ist weswegen schlechte Inhalten gut geteilt werden.

00:25:06: Wenn ich das also nicht quasi in echt Zeit weg kriege Dann ist es ja draußen sehr unterwegs.

00:25:11: Genau, also wie schnell kann ich jetzt nicht genau sagen.

00:25:13: Aber in Echtzeit ist halt ein Thema, ne?

00:25:15: Weil du musst es erst mal bei uns ... Du siehst es, du musst das bei uns melden und wir müssen es bearbeiten.

00:25:20: Und das hat auch mit Kapazitäten zu tun.

00:25:23: Wir werden halt nicht für diese Trusted-Schlägerfunktion bezahlt.

00:25:26: Also, genau!

00:25:26: Das müssen wir alles aus eigenem Mittel stellen.

00:25:28: Das heißt... Wir machen das freiwillig.

00:25:30: Die Europäische Kommission hat halt gesagt, Als Aufsichtsbehörde müssen jetzt ganz viele neue Leute einstellen.

00:25:38: Und das müssen die Plattformen bezahlen,

00:25:39: d.h.,

00:25:39: sie haben den Plattform sozusagen eine Prozentzahl, knöpfen die denen immer ab um ihre ganzen Leute zu bezahlen und ... Die NGOs, die halt Trusted Flagger sein sollen und das alles vorprüfen sollen und die sogar eine Juristin einstellen mussten, das mussten wir ja, um das zu machen damit wir überhaupt zertifiziert werden kriegen aber kein Geld und müssen das selber finanzieren.

00:25:57: Weder von der EU noch auf Bundesebene?

00:25:59: Nein, bekommen wir nicht.

00:26:00: Ach, das

00:26:00: geht mir auf den Sack!

00:26:01: Genau, deswegen...

00:26:02: Das ist ... Da dieser Gott verdammte Sektor scheitert genau an der Stelle, an ganz immer und immer wieder an der gleichen Stelle das wir eigentlich Aufgaben übernehmen sollen die dann keiner Breite zu bezahlen.

00:26:12: Richtig!

00:26:12: Und das Problem ist dass halt dann wenn du mich fragst kriegen wir das ja in echt Zeit weg?

00:26:17: Dann kann ich sagen meine eine Juristin versucht es halt aber unsere Kapazitäten sind halt auch beschränkt.

00:26:27: Wir reden darüber, dass es im Runde ein Raum gibt in den Firmen.

00:26:34: Zwar reguliert sind und trotzdem tun und lassen können was sie wollen weil bestimmte Rechte nicht durchgesetzt werden.

00:26:39: Das geht jetzt auch noch weiter.

00:26:41: das heißt der Podcast bleibt super spannend.

00:26:43: Ich möchte dich nur kurz an Erinnerung.

00:26:44: Es gibt eine Steady Page Und wenn du uns unterstützen möchtest dann schau da mal vorbei.

00:26:47: Den Link dazu findest Du in den Schaumotzen.

00:26:57: Klar könnte man das in Echtzeit machen.

00:26:59: Die Plattformen schaffen es ja auch, in Echzeit Müll zu produzieren.

00:27:01: Und du könntest einfach auf der Gegenseite genau die gleiche Technik anwenden und sagen okay wenn ihr Müll produziert dann flecken wir einfach alles was Müll ist.

00:27:08: Ach, das ist eine verdammt verfahrene Situation.

00:27:10: aber um nochmal auf die Inhalte zurückzukommen.

00:27:12: Was ich interessant finde... Du hast jetzt vorhin schon gesagt klar gegen Google eingereicht?

00:27:17: Und zwar, du kannst es wahrscheinlich besser erklären als ich.

00:27:19: Ihr habt explizit eine Userin von der Bilder immer und immer wieder reproduziert und veröffentlicht wurden obwohl sie's mehrfach angezeigt hat.

00:27:28: Ich muss wirklich fragen... eigentlich ist das ja total absurd!

00:27:31: Eigentlich dürften wir beide ja gar nicht miteinander reden.

00:27:34: Also weißt du?

00:27:34: Es dürfte kein Thema sein dass scheiß Inhalte verbreitet werden.

00:27:38: Das macht mich echt wahnsinnig.

00:27:39: Ich hatte das Gefühl als wir vor drei Jahren miteinander gesprochen haben auch schon Da muss wirklich eine Organisation Google anzeigen, damit die... Ich glaube es geht in dem Fall um Nacktbilder.

00:27:49: Nackttbilder einer Userin nicht weiter verbreiten?

00:27:51: Also ist das eigentlich noch viel schlimmer.

00:27:53: Es geht um... Genau also da muss sich jede Person, die das jetzt hört einfach mal für sie selber ganz kurz vorstellen.

00:28:00: Die betroffene Person hat halt mit ihrem Mann private Videos gemacht beim Sex So wie dass halt Paare irgendwie machen Und die hat sie auf ihre Eiklaut gespeichert.

00:28:11: Die war es auch für niemanden.

00:28:13: das Augen bestimmt, und die Eiklaub wurde gehackt.

00:28:15: So sind einfach diese privaten Videos im Internet gelandet.

00:28:18: Das war nie geplant, das war für nie für niemandem gemacht.

00:28:22: Genau so!

00:28:24: Seit anderthalb Jahren gehen diese Bilder einfach nicht weg.

00:28:28: Die Bilder wurden zunächst erst mal auf Pornoplattform hochgeladen und sobald sie auf irgendwelchen kleinen Pornplattformen hoch geladen sind, werden Sie halt in der Google-Suche angezeigt.

00:28:37: Und in dieser Eiklaut war eben auch ein Dokument mit dem Namen dieser Klientin.

00:28:42: Das heißt, Sie haben nicht nur die Bilder von Ihrem Mann hochgeladet sondern Sie haben sie alle geteckt mit ihrem echten Klarnamen.

00:28:49: Das heisst jedes Mal wenn diese Person gegoogelt wurde von ihren Kollegen von ihrer Familie, von ihren Freunden.

00:28:57: Wenn sie sich irgendetwas gekauft hat, ihre Namen und ihre E-Mailadresse dargelassen hat, wenn sie diesen neuen Job gesucht hat war das erste was mit der Google Suche finden konnte Bilder von ihr und ihrem Mann beim Sex mit ihrem Namen Und das war einfach fürchterlich!

00:29:14: Das war so ein krasser Albtraum und wir haben halt über ich glaube insgesamt bei Google tausend fünfhundert Inhalte gemeldet in den letzten Drei Jahre.

00:29:28: Ich habe eine Betroffenenberaterin, die einmal pro Woche auf die Google-Bildersuche geht und dort guckt sind wieder neue Bilder da das bei Google meldet dann entfernt Google das auch Und die dann eben auf die kleinen Pornoplattform zugeht und sagt bitte nehmen sie das runter das sind illegale Inhalte.

00:29:44: Dann entfernen die das auch.

00:29:46: wenn man die eben wenn es dann Impressum gibt und wenn wir die irgendwie anschreiben kann machen die dass auch.

00:29:51: Aber die Bilder werden halt immer wieder hochgeladen, immer wieder und immer wieder.

00:29:53: Weil sie einfach schon runter geladen wurden oder waren einfach diejenigen, die das eben verbreiten einen großen Spaß daran haben diese Bilder immer weiter zu verbreitern Und es ist halt für unsere Klientinnen absolut und ihren Mann ein absoluter Albtraum.

00:30:06: Die sind umgezogen Sie hat den Job gewechselt, sie hat den Freundeskreis gewechseld' und die Bilder verfolgen sich halt immer weiter.

00:30:13: Und dann sind wir irgendwann auf Google zu gegangen und haben gesagt Leute Die Bilder sind illegal, sie wollten die ihr Bildern nie veröffentlichen.

00:30:20: Könnt ihr nicht dafür sorgen dass diese Bilder wenn sie wieder hochgeladen worden automatisch gelöscht werden?

00:30:25: und könnt ihr nicht eigentlich auch dafür sorgen das diese Bilder einfach nicht mehr hoch geladen werden dürfen weil wir einfach beweisen können dass diese bilder illegal sind und weil diese Klientin einfach ein Recht darauf hat Dass sie ein normales Leben führen kann ohne dass sie den Rest ihres Lebens erstens das internet google durchforsten muss ob wieder neue Bilder aufgetaucht sind Und das Rest ihres Lebens einfach Angst haben muss bei jeder Person, die sie trifft und googelt, dass diese Bilder wieder auftauchen.

00:30:51: Und da hat Google gesagt, nee, das können wir leider nicht!

00:30:53: Mit welcher Begründung?

00:30:54: Sind wir nicht rechtlich zu

00:30:54: verpflichtet?!

00:30:55: Sind Sie denn rechtlich verpflichtend?

00:30:57: Das wollen wir klären in diesem Prozess.

00:30:58: Was ist Deiner Einschätzung?

00:30:59: Ja...

00:31:00: sind Sie.

00:31:01: Wenn Sie nicht rechtlichen dazu verpflichten sind, wenn wir das durchklagen dann finde ich muss man sich rechtlich dazu verflichten.

00:31:06: Dann haben wir den Gesetzeslücke weil ich meine jede Person die jetzt zuhört glaube ich wird wissen, dass das nicht richtig ist dass das nicht sein kann.

00:31:14: Und wenn sie sich selber in diese Situation versetzt, dass es einfach nicht sein darf und jetzt reden wir mal weiter hier waren das echte Bilder von ihr und ihrem Mann.

00:31:26: Jetzt gibt's Apps mit denen du in drei Minuten mein Gesicht im Deepfake-Porno rein manipulieren kannst und das im Internet veröffentlichen kannst.

00:31:35: Das heißt Es kann einfach jeder von uns passieren.

00:31:38: Also es passiert ja meistens Frauen und jungen Mädchen aber auch Männern.

00:31:41: also es kann einfach jede Person passieren in irgendein Porno rein manipuliert wird und das dann eben bei Google hochgeladen wird.

00:31:51: Und das muss doch möglich sein, also für alle jungen Mädchen die jetzt aufwachsen, muss es doch möglich sind dass wir denen sagen können du wirst nicht dein ganzes Leben lang in irgendwelchen Pornos im Internet rumschwirren und musst nicht für den Rest des Lebens einfach damit leben, dass diese DeepFake-Pornos immer wieder hoch geladen werden sondern und jeder anderen Person, der genau das Gleiche passiert wie unserer Klientin.

00:32:16: Dass die halt... dass ihre iCloud gehackt wird oder dass Daten eben geliegt werden oder so?

00:32:20: Oder dass der Ex-Partner einfach Material, das man zusammen erstellt hat dann, das passiert ja auch total oft, dann einfach im Internet veröffentlicht.

00:32:27: du musst nicht dein ganzes Leben lang Angst haben, dass alle Leute dieses Material von dir wieder sehen können.

00:32:33: Genau ich denke, also dieses Recht ist bisher noch rechtlich durchgefochten und deswegen wollen wir das jetzt machen mit diesem Fall.

00:32:42: Und ich bin der Meinung, es darf nicht sein.

00:32:45: In deiner Beobachtung über die letzten Jahre seit ihr Hate-Aid betreibt hat sich die Art der Fälle, mit denen ihr euch auseinandersetzt verändert?

00:32:52: Ja, hat sich verändert also... Das haben sich einfach die Phänomene auch verändert.

00:32:57: Natürlich hast du so die Klassiker immer noch, Beleidigung, Morddrohung, Vergewaltigungsandrohung ... Die Klassika!

00:33:02: Aber dann ...

00:33:05: Mir fällt das nur auf, ja?

00:33:08: Ja.

00:33:10: Die Klassiker, als hätte sich das komplett normalisiert.

00:33:13: Als wäre es Teil eines neuen Normals, dass man eine Morddrohung bekommt.

00:33:18: Das

00:33:18: stimmt?

00:33:20: Ich

00:33:20: beobachte

00:33:22: das einfach mal.

00:33:23: Wahrscheinlich ist das so und für uns ist das unser Daily-Business.

00:33:27: Damit beschäftige ich mich seit sieben Jahren.

00:33:28: Bin nicht beneidiglich nicht drum, ehrlich nicht!

00:33:31: Aber es haben sich halt KI ... Also die technischen Gegebenheiten haben sich verändert... Und Kreativität hat sich auch verändert.

00:33:36: also zum Beispiel was sich verändert hat, was so sehr zugenommen hat zum Beispiel Dickpicks.

00:33:43: Dass jede Frau unter dreißig eigentlich sagen kann, ich hab schon mal einen Dick-Pick oder ein sexualisiertes Foto von irgendjemand bekommen ...

00:33:50: Aber von echten Menschen also?

00:33:51: Ja doch, von echtem Menschen!

00:33:53: Das Dick-picks ist ein Thema, Doxing is'n Thema.

00:33:56: Also man versucht die Privatadresse herauszufinden und die eben im Internet veröffentlicht.

00:34:00: Und dann KI ist einfach eine Ries, sein großes Thema.

00:34:05: plötzlich diese deepfakes ganz leicht machen kann innerhalb von drei minuten so ein video und das hat natürlich ein ganz neues.

00:34:11: diese fenomeno die hatten wir vor irgendwie drei jahren das waren ganz selten dass man mal so einen fall hatte.

00:34:16: da wurde dann noch so gefotoshoppt und also da wurden so bilder gemacht aber nicht, dass man jetzt wirklich so ganze videos ganze pornovideos hardcore pornovideos hat wo eben wirklich das sehr sehr echt aussieht dass die leute da so rein manipuliert worden.

00:34:31: Und dann was auch ein großes thema ist zum beispiel oder zwei große Themen, spyware auf den Handys.

00:34:37: Dass das immer professioneller wird vom Ex-Partner kontrolliert von ehemaligen Kollegen der dann eben immer sieht wo man ist oder mitliest bei den WhatsApp Chats weil es da einfach viel bessere Produkte gibt muss man sagen.

00:34:51: und dann ein ganz großes Thema was wir jetzt auch haben was auch eher Männer betrifft ist Sextorschen also dass halt Männer so Erpresst werden mit intimem Material, was sie aufgenommen haben.

00:35:06: wo ihnen dann vorgegaukelt wird, da würde sich irgendwie so eine Romanze entwickeln.

00:35:11: Und dann wird sie gefragt, kannst du mir mal Nacktbilder schicken oder kannst du mich mal andere sexuelle Videos schicken?

00:35:18: Dann werden die damit erpresst!

00:35:19: Wär schon irgendwie geiler, wenn wir das Internet einfach abschalten,

00:35:21: oder?!

00:35:21: Wär ja schon irgendwie geil, wenn man das Internet so gestaltet, dass es irgendwie sicher ist und dass alle Dinge machen könnten, also dass wir nicht immer auf solche Sachen irgendwie ... Stoßen würden.

00:35:34: Könntest

00:35:34: du einfach abreißen, wie bei so einem Haus?

00:35:36: Reiß'n's ab und dann bauen wir das von vorne noch mal gut auf.

00:35:39: Vielleicht!

00:35:39: Vielleicht... Es gibt Geschichten die mir Hoffnung machen, das habe ich gerade eben rausgesucht.

00:35:42: Ich hab gestern, ich weiß nicht ob du das mitbekommen hast Das ist eine Geschichte aus dem Bundesstaat New Mexico Die grade erst stattgefunden hat Und ich lese dir das ganz kurz vor Weil es hatte jemand auf LinkedIn sehr gut zusammen gefasst und ich ratte das einmal runter.

00:35:57: also Eine dreizehnjährige Schülerin erstellt ein Instagram-Profil.

00:36:01: Sie postet über ihren ersten Schultag die Schulkantine und dass sie ihren letzten Milchzampfer verloren hat, ein paar Wochen später fünftausend Freundschaftsanfragen, sechstausendsimmonatfollower fast ausschließlich erwachsene Männern, die größten Gruppen aus Nigeria, Ghana, Dominikanische Republik... ...die Reaktion von Meta eine Einladung den Account zu monetarisieren.

00:36:19: Der entscheidende Punkt, das Mädchen existiert gar nicht.

00:36:22: der Account wurde von Attorney General des US-Bundesstaats New Mexico erstellt als einer Cover Experiment.

00:36:28: die Ermittler wollten wissen was passiert wenn sich ein angeblich minderjähriges Mädchen auf Metas Plattformen anmeldet und haben es dann eben systematisch dokumentiert ziehen damit jetzt vor Gericht.

00:36:36: und der Five Would Death Eigen als besonders interessant beschrieben Weil er eine Zentrale, ich liest das jetzt weiter hier vor, weil er eine zentrale Schutzmauer des Dead-Hack-Plattforms abgreift.

00:36:47: Section two hundred thirty weiß auch immer man das ist.

00:36:50: da stelle ich grad ein bisschen blank.

00:36:51: bisher konnten sich Plattformen darauf berufen nur Host für Inhalte zu sein und nicht für das Verhalten der Nutzer zur Haften.

00:36:57: New Mexico argumentiert anders Nicht der Content sei das Problem sondern das Produktdesign Der Startwürftmeter vor.

00:37:02: Algorithmen würden systematisch Kontakte ermöglichen die Mähnderjährige gefährden Sicherheitsversprechen würden öffentlich kommuniziert intern aber nicht eingehalten werden und Plattformmechaniken würden problematisch der Aktionen sogar verstärken.

00:37:13: Und das finde ich total spannend, weil sie quasi aus systematischen Daten in einem ganz besonderen Fall ihre Rückschlüsse gezogen haben und offensichtlich so einen neuen Ansatz gefunden haben um ihn auf die Pelle zu rücken

00:37:23: Naja, und weil sie halt auch was in Frage stellen, was ich finde, was man ganz dringend infrage stellen müsste.

00:37:29: Das Haftungsprinzip also die Plattform haben bisher eine riesengroße Privilegierung.

00:37:34: das kommt noch aus der Zeit als sie eben kleine Mini-Plattformen waren und wir wollen hier nur die Freunden... Wir wollen Menschen connecten.

00:37:40: und so als dass alles irgendwie noch super unschuldig war und da hat man halt gesagt okay ihr seid halt nicht wie normale Presse Ihr müsst nicht für das Haften was auf euren Plattformen passiert sondern die User und Userinnen müssen halt haften.

00:37:52: Und mittlerweile ist es aber so, dass wir alle wissen.

00:37:55: Das sind Algorithmos und das ist ja auch in diesem Fall genau das was eben auch der Attorney General da argumentiert, dass die Algorithmen halt Sachen verstärken, dass sie Plattformen halt ihre Inhalte so designen, dass Sie halt gerade zum Beispiel einfach Content von einer minderjährigen monetarisieren Das sind Entscheidungen, wo jetzt man nicht mehr sagt, das sind die einzelnen User oder Userinnen.

00:38:17: Dass diese Leute da aus Kenia vielleicht versuchen dieses fünfjährige oder junge Mädchen, sechsjährige Mädchen dazu groomen?

00:38:23: Das ist dann nochmal auf einer anderen Ebene.

00:38:24: aber dass die Plattform überhaupt es so einfach machen, dass es keine Sicherheitsschutzmaßnahmen gibt, dass dieses Mädchen so ge groomt werden kann, dass sie sogar ihr noch anbieten das zu monetarisieren dafür sind Sie dann haftbar.

00:38:38: Und das ist sozusagen so ein Hebel zu sagen, Moment mal.

00:38:42: Wenn ihr was algorithmisch verstärkt, dann habt ihr den Inhalt angefasst.

00:38:45: Das heißt, dann seid ihr auch mit Verursacher von etwas und dafür müsst ihr halt hafbar gemacht werden.

00:38:52: Dafür gibt es jetzt in den USA ja auch viele superinteressante Fälle wo eben Leute eine große Plattform verklagen und sagen die haben mich psychisch krank gemacht.

00:39:00: oder Eltern sagen mein Kind hat bei der TikTok Challenge mitgemacht Bei der Deo-Challenge, keine Ahnung.

00:39:08: Irgendwas da eingeatmet hat oder ... Also hat körperliche gesundheitliche Schäden.

00:39:14: und eben hinzugehen und zu sagen, das wurde im Kind halt so und oft algorithmisch ausgespielt dafür ist die Plattform verantwortlich.

00:39:23: Mich erinnert es ein bisschen an die Regulierung von Zigaretten beim Rauchen?

00:39:26: Ja!

00:39:26: Da hat es auch lange gedauert.

00:39:27: Dann fing das an, dass irgendwann Werbung verboten war und es hat dann dahin geführt, dass die ersten Staaten gesagt haben, wir reglementieren's einfach, verbieten das Rauchen für bestimmte Jahrgänge?

00:39:34: Und es ist interessant, dass gerade beim Kinder- und Jugendschutz Australien eben sagt, wir wollen ein Verbot, weil Australien auch beim Rauchen mit eines der Länder war, das als allerererstes vorangegangen ist und gesagt hat, wir wollten das regulieren.

00:39:47: Wir verbieten zum Beispiel auch Werbung.

00:39:52: Genau deswegen ... Wenn wir heute zurückdenken und sagen, wollen wir wieder in die Zeit zurück wo man überall rauchen konnte.

00:40:00: Wo du ins Restaurant gegangen bist und neben dir haben sich die Leute eine Zigarette angestellt.

00:40:03: Im Flugzeug!

00:40:04: Richtig im Flugzeug, in Clubs... Also überall, egal wo du warst.

00:40:09: also ich weiß noch das bei mir wurde auch in der Uni geraucht in den Fluren und so.

00:40:14: Wollen wir dahin zurück?

00:40:16: Und alle würden natürlich sagen nein aber in dem Moment war das halt total umstritten Und wir sind genau an so einem Punkt auch jetzt wieder.

00:40:23: Wir müssen jetzt einfach eine sehr konsequente Entscheidung treffen für Schutz und Sicherheit von Kindern und Jugendlichen, von uns.

00:40:30: Es betrifft ja auch Wahlmanipulationen, es betriffe Desinformationen.

00:40:37: Jetzt haben wir viel über dieses Grooming zum Beispiel von Kindern in Jugendlichen.

00:40:42: aber es geht hier auch darum... weiterpolarisierten Gesellschaft, die immer mehr zu den Extremen geht.

00:40:48: Und wir wissen auch aus Erhebungen das eben extremer Content oder extremistischer Content besonders viel verbreitet wird vom Algorithmus.

00:40:58: Also der wird halt besonders oft angezeigt und wir sehen dass gerade eben Kinder- und Jugendliche viel mit politisch extremistischem Content auf den sozialen Medien zugeballert werden vor allen Dingen eben auf TikTok zum Beispiel.

00:41:13: Wie wollen wir damit umgehen, dass diese Plattform auch uns radikalisieren?

00:41:18: Unsere Gesellschaften immer weiter polarisieren.

00:41:21: Wollen wir das zulassen oder wollen wir da nicht einfach sagen nee als eine Gesellschaft die für sich gesagt hat Wir sind eine demokratische Gesellschaft.

00:41:30: Wollten wir nicht solche manipulativen Algorithmen haben Die eben ja wollen wir selber bestimmen mit welchen Inhalten unsere Kinder und Jugendlichen in Berührung kommen und nicht irgendeinen Algorithmus.

00:41:41: Ich habe noch zwei Fragen für dich, du führst ja regelmäßig Interviews und ich unterstelle dir einfach, dass du die hinterher dann nochmal selber im Kopf kurz durchgehst.

00:41:50: welche Frage hättest du über die ganzen Interviews, die du in den letzten Jahren geführt hast?

00:41:54: Hättest Du die wirklich mal gewünscht, dass Du die beantworten kannst?

00:41:56: Die

00:41:56: mir nicht gestellt wurde?

00:41:57: Ja weil das fehlt der Teil fehlt!

00:42:00: Welche Frage, die sie nicht gestellt worden?

00:42:02: Wie

00:42:03: glauben Sie sollte das Internet entziehen oder sollten soziale Medien in zehn Jahren aussehen?

00:42:07: Wie

00:42:07: sollten soziale Medien in zehn Jahren aussehen?

00:42:10: Weil wir super fehl immer darüber sprechen, was läuft eigentlich gerade schief und wie versuchen wir sozusagen jetzt so diese Brände zu löschen die wir jetzt eben sehen.

00:42:21: Aber was mir total fehlt ist eine Zukunftsvision.

00:42:24: das finde ich übrigens fehlt auch total wenn ich auch mit Menschen aus der Politik spreche wo ich auch denke Mensch Was ist denn Ihre Vision für in zehn Jahren, für die sozialen Medien?

00:42:36: Wie ist denn die Vision?

00:42:37: wie soll denn eine Demokratie, die ganz viel auch im digitalen Raum stattfindet, deren öffentliche Räume auch in digitalen Räumen stattfinden.

00:42:47: Wie soll sie denn eigentlich in zehn jahren aussehen?

00:42:50: und Für mich Ich glaube dass wir um diese frage zu beantworten auch in die vergangenheit gucken müssen unsere historische Vergangenheit Und das, was wir erlebt haben mit den sozialen Medien und jetzt auch mit KI erleben ist einfach eine Revolution.

00:43:04: Eine Medienrevolution.

00:43:06: Die haben wir aber in der Geschichte schon ein paar Mal erlebt.

00:43:08: Zum Beispiel beim Buchdruck haben wir die erlebt.

00:43:10: Wir haben sie erlebt beim Radio, wir haben die erlebt beim Fernsehen.

00:43:13: Vor allen Dingen wenn ich angucke mir zum Beispiel den Buchdruk oder das Radio dann wissen wir dass wenn es eine Medienrevolutions gibt und erst mal sozusagen neue Medien eingeführt werden, dass die einerseits ganz viel Potenzial haben uns als Gesellschaft zu demokratisieren.

00:43:28: Das war ja beim Radio auch so, plötzlich konnten alle Sender und Empfänger sein.

00:43:31: Habermas ist am Wochenende gestorben.

00:43:32: Und der hat ja zum Radio gesagt, wow das wird uns als Gesellschaft so viel weiter demokratisieren weil alle plötzlich senden und empfangen können und es nicht nur ... Sie nicht nur von diesen Intermediären, von den Zeitungen abhängig sind.

00:43:46: Was aber auch passiert ist dass die Nazis das Radio genommen haben und in jeden Haushalt gesteckt haben oder als Volksempfänger missbraucht haben.

00:43:53: D.h.,

00:43:53: diese Medien wenn wir nicht bestimmen Wofür sie benutzt werden sollen und wofür nicht.

00:43:59: Und das nach unseren Grundwerten, nämlich der Meinungsfreiheit, der Pressefreiheit aber auch dem Schutz der Würde des Menschen.

00:44:10: Dem Schutz vor Diskriminierung.

00:44:13: Wenn wir sie nicht nach diesen Maßstäben gestalten dass die dann eben auch missbraucht werden können.

00:44:19: Genau das ist die Situation die wir jetzt haben.

00:44:21: Das heißt wenn ich jetzt nach vorne gucke Wie will ich es gestalten?

00:44:25: Dann sollte ich mich daran orientieren, wie ich in der Vergangenheit auch mit genau diesen Medienrevolutionen umgegangen bin.

00:44:32: Nicht umsonst haben wir in Deutschland ein sehr klar ausgestaltetes Presserecht weil wir gesehen haben dass im Nationalsozialismus das eben missbraucht werden kann.

00:44:42: Dass es eben dazu missbrauch werden kann eine ganze Gesellschaft so aufzuhetzen, dass sie irgendwann auch bereit ist zu tolerieren, dass man andere Menschen in Millionen höher umbringt, weil man sie einfach dehumanisiert hat.

00:44:54: Das heißt wie müssten wir jetzt diese sozialen Medien gestalten?

00:44:58: Da müssen wir in die Vergangenheit gucken und sagen genau die Kriterien, die wir dort an unsere anderen Medien anlegen, die müssen wir jetzt auch anlegen.

00:45:08: Und für mich ist klar, soziale Medien sind Produkte Die wachsen nicht aus dem Boden wie Bäume.

00:45:16: Eines ist gerade und eins ist schief, sondern Menschen gehen hin und designen die so.

00:45:21: Die designen die Algorithmen, ob das für ein kleines Mädchen wie mit diesem Account, über den wir gesprochen haben, gefährlich oder nicht?

00:45:28: Ob das geschützt ist oder nicht ... Die Design werden.

00:45:31: eben auch dieses Mädchen anschreiben kann, ob das überhaupt geht.

00:45:34: Könnte man auch ganz anders designen die designt Ob du eine App haben kannst wo Du halt vielleicht ein lustiges wo Du jetzt mein Gesicht in lustiges Mariah Carey Video rein Photoshoppen kannst oder ob Du meinen Gesicht in einen porno rein photoshoppen kannst.

00:45:47: ob das halt geht und ob das nicht geht könnte Man auch anders gestalten tut man auch zum teil.

00:45:51: Das heißt für mich ist klar es geht ums design Es geht darum wie wir diese Produkte designen.

00:45:59: wie sollten Produkte in den nächsten zehn Jahren die sozialen Medien aussehen, designt nach Sicherheitsaspekten für uns?

00:46:07: Für unsere Kinder und unsere Gesellschaft.

00:46:10: Und designte immer sozusagen im Grundlage unseres Grundgesetzes – der Menschenrechte!

00:46:16: Wie können wir sie so designen dass sie eben die Würde des Menschen nicht angreift.

00:46:21: Wie können wir sie so designen, dass die eben nicht Meinungs- und Pressefreiheit einschränken?

00:46:25: Wie können wie Sie so in Design das Menschen eben teilhaben können?

00:46:28: Wie kann man sich so designet, dass Menschen dort eben nicht wegen ihrer Religion oder wegen ihrer Lebensanschauung direkt diskriminiert werden?

00:46:37: Und diese Kriterien anzulegen?

00:46:40: und es ist nicht so schwer.

00:46:41: also Wir haben jetzt Diese Woche präsentieren wir ein Forschungsvorhaben da haben wir Eine Forscherin, eine Technik-Forscherin rangesetzt und haben die Gebeten mal ganz konkrete technische Maßnahmen zu entwerfen.

00:46:55: Die Plattform sofort umsetzen könnten, um sie eben sicherer zu machen, um genau das umzusetzen.

00:46:59: Und ihr habt uns einfach so ne Taxonomie nennt Sie das?

00:47:02: Zwei Hundertfünfzig Maßnahmen erstellt, die man sofort umsetzen könnte zum Teil von den Plattformen auch früher schon umgesetzt wurden und jetzt wieder zurückgefahren worden.

00:47:10: Das heißt es ist technisch möglich Politik muss einfach losgehen und es tun immer sozusagen natürlich mit dem Maßstab unserer Grundwerte, sodass wir wirklich des Meinungsfreit gewahrt bleibt.

00:47:26: Aber dass eben auch die Würde des Menschen geachtet wird und das dann auch umsetzen.

00:47:32: Also vielleicht zurück zu dem was mich am Anfang gefragt hat ist es ein rechtsfreier Raum?

00:47:35: Nein!

00:47:35: Das dann eben auch umzusetzen dieses Recht eben auch Umzusetzen und Plattformen zu verpflichten ihre Systeme so zu designen dass sie eben sicher sind Und dann... Was ich auch sehe in zehn Jahren Nicht Monopole, wie wir sie jetzt sehen.

00:47:50: Ein großes Google ein großes Meter ein großes TikTok die den ganzen Markt beherrschen und alle anderen die danach kommen alle Alternativen die vielleicht besser sein könnten die sichere sein können die uns besser schützen könnten alle sofort aufzufressen oder gar nicht groß werden zu lassen sondern so wie in anderen Bereichen auch einen Markt wo es Konkurrenz gibt wo ich als Nutzerin auch eine Wahl habe, ob ich auf die Plattform gehe, wo ich irgendwie drei Dickpicks pro Minute bekomme oder wo ich auf der Plattform geh.

00:48:18: Wo ich geschützt bin davor und das hab' ich im Moment nicht.

00:48:21: Das heißt für mich ist im Moment entweder ich bleibe auf dieser Plattform oder ich gehe von einer Plattform runter.

00:48:26: Und das sehe ich in Szene an!

00:48:27: Ich seh' Plattformen, die nach unseren Maßstäben designt sind, nach unseren Grundwerten also die jetzigen, die es jetzt gibt und ich sehe dass diese Monopole aufgebrochen werden Konkurrenz gibt, sodass ich als Nutzerin entscheiden kann.

00:48:41: Wo gehe ich drauf und wo gehe ich nicht

00:48:42: darauf?

00:48:43: Bin ich gut, unterstütze ich!

00:48:45: Wenn wir in unserem Rhythmus bleiben dann reden wir beide in zweieinhalb Jahren wieder miteinander Und wenn wir refleken wie weit wir auf dem Weg dorthin gekommen sind.

00:48:53: Danke dir für dieses schöne Gespräch.

00:48:55: Meine letzte Frage für dich ist mit welchem Song möchtest du diesen Podcast beenden?

00:48:59: Ich möchte diesen podcast beenden Mit dem Song von Emmanuel Orvigeur Jamame Kondoljegas.

00:49:08: Das ist ein argentinischer Sänger und es war einfach eine wunderschöne Saison.

00:49:11: Danke dir für das schöne Gespräch!

00:49:12: Ich danke dir!

00:50:32: Was für einen abgefahrenen Podcast.

00:50:34: noch immer beschäftigt mich die Frage, wie's sein kann?

00:50:38: Dass ein kleines Unternehmen sich für ein faires Internet einsetzt und Menschen, die von Gewalt betroffen sind – von digitaler Gewaltbetroffenen so in das große Fahrwasser und so in den Mittelpunkt geopolitische Auseinandersetzung kommt.

00:50:51: Super spannend Wenn ihr unsere Arbeit unterstützen möchtest, damit wir auch Menschen wie Anna-Lena diesen Raum geben können.

00:50:57: Dann schauen wir bei Steady vorbei!

00:50:59: Ansonsten freue ich mich dass du wie immer zugehört hast.

00:51:01: Erzähl deinen Freundin von diesem Podcast und bis zum nächsten Mal.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.