Digitale Gefolgschaft: Auf dem Weg in eine neue Stammesgesellschaft

3. April 2019 16:16 | #Allgemein #Philosophy #Podcast #synch

Sehr guter Podcast mit Philosoph Christoph Türcke über die Auflösung von Öffentlichkeit durch soziale Medien und die vernetzten Konstitutionsbedingungen neuer Gesellschaftsformen. Er räumt darin mit praktisch allen veralteten (anachronistischen) Internet-Utopien auf, denen wir vor zehn Jahren mal anhingen, von neuen Öffentlichkeiten ohne Gatekeeper bis zur überlegenen Schwarmintelligenz.

DLF Tacheles: Philosoph Christoph Türcke – Wie das Internet demokratische Öffentlichkeit zerstört (MP3, Info): „Die Freiheit, dass jeder und jede sich im Internet äußern kann, bringt nicht notwendigerweise mehr demokratische Öffentlichkeit, meint Christoph Türcke. Im Gegenteil: Facebook oder Google führten uns in eine im Grunde vormoderne digitale Stammesgesellschaft.“

DLF: Worin besteht denn eigentlich diese unser Gemeinwesen, die demokratische Öffentlichkeit verändernde Kraft dieser Plattformen und Giganten?

Christoph Türcke: Zunächst mal darin, dass sie die Öffentlichkeit in ihrem herkömmlichen Sinne als „res publica“, als eine gemeinsame Angelegenheit, mehr oder weniger aushebeln. Das hat schon zuvor das Internet getan in seiner Frühzeit, als die große Goldgräberstimmung ausbrach und man sich sagte: Endlich können alle direkt ins Netz, direkt Öffentlichkeit machen und müssen nicht mehr über Filter gehen und damit auch über bestimmte Aufseher. Alle Redaktionen sind Aufseher. Alle Zeitungen haben ihre Aufseher darüber, was Individuen da veröffentlichen wollen – und dergleichen. Das brauchen wir nicht mehr. Wir kommen jetzt direkt ins Netz. Und damit realisiert sich überhaupt erst Öffentlichkeit. Jeder kann daran teilnehmen.

Die Kehrseite davon war: Nein, die Öffentlichkeit verschwindet dadurch, weil nun alles öffentlich wird, privat und öffentlich nicht mehr unterscheidbar ist und jede Äußerung über eine Körpernutzung oder eine Anpreisung eines Rasierapparats oder was auch immer genau den gleichen Öffentlichkeitsstatus gewinnt wie die Frage der Staatsverschuldung.

Sein Buch habe ich mir grade geordert: Digitale Gefolgschaft: Auf dem Weg in eine neue Stammesgesellschaft.

Plattformen wie YouTube, Facebook, Twitter oder Amazon sind die neuen sozialen Magneten – Clanbildner einer sich anbahnenden globalen digitalen Stammesgesellschaft. Während die herkömmlichen sozialen Bindungskräfte von Familien, Institutionen, Parteien, Verbänden und Staaten zunehmend schwinden, entstehen um digitale Plattformen wimmelnde Kollektive, die sich wie Schwärme oder Horden ausnehmen. Ihre Benutzer sind “Follower”, digitale Gefolgschaft hält die neuen Clans zusammen. Der Philosoph Christoph Türcke zeigt in einer brisanten Analyse, wohin die Dynamik der Digitalisierung führt. Sein neues Buch ist ein Augenöffner.

Plattformen knechten ihre Nutzer nicht. Sie saugen sie an. Doch damit machen sie sie abhängiger als jede politisch-militärische Gewalt. Sie entfesseln ihr Wunschleben algorithmisch in einer bestimmten Richtung. Dabei steht das neue Erfolgsmodell der Plattform erst am Anfang seiner Wirkungsmacht. Schon arbeiten die großen Player daran, das Gesundheits-, das Bildungs- und das Verkehrssystem, letztlich die gesamte Wirtschaft nach dem Prinzip der Plattform umzubauen. Auch die Politik gerät in diesen Sog. Donald Trump behandelt die USA nicht nur wie eine Firma. Er macht mit Twitter Politik und sieht in den Bürgern Gefolgsleute oder Gegner. Doch es gibt auch Gegenkräfte und Gegenentwürfe. Sie haben das letzte Wort in diesem Buch, das zeigt, dass der Weg in die digitale Hölle mit lauterverheißungsvollen Errungenschaften gepflastert ist.

Youtubes Outrage-Addiction-Engine

Langer Artikel von Mark Bergen bei Bloomberg über Youtube und seine Engagement-optimierte Viral Outrage Machine: YouTube Executives Ignored Warnings, Letting Toxic Videos Run Rampant – Proposals to change recommendations and curb conspiracies were sacrificed for engagement, staff say.

2012 rief Youtube das interne Unternehmensziel von 1 Milliarde Zuschauerminuten aus, woraufhin die gesamte Plattform auf dieses Ziel hin optimiert wurde. Im Jahr 2016 erreichte Youtube sein Ziel, nicht zufällig das Jahr, in dem Trump die Wahl gewann. Und Youtube erreichte sein Ziel vor allem deshalb, weil seine Empfehlungsalgorithmen Wut und Empörung bevorzugen, denn diese erzeugen das meiste Engagement. Der Algorithmus wurde nicht absichtlich auf Wut und Empörung programmiert, sondern die Machine Learning-AI lernte aus menschlichem Verhalten: Es ist lange bekannt, dass diejenigen Artikel und Items viral gehen, die wütende Reaktionen hervorrufen.

Ich wies auf diese simple psychologische Logik des sozialen Netzes bereits vor Jahren hin und nannte den Mechanismus Outrage Memetik.

Als Memetik bezeichne ich die emotional gesteuerte Verteilung von Inhalten, Outrage Memetik bezeichnet die Steuerung der Content-Distribution durch Wut. Diese Formen der Memetik sind alles andere als neu und ich bezeichne beispielsweise auch Konzepte wie „Heimat“ oder Ausgrenzungsmechanismen wie „Antisemitismus“ als Meme. In dieser Sichtweise sind „Heimatfilme“ der virale Ausdruck einer Meme, genau wie die „Judensau“ des Mittelalters eine virale Ausdrucksform der Meme „Antisemitismus“ ist, die man noch heute in Holzschnitzereien in alten Kirchen in Deutschland findet. Dieses Viral verbreitete sich damals rasant und die Folgen dieser jahrtausendealten Meme und ihrer Virals sind uns allen bekannt. Das ist Memetik.

Wir haben es bei Memetik mit einer neuartigen „Ideenchemie“ zu tun, in der alle möglichen metaphysischen „Inhaltsstoffe“ miteinander reagieren und wir sind mit unserem jetzigen Kenntnisstand grade mal bei der Alchemie angekommen, als die frühen Proto-Chemiker noch Wasser zu Wein verwandeln wollten und sich an schiefgelaufenen chemischen Experimenten die Finger verbrannten.

Youtube (und alle anderen Plattformen auch) haben ihre ML-Algorithmen auf die Memetik der User trainiert, die genau diese psychologisch bedingten Distributionsschlüssel lernten und eine suchterzeugende, radikalisierende Wut-Maschine erzeugten, das Ergebnis aus einer „memetischen Reaktion“ von relativ normaler menschlichen Aufmerksamkeitspsychologie in einer reizüberflutenden Medienumgebung und einem neoliberalen Profitmaximierungsgedanken. Ein schiefgelaufenes (kapitalistisches) Experiment der frühen Memetik, an dem sich Youtube derzeit die Finger verbrennt.

Versuche von vereinzelten Mitarbeitern, diese Wut/Aufmerksamkeits-Spirale aufzubrechen und Videos vom Empfehlungsalgorithmus auszuschließen, die fast gegen die Community-Guidelines verstießen, wurden vom Unternehmen ignoriert. Bei diesen Video handelt es sich oft von Clips, die absichtlich so empörend und reißerisch wie möglich konzipiert werden und damit hohes Engagement erzielen.

Ein Mitarbeiter legte im vergangenen Jahr eine interne Kategorie für Video von und über die Alt-Right an und verglich die Engagement-Zahlen mit den restlichen Inhalten. Diese eigentlich randständigen, rechtsextremen Clips lagen gleichauf mit Mainstream-Inhalten wie Sport oder Musik. Alleine dieses Experiment verdeutlicht, wieviel engagement-optimierte Algorithmen zur Normalisierung von rechtem Denken beitragen und wie sehr dieser Algorithmus unter dem Einfluss memetischer Kräfte die Wahrnehmung der Realität verzerrt.

YouTube, then run by Google veteran Salar Kamangar, set a company-wide objective to reach one billion hours of viewing a day, and rewrote its recommendation engine to maximize for that goal. When Wojcicki took over, in 2014, YouTube was a third of the way to the goal, she recalled in investor John Doerr’s 2018 book Measure What Matters.

“They thought it would break the internet! But it seemed to me that such a clear and measurable objective would energize people, and I cheered them on,” Wojcicki told Doerr. “The billion hours of daily watch time gave our tech people a North Star.” […]

YouTube doesn’t give an exact recipe for virality. But in the race to one billion hours, a formula emerged: Outrage equals attention. It’s one that people on the political fringes have easily exploited, said Brittan Heller, a fellow at Harvard University’s Carr Center. “They don’t know how the algorithm works,” she said. “But they do know that the more outrageous the content is, the more views.”

People inside YouTube knew about this dynamic. Over the years, there were many tortured debates about what to do with troublesome videos—those that don’t violate its content policies and so remain on the site. Some software engineers have nicknamed the problem “bad virality.”

Yonatan Zunger, a privacy engineer at Google, recalled a suggestion he made to YouTube staff before he left the company in 2016. He proposed a third tier: Videos that were allowed to stay on YouTube, but, because they were “close to the line” of the takedown policy, would be removed from recommendations. “Bad actors quickly get very good at understanding where the bright lines are and skating as close to those lines as possible,” Zunger said.

His proposal, which went to the head of YouTube policy, was turned down. “I can say with a lot of confidence that they were deeply wrong,” he said.

Rather than revamp its recommendation engine, YouTube doubled down. The neural network described in the 2016 research went into effect in YouTube recommendations starting in 2015. By the measures available, it has achieved its goal of keeping people on YouTube.

“It’s an addiction engine,” said Francis Irving, a computer scientist who has written critically about YouTube’s AI system. […]

One telling moment happened around early 2018, according to two people familiar with it. An employee decided to create a new YouTube “vertical,” a category that the company uses to group its mountain of video footage. This person gathered together videos under an imagined vertical for the “alt-right,” the political ensemble loosely tied to Trump. Based on engagement, the hypothetical alt-right category sat with music, sports and gaming as the most popular channels at YouTube, an attempt to show how critical these videos were to YouTube’s business. A person familiar with the executive team said they do not recall seeing this experiment.

20 Jahre Cluetrain-Manifesto; Zuckerberg/Döpfner; Bustle Digital kauft The Outline; Facebook-Trouble [Meldungen Memetischer Synchronisationsleistungen #004]

Paper: User-Kommentare, die Fake-News widerlegen, senken die Sharing-Bereitschaft mehr, als Hinweise der Plattformen auf die Widerlegung durch professionelle Fact-Checker.

Für Fact-Checker-Buden, die es ernst meinen, heisst das vor allem Engagement in den Kommentarspalten. Die lukrativen Deals mit Plattformen sind für die Sache irrelevant. (Wohl aber relevant für die Monetarisierung von professionellen Fact-Checker-Buden, is klar.)

This study examines the effects of conformity to others online when individuals respond to fake news. It finds that after exposure to others’ comments critical of a fake news article, individuals’ attitudes, propensity to make positive comments and intentions to share the fake news were lower than after exposure to others’ comments supportive of a fake news article. Furthermore, this research finds that the use of a disclaimer from a social media company alerting individuals to the fact that the news might be fake does not lower individuals’ attitudes, propensity to make positive comments and intentions to share the fake news as much as critical comments from other users.

Making Sense with Sam Harris: #152 — The Trouble with Facebook (MP3): In the episode of the Making Sense podcast, Sam Harris speaks with Roger McNamee about his book Zucked: Waking Up to the Facebook Catastrophe.


April Fools hoax stories could offer clues to help identify ‘fake news’: The researchers have compiled a novel dataset, or corpus, of more than 500 April Fools articles sourced from more than 370 websites and written over 14 years.
“April Fools hoaxes are very useful because they provide us with a verifiable body of deceptive texts that give us an opportunity to find out about the linguistic techniques used when an author writes something fictitious disguised as a factual account,” said Edward Dearden from Lancaster University, and lead-author of the research. “By looking at the language used in April Fools and comparing them with fake news stories we can get a better picture of the kinds of language used by authors of disinformation.”
A comparison of April Fools hoax texts against genuine news articles written in the same period – but not published on April 1st – revealed stylistic differences. (Paper: Fool’s Errand: Looking at April Fools Hoaxes as Disinformation through the Lens of Deception and Humour)

Where to Draw the Line on Deplatforming: Facebook and YouTube were right to delete the video shot by the New Zealand shooter. Internet providers were wrong to try to do it, too.

A Conversation with Mark Zuckerberg and Mathias Döpfner

Das amerikanische Frauenmagazin Bustle Digital, die mit Gawker, Jezebel und Mic bereits einige der bekanntesten Outlets der illiberalen Linken gekauft haben, kaufen jetzt auch The Outline von Joshua Topolsky. Mir scheint sich hier das Äquivalent des Bullshit-Frauenzeitschriften-Verlags mit ein bisschen weniger Billo-Gossip und dafür ein bisschen mehr ideologisch-politischer Prägung zu formieren.

Grade online hält sich in selbstverstärkenden und um sich selbst kreisenden Bubbles der illiberalen Linken das Gerücht, es gäbe keine Unterschiede zwischen den Gehirne von Frauen und Männern, während akademische Literatur immer und immer wieder grundlegende Unterschiede feststellt.
Interessant sind zwei Links auf Nature.com, wo man kürzlich erst feststellte, dass die Geschlechter Schmerzen unterschiedlich verarbeiten und genau einen Monat vorher einen ideologischen Neologismus namens Neurosexismus einführen, laut dem genau diese Unterschiede angeblich schlechte Wissenschaft seien. Was denn nun?
Und währenddessen auf Psychology Today: A New Study Blows Up Old Ideas About Girls and Boys. Dort liest man von einer neuen Studie, die massive pränatale Unterschiede feststellt, die im Laufe des Lebens verschwinden. Es ist also nicht so, dass Unterschiede ein soziales Konstrukt sind, sondern die Beseitigung und neurologische Angleichung der Hirnstrukturen sind ein soziales Konstrukt. Mir scheint es, als wäre die (linke) Mythologie des Blank Slate Brains nicht haltbar und damit ein nicht geringer Teil der Behauptungen der Gender Studies. In den Medien erfährt man davon: Nichts.

Ein neuer Artikel zum universellen Kooperations-Modell der Moral (vorher)

A review of this literature suggests that there are (at least) seven well established types of cooperation: (1) the allocation of resources to kin; (2) coordination to mutual advantage; (3) social exchange; and conflict resolution through contests featuring (4) hawkish displays of dominance and (5) dove-ish displays of submission; (6) division of disputed resources; and (7) recognition of prior possession.

In my research, I have shown how each of these types of cooperation can be used to identify and explain a distinct type of morality.

(1) Kin selection explains why we feel a special duty of care for our families, and why we abhor incest. (2) Mutualism explains why we form groups and coalitions (there is strength and safety in numbers), and hence why we value unity, solidarity, and loyalty. (3) Social exchange explains why we trust others, reciprocate favors, feel gratitude and guilt, make amends, and forgive. And conflict resolution explains why we (4) engage in costly displays of prowess such as bravery and generosity, why we (5) express humility and defer to our superiors, why we (6) divide disputed resources fairly and equitably, and why we (7) respect others’ property and refrain from stealing.

How a 119-Word Local Crime Brief Became Facebook’s Most-Shared Story of 2019

According to CrowdTangle data provided by Facebook, Savage’s story on the suspected child predator racked up more than 50,000 shares on the original US 105 FM post alone—even though the station’s Facebook page has only about 7,000 followers. Within days, the story was being shared by much larger pages, including the Longview Police Department, Donald Trump Republic 2016, and Good Times With Trump 2016-2024. Over the course of February, it found traction on an ever-wider variety of subnetworks, including the page of R&B singer Sarahi Allende and a group called Truckers Wall of Shame.

In each case, the story garnered not only traditional “shares,” in which people repost it to their own friends and family, but large numbers of comments in which users tagged other people they know, presumably to alert them to the danger. That pattern might help to explain why several stories about crime, including Amber Alerts, make NewsWhip’s Top 10 most-shared list. (NewsWhip published a separate ranking of “Most Engaged” stories, a metric that counts other interactions such as likes and comments in addition to shares. The US 105 FM post ranked 15th on that list, with TMZ’s Luke Perry story taking the top spot. You can download NewsWhip’s full study here.)

While Facebook couldn’t confirm exactly what aspects of its algorithm helped the story on its way, Savage’s crime brief appears to have ticked nearly every box that the social network is trying to prioritize. First, it was shared by a local news organization, making it more likely that people in the Waco area would see it at the top of their feeds. Second, it generated large numbers of comments, which Facebook counts as “meaningful interactions.” Finally, its sharing was driven heavily by individual Facebook users, rather than by professional publishers with large followings, which means that it would be helped along by the company’s focus on surfacing posts from “friends and family first.”

But the wild card may have been the story’s headline. While it was clear from reading the story that it was about Waco and Central Texas, the headline just said the predator was in “our area.” Anyone who read the headline without reading the story might reasonably have thought the story was about their area, even if they were far from Texas.

Cluetrain at 20: „The plain truth is that ‘content’ insults the nature of what it labels. Expressions like ‘B2B’ and ‘B2C’ — labels for ‘business-to-business’ and ‘business-to-consumer’ — insult the nature of business itself. Ask yourself, do you do business to people or with them?“

Doc Searls: Suddenly here was this fabulous new medium, this shiny new shipping system for everything you can name that ever went through an old medium, plus lots of new stuff. Let’s re-conceive everything as content and carry on with Business as Usual, but with a great new way to move stuff from A to Z, including B to B, B to C and all the rest of it. Just like we did with Television, we can load our content into a channel and address it for delivery to end users through medium that serves as a distribution system or a value chain.

Linux Journal: So when you say somebody “adds value,” you’re using a shipping metaphor.

Doc Searls: Absolutely.

Linux Journal: What’s so bad about that?

Doc Searls: Nothing, as far as it goes. But it doesn’t go very far in a world built on relationships in which shipping stuff from X to X is more a technicality than a fundamental concept. In the industrial world, especially the commercial mass media part of that world, shipping was a very appropriate conceptual metaphor. It gave us a useful vocabulary for describing a world where a goods move great distances between a few producers and millions of consumers. The problem is, when you apply that metaphor in a networked world, with its networked markets, you make the mistake of treating in-your-face customers as distant consumers. They aren’t cattle. They fish-like gullets gulping down products that fall off the end of distribution’s conveyor belt. But we still conceive them that way, or we wouldn’t talk about “aggregating” and “capturing” them. We also wouldn’t talk about “moving content” through the Net as if it were just another medium, like TV, radio and newspapers.

Linux Journal: Is the Net really that different?

Doc Searls: It’s absolutely different because it’s infinitely more than a way to convey crap from producers to consumers. It’s the connected consciousness of the market itself. It makes markets smart by giving customers unprecedented powers, the most fundamental of which is each other

The Battle Over Free Speech: Are Trigger Warnings, Safe Spaces & No-Platforming Harming Young Minds?

Many would argue that these are the fundamental goals of a good education. So why has Cambridge University taken to warning its students that the sexual violence in Titus Andronicus might be traumatic for them? Why are other universities in America and increasingly in Britain introducing measures to protect students from speech and texts they might find harmful? Safe spaces, trigger warnings and no-platforming are now campus buzzwords – and they’re all designed to limit free speech and the exchange of ideas. As celebrated social psychologist Jonathan Haidt argues in his book ‘The Coddling of the American Mind’, university students are increasingly retreating from ideas they fear may damage their mental health, and presenting themselves as fragile and in need of protection from any viewpoint that might make them feel unsafe.The culture of safety, as Haidt calls it, may be well intentioned, but it is hampering the development of young people and leaving them unprepared for adult life, with devastating consequences for them, for the companies that will soon hire them, and for society at large.

That, Haidt’s critics argue, is an infuriating misinterpretation of initiatives designed to help students. Far from wanting to shut down free speech and debate, what really concerns the advocates of these new measures is the equal right to speech in a public forum where the voices of the historically marginalised are given the same weight as those of more privileged groups. Warnings to students that what they’re about to read or hear might be disturbing are not an attempt to censor classic literature, but a call for consideration and sensitivity. Safe spaces aren’t cotton-wool wrapped echo chambers, but places where minority groups and people who have suffered trauma can share their experiences without fear of hostility.

In November 2019, Haidt came to the Intelligence Squared stage to discuss and debate these ideas. Joining him were the former chief rabbi Jonathan Sacks, who believes that educating young people through debate and argument helps foster robustness, author and activist Eleanor Penny, and sociologist Kehinde Andrews, one of the UK’s leading thinkers on race and the history of racism.

Facebook will Social-Media-Regulation, Australien und Neuseeland preschen mit Gesetzentwürfen vor

Mark Zuckerberg fordert in einem Artikel in der Washington Post/FB Newsroom gesetzliche Regulationen für Social Media in vier Bereichen: Schädliche Inhalte, Integrität von Wahlen, Privatsphäre und Datenmobilität.

Im Einzelnen fordert Zuckerberg:
– Gemeinsame Regeln, an die sich alle Social-Media-Websites halten müssen, die von Dritten durchgesetzt werden, um die Verbreitung schädlicher Inhalte zu kontrollieren
– Alle großen Tech-Unternehmen veröffentlichen alle drei Monate einen Transparenzbericht, analog zu den finanziellen Quartalsberichten von Aktiengesellschaften
– Weltweit strengere Gesetze zum Schutz der Integrität von Wahlen mit gemeinsamen Standards für alle Websites zur Identifizierung politischer Akteure
– Gesetze, die nicht nur für Kandidaten und Wahlen gelten, sondern auch für andere “polarisierende politische Inhalte” und einen Geltungsbereich außerhalb offizieller Wahlkampfperioden
– Neue branchenweite Standards zur Kontrolle, wie politische Kampagnen Daten verwenden, um Wähler online anzusprechen
– eine globale Ausweitung von Datenschutzverordnungen analog zur DSGVO der EU
– Ein “gemeinsamer globaler Rahmen”, der besagt, dass diese Gesetze global standardisiert sind und sich nicht von Land zu Land wesentlich unterscheiden
– Klare Regeln darüber, wer für den Schutz der Daten von Personen verantwortlich ist, wenn sie von einem Dienst zu einem anderen wechseln

Zuckerberg warb außerdem für seinen neu ins Leben gerufenen externen Beirat, der Content-Entscheidungen treffen und Facebooks Entscheidungen dabei überschreiben können soll. Wie dieser Beirat konkret aussehen soll, steht noch nicht fest.

Zwei Gedanken dazu:

1. Festzuhalten ist hierbei zunächst, dass Facebook damit die gesellschaftlichen Kosten seines Produkts auf die Gemeinschaft abwälzt. Analog zu Industrien, die die Umwelt schädigen, werden hier Gewinne privatisiert und Kosten verstaatlicht. In anderen Worten: Facebook greift Werbegelder ab und die Kosten für Produkt-Designfehler übernimmt der Steuerzahler. Das ist nicht hinzunehmen und die Debatte über eine Zerschlagung von Facebook sollte ernsthaft an Fahrt aufnehmen.

2. Neu-Seeland und Australien preschen nach dem Attentat von Christchurch derweil mit konkreten Gesetzentwürfen vor und fordern eine Regulierung nicht nur von Facebook, sondern eine ganz grundsätzliche Regulation des Publishing-Prozesses im Internet, nach der alle Plattformen für alle Inhalte haftbar wären. Die Folge wären Veröffentlichungs-Lizenzen für Social Media-Plattformen und Websites, ein Ende der Anonymität im Netz und ein Internet, das sich dem chinesischen Modell annähert.

Und ehrlich gesagt, mir fallen nicht mehr viele Argumente für das alte, offene Everything-Goes-Internet ein. Dieses Netz hat durch seine Dynamiken im Zusammenspiel mit der menschlichen Psyche und dem Wettbewerb um Aufmerksamkeit dafür gesorgt, dass die extremsten Inhalte am meisten Beachtung erhalten. Bad Actors von Fox News und Nazis bis hin zu Swattern und Trollen nutzen diese Dynamik, um ihren Gegnern und Opfern Schaden zuzufügen.

Das ist weder neu noch überraschend, doch werden die Auswirkungen dieser Spirale virtueller Gewalt für jeden Tag für Tag spürbarer. Dieses “freie” Netz sorgte dafür, dass Feminist:Innen in Grund und Boden gemobbt werden und psychische Traumata auf Lebenszeit davontragen und es sorgt gleichzeitig dafür, dass eigentlich gelernte Journalisten Agenda-Setting für Twitter-Karma betreiben, während eine halbwegs neutrale Berichterstattung auf der Strecke bleibt.

Es gibt den Gemeinplatz im Netz, dass Meinungsfreiheit nicht die Freiheit von Widerspruch bedeutet. Wenn dieser Widerspruch allerdings auf gesellschaftlicher Ebene fällt in Form von Gesetzen, dann hat das Konsequenzen, die das Ende des Netzes bedeuten, wie wir es kennen. Wir sollten uns schnellstmöglich mit den Konsequenzen des gesellschaftlichen Widerspruchs auseinandersetzen, oder Politiker werden es für uns tun.

Der Traum ist aus. Deal with it.

If the two countries move ahead, it could be a watershed moment for the era of global social media. No established democracies have ever come as close to applying such sweeping restrictions on online communication, and the demand for change has both harnessed and amplified rising global frustration with an industry that is still almost entirely shaped by American law and Silicon Valley’s libertarian norms.

“Big social media companies have a responsibility to take every possible action to ensure their technology products are not exploited by murderous terrorists,” Scott Morrison, Australia’s prime minister, said Saturday. “It should not just be a matter of just doing the right thing. It should be the law.”

The push for government intervention — with a bill to be introduced in Australia this week — reflects a surge of anger in countries more open to restrictions on speech than in the United States, and growing impatience with distant companies seen as more worried about their business models than local concerns.

There are precedents for the kinds of regulations under consideration. At one end of the spectrum is China, where the world’s most sophisticated system of internet censorship stifles almost all political debate along with hate speech and pornography — but without preventing the rise of homegrown tech companies making sizable profits.

No one in Australia or New Zealand is suggesting that should be the model. But the other end of the spectrum — the 24/7 bazaar of instant user-generated content — also looks increasingly unacceptable to people in this part of the world.

Smarter Every Day: Manipulating the YouTube Algorithm – (Part 1/3)

2. April 2019 10:30 | #Allgemein #Media #synch #Youtube

Destin Sandlin mit dem ersten von drei Teilen über algorithmisch produzierte News-Videos auf Youtube mit Text-2-Speech-Voices und ihren Methoden zur Umgehung von Youtubes Upload-Filter. Unter anderem mit Renée DiResta, die neulich erst bei Joe Rogan ziemlich viel ziemlich interessante Dinge über die russische „Trollfactory“ erzählte.

Die sozialen Bühnen des Internets

30. März 2019 14:37 | #Allgemein #Psychologie #Soziologie #synch

Michael Sacasas aktualisiert Erving Goffmans Theateranalogie der soziologischen Rollentheorie für die Geschichte des Internets: Stages, Structures, and the Work of Being Yourself.

Die Theateranalogie sagt, dass wir im gesellschaftlichen sozialen Umgang Rollen einnehmen: Kollege, Spielpartner, Arbeitnehmer, Vereinsmitglied, Restaurantbesucher und so weiter. Diese Rollen unterliegen sozialen Regeln und unser Verhalten orientiert sich an diesen. Dieser gesellschaftliche Umgang verhält sich analog zu einer Theaterbühne. Im privateren Umgang allerdings unter Freunden, mit dem Partner oder dergleichen, verhalten wir uns analog zur Backstage, sind gelöst, der Umgang folgt privateren, lockereren Regeln und ist offener für Regelverstöße und Tabubrüche.

Sacasas überträgt diese Analogie auf das Netz und proklamiert einen Verlust der Backstage, in dem unser sozialer Umgang im Netz nur nach den Regeln der Theaterbühne verläuft. Zwar schaffen wir uns derzeit neue Backstage-Erfahrungsbereiche durch Zweit-Accounts und Rückzugsräume wie Discord-Server oder „flüchtige“ Social Media Kanäle wie Snapchat, in denen Postings nach einer bestimmten Zeit verschwinden. Dennoch bleiben die Sozialen Medien des Mainstreams, also Twitter und Facebook, ewige Theaterbühnen auf denen wir gezwungen sind, konstant Rollen zu spielen und Identitäten zu verwalten unter einem enormen, nie gekannten Druck des Sozialen.

Dieser Druck des Sozialen entstammt einer ebenfalls nie gekannten Überwachung durch die Gesellschaft selbst. Wir alle stehen auf unseren Bühnen und schauen uns gegenseitig bei einer Performance zu, während praktisch keine digitalen Backstage-Bereiche in der Breite existieren. Das Resultat ist ein enormer Konformitätsdruck und ein Machtkampf der User um die Etablierung der sozialen Regeln, dem praktisch keiner ausweichen kann und der konstant stattfindet.

Sacasas konstatiert dem modernen Netz damit eine „dunkle Strukturisierung“, die von sich behauptet, eine subversive Anti-Struktur zu sein für den ungeregelten, unmoderierten, offenen sozialen Austausch, die vor allem Freizeit ohne Erholung erzeugt, Vertrautheit ohne Intimität, Spiel ohne Freude und Lachen ohne Fröhlichkeit („lol“).

Eine passende Analogie und eine bittere Abrechnung mit den veralteten Utopien des Internets: „Always on“.

In our contemporary, digitally augmented society the mounting pressure we experience is not the pressure of conforming to the rigid demands of piety and moral probity, rather it is the pressure of unremitting impression management, identity work, and self-consciousness. Moreover, there is no carnival. Or, better, what presents itself as a carnival experience is, in reality, just another version of the disciplinary experience.

Consider the following.

First, the early internet, Web 1.0, was a rather different place. In fact, a case could be made for the early internet being itself the carnivalesque experience, the backstage where, under the cloak of anonymity, you got to play a variety of roles, try on different identities, and otherwise step out of the front stage persona (“on the internet nobody knows you are a dog,” Sherry Turkle’s Life on the Screen: Identity in the Age of the Internet, etc.). As our internet experience, especially post-Facebook, became more explicitly tied to our “IRL” identity, then the dynamic flipped. Now we could no longer experience “life on screen” as anti-structure, as backstage, as a place of release. Online identity and offline identity became too hopelessly entangled. Confusion about this entanglement during the period of transition accounts for all manner of embarrassing and damaging gaffs and missteps. The end result is that the mainstream experience of the internet became an expansive, always on front stage. A corollary of this development is the impulse to carve out some new online backstage experience, as with fake Instagram accounts or through the use of ephemeral-by-design communication of the sort that Snapchat pioneered.

Indeed, this may be a way of framing the history of the internet: as a progression, or regression, from the promise of a liberating experience of anti-structure to the imposition of a unprecedentedly expansive and invasive instrument of structure. […]

Our experience of social media can be an infamously surveilled and policed experience. Undoubtedly, there is pressure to conform to ever-evolving standards regulating speech and expression, for example. This pressure manifests itself through blunt instruments of enforcement (blocking, harassment, doxxing, etc.) or more tacit mechanisms of reward. Either way, it is not a stretch to say that we negotiate the demands of an emerging, perhaps ever-emerging moral code whenever we use online platforms. We might even say that the disciplinary character of the social media activity takes on an oddly ritualistic quality, as if it were the manifestation of some ancient and deep-seated drive to cleanse the social body of all forms of threatening impurities.

But it’s one thing to conform to a standard to which you more or less assent and arising from a community you inhabit. It’s quite another to conform to a standard you don’t even buy into or maybe even resent. This is basically the case on many of our most popular digital forums and platforms. They gather together individuals with disparate, diverging, and conflicting moral, political, religious stances, and they thrust these individuals into meta-communities of performative and competitive display. Not surprisingly, interested parties will take recourse to whatever tools of control and discipline are available to them within the structures of the platforms and forums that sustain the meta-community. The result, again, a disciplinary experience in a space that was assumed to be liberating and empowering.[…]

Think, then, of the dark perfection of a structure that has convinced it is really an anti-structure, a front stage that invites us to think of it as a back stage. We end up unwittingly turning to the very source of our exhaustion, anxiety, burnout, and listlessness for release and relief from the same. The result is recreation without rest, familiarity without intimacy, play without joy, laughter without mirth, carnival without release—in short, the feeling that society is on the brink of exploding and the self is on the brink of imploding.

Techlash vs. Technoutopie

Cory Doctorow über Techno-Utopismus und Techlash vs. Technoutopie – Warum wir die digitale Welt unbedingt demokratisieren müssen: „Seltsamerweise wurden alle, die sich mit solchen Dingen beschäftigten, als ‘Technoutopisten’ bezeichnet. Allerdings kommt mir jemand, der beständig davor warnt, dass selektives Routing, proprietäre Software und Dateiformate sowie versteckte Zugriffsmöglichkeiten für Regierungsbehörden in eine Ära des Netzwerktotalitarismus führen, nicht gerade wie ein Utopist vor.“

Ich kaufe Corys Argument nicht so ganz. Techno-Utopisten wurden nicht deshalb Techno-Utopisten genannt, weil sie vor etwas warnen, sondern weil sie daran Glauben, dass offene Netztechnologie automatisch zu mehr Demokratie führt und zu einer „Post-Knappheits“-Wirtschaft. Ich denke, dieser Glaube ist ein Irrglaube und er übersieht starke psychologische Effekte eines allumfassenden Netzwerks.

Cory selbst unterstützt meine These, allerdings nicht freiwillig: „Die Vision der ‘Technoutopisten’ ist eine demokratische: Jeder kann dazu beitragen, die Zukunft zu gestalten, indem er die Systeme um sich herum nach seinen Bedürfnissen reorganisiert und rekonfiguriert. Der Techlash dagegen strebt eine konstitutionelle Monarchie an, in der wir es als gottgegeben hinnehmen, dass Konzerngiganten wie Google, Amazon, Facebook und Apple über unsere Technik bestimmen, und glauben, einzig die Aristokratie – also die Technokraten der Regulierungsbehörden – hätte die Macht, diesen Monarchen (in bescheidenem Umfang) ihre Grenzen aufzuzeigen.“

Wenn jeder die Systeme um sich herum nach seinen Bedürfnissen reorganisieren kann und die erforderlichen Skills dafür mitbringt, hat jeder die Möglichkeit, die Wahrnehmung und Realität seiner Mitmenschen allumfassend zu manipulieren. Genau das sehen wir heute. Bad Actors können sowohl Individuen als auch ganze Systeme (wie etwa “westliche Demokratien”) ins Visier nehmen und ihre konstitutionelle Verfassung nachhaltig stören. Im Fall von Individuen ist diese konstitutionelle Verfassung die menschliche Psyche, im Fall von Demokratien ist es das Vertrauen in die Institutionen.

Corys angeblich nicht vorhandener Techno-Utopismus hat keinerlei Lösungsansätze für diese psychologischen Netzwerk-Effekte, sondern funktioniert auf einer rein mechanistischen Ebene der Legislatur, Code und Technik. Das reicht zumindest mir im Jahr 2019 nicht mehr.

Trigger-Warnungen funktionieren nicht/anders als man denkt

Ein neues Paper bestätigt die Ergebnisse einer 2018er Studie, laut denen Trigger- oder Content-Warnungen nicht funktionieren beziehungsweise sogar einen gegenteiligen Effekt hervorrufen. Probanden waren nach der Rezeption von Texten mit Trigger-Warnungen aufgewühlter, als nach der Rezeption derselben Texte ohne Trigger-Warnung und TW lösen Angstgefühle aus.

Man kann argumentieren, dass die Gruppe linker Identitätspolitiker mit verhältnismäßig mehr „Survivors“ (also Opfer von sexualisierter oder rassistisch motivierter Gewalt) vernetzt ist. Aber selbst unter Leuten, die Gewalt erfahren haben, vor denen in TWs gewarnt wird, ist der erwünschte Effekt „trivially small“.

Trigger-Warnungen bleiben trotz dieser nachweislichen Effekte in Kreisen linker, identitätspolitisch engagierter Aktivisten äußerst populär. Ich denke, dass Trigger-Warnungen nicht als tatsächliches Label für Inhalte benutzt werden, sondern als Social Signifier, die Gruppenzugehörigkeit kommunizieren: „Schaut her, ich kenne die Rituale und Praxen der Gruppe, ich kann Gewalt und ‘problematische’ Inhalte identifizieren, ich bin eine von Euch.“

NYTimes: Trigger Warnings May Not Do Much, Early Studies Suggest
Paper: Trigger Warnings Are Trivially Helpful at Reducing Negative Affect, Intrusive Thoughts, and Avoidance

Abstract
Students are requesting and professors issuing trigger warnings—content warnings cautioning that college course material may cause distress. Trigger warnings are meant to alleviate distress students may otherwise experience, but multiple lines of research suggest trigger warnings could either increase or decrease symptoms of distress. We examined how these theories translate to this applied situation. Across six experiments, we gave some college students and Internet users a trigger warning but not others, exposed everyone to one of a variety of negative materials, then measured symptoms of distress. To better estimate trigger warnings’ effects, we conducted mini meta-analyses on our data, revealing trigger warnings had trivial effects—people reported similar levels of negative affect, intrusions, and avoidance regardless of whether they had received a trigger warning. Moreover, these patterns were similar among people with a history of trauma. These results suggest a trigger warning is neither meaningfully helpful nor harmful.

Youtuber-Schlägerei am Alex; Fast Food Eating-Contests von Mukbang-Familien; Instagrams Verschwörungs-Rabbit-Hole [Meldungen Memetischer Synchronisationsleistungen #002]

Berlin: Streit unter YouTubern führt zu Massenschlägerei auf Alexanderplatz: „Wir sehen in der Rapperszene und zunehmend auch bei anderen Influencern, dass sie teilweise sehr fahrlässig mit ihrem Einfluss umgehen und es scheinbar Mode wird, ganz bewusst Pulverfässer aufzumachen, um mehr Follower, Abonnenten und Klicks zu generieren“, sagte GdP-Landeschef Norbert Cioma am Freitag.

Interessante Visualisierung politischer Youtube-Channel und den Video-Recommendations. Laut diesen Daten ist die These des „rechten Youtube-Rabbitholes durch Empfehlungsalgorithmus“ rein numerisch nicht haltbar.

The Eerie Absence Of Viral Fakes After The New Zealand Mosque Attacks: The shooter’s media plan was so comprehensive, and his content spread so quickly, that there was little room for fakes to fill the void.

‘I did it for the LULZ’: How the dark personality predicts online disinhibition and aggressive online behavior in adolescence Thats not very surprising is it.

Hate crimes increased 226% in places Trump held a campaign rally in 2016, study claims Thats not very surprising either.

Michael Seemann über das Wikipedia-Modell als Vorbild für eine digitale Gesellschaft und die Studie Wisdom of Polarized Crowds (über die ich hier gebloggt hatte): „Die Wikipedia ist nicht nur Ausdruck einer Krise der digitalen Gesellschaft, sie ist auch die Lösung. Wie genau diese aussehen wird, müssen wir erst herausfinden, aber das Einbinden der Tribes in gemeinsame Projekte, scheint ein Teil davon zu sein.“

Videoplattforms seem to trigger something like a collective “eating contest” for fame and money: Strange rise of mukbang parents who feed their kids fast food for cash.

A New Age of Warfare: How Internet Mercenaries Do Battle for Authoritarian Governments: Sophisticated surveillance, once the domain of world powers, is increasingly available on the private market. Smaller countries are seizing on the tools — sometimes for darker purposes.

Russian hackers are targeting European governments ahead of May election, FireEye says

Earth is (always has been) round, so why have the flat-out wrong become so lively?: Every fringe theorist needs an amplifier—used to be the penny press; today it’s the Web.

Instagram Is the Internet’s New Home for Hate

When Alex, now a high-school senior, saw an Instagram account he followed post about something called QAnon back in 2017, he’d never heard of the viral conspiracy theory before. But the post piqued his interest, and he wanted to know more. So he did what your average teenager would do: He followed several accounts related to it on Instagram, searched for information on YouTube, and read up on it on forums.

A year and a half later, Alex, who asked to use a pseudonym, runs his own Gen Z–focused QAnon Instagram account, through which he educates his generation about the secret plot by the “deep state” to take down Donald Trump. “I was just noticing a lack in younger people being interested in QAnon, so I figured I would put it out there that there was at least one young person in the movement,” he told me via Instagram direct message. He hopes to “expose the truth about everything corrupt governments and organizations have lied about.” Among those truths: that certain cosmetics and foods contain aborted fetal cells, that the recent Ethiopian Airlines crash was a hoax, and that the Christchurch, New Zealand mosque shootings were staged.

Instagram is teeming with these conspiracy theories, viral misinformation, and extremist memes, all daisy-chained together via a network of accounts with incredible algorithmic reach and millions of collective followers—many of whom, like Alex, are very young. These accounts intersperse TikTok videos and nostalgia memes with anti-vaccination rhetoric, conspiracy theories about George Soros and the Clinton family, and jokes about killing women, Jews, Muslims, and liberals. […]

Jack, a 16-year-old who asked to be referred to by a pseudonym to protect his identity, has learned a lot about politics through Instagram. In 2020, he’ll be able to vote for the first time, and so he recently started following some new Instagram pages to bone up on issues facing the country. “I try to follow both sides just to see what everyone’s thinking,” he said. While he’s struggled to find many compelling pages on the left, he said he’s learned a lot from following large conservative Instagram meme pages such as @dc_draino and @the_typical_liberal, which has nearly 1 million followers and claims to be “saving GenZ one meme at a time.” Recent posts include a joke about running over protesters in the street, an Infowars video posted to IGTV, and a meme about feminists being ugly. “It’s important to have The Typical Liberal and DC Draino to expose the [media’s] lies, so we can formulate our own opinions,” Jack told me.

Gib mir den Rest, Baby…

Möglicher Deepfake löst Militär-Coup in Afrika aus

Russell Brandom schrieb vor ein paar Wochen einen Artikel auf The Verge über Deepfakes, in dem vor einer hyperbolischen Kritik an dieser Technologie warnt. Ich hielt diesen Artikel für unverantwortlich, grade und vor allem von einem Technologie-Magazin wie The Verge, das technologische Entwicklungen gerne in gesellschaftliche Kontexte setzt.

Ich schreibe seit der Gründung von Nerdcore über Bildmanipulationstechnologien und speziell über die Manipulation von Video durch Gesichtserkennung seit den initialen Technologien, die damals unter dem Namen Face2Face bekannt wurden und in Justus Thies 2016er Paper gleichen Namens beschrieben wurden und warne seit damals vor den Auswirkungen auf die Wahrnehmung gesellschaftlicher Realität.

Gesellschaft konstituiert und synchronisiert sich über Massenmedien. Diese waren schon immer anfällig für Manipulationen aller Art, doch noch nie in einem Umfang wie heute und noch nie waren die Manipulationsmöglichkeiten mit einem derartigen „Feature-Set“ ausgestattet. Der Artikel von The Verge behauptet nun schlichtweg, „Deepfake“-Technologie wäre bereits seit einem Jahr da und es sei nichts passiert. Nun.

Die Identität von ein paar hundert Frauen wurde gestohlen und haufenweise Porno ohne Consent produziert, gut zu finden auf jeder größeren Porno-Plattform. Das Angebot reicht von Revenge Porn über Sexzenen politische Gegner bis hin zu (natürlich) Filmstars. Scarlett Johansson hat bereits aufgegeben, nach Porno-Kopien ihrer visuellen Identität zu suchen.

Und dann ist da noch die Story um den Präsidenten von Gabun, dessen Familie eine seit fast 50 Jahren währende Regentschaft schützen will, weshalb man angesichts gesundheitlicher Probleme des Regierungschefs möglicherweise Deepfakes einsetzte und die präsidiale Neujahrsansprache 2019 fälschten (oder eben nicht). Dieses Video hat einen (missglückten) Coup des Militärs ausgelöst.

when Gabon’s government released the video, it raised more questions than it answered. Some Gabonese, seeing the video, thought there was little left to doubt about their president’s health. But Bongo’s critics weren’t sold. One week after the video’s release, Gabon’s military attempted an ultimately unsuccessful coup—the country’s first since 1964—citing the video’s oddness as proof something was amiss with the president. While a variety of theories about the video have circulated in the country, Bruno Ben Moubamba, a Gabonese politician who has run against Bongo in the previous two elections, argues that the video is a so-called deepfake—the photoshopped equivalent of video where software can create forged versions of people saying and doing things that they never actually said or did.

While experts say it’s impossible to definitively conclude if Bongo’s New Years address is a deepfake, Moubamba says his belief is fed by a number of factors. He correctly points out that Bongo’s face and eyes seem “immobile” and “almost suspended above his jaw.” He also rightly noted that Bongo’s eyes move “completely out of sync with the movements of his jaw.” […]

One video expert Mother Jones spoke with doesn’t disagree with Moubamba’s assessment. “I just watched several other videos of President Bongo and they don’t resemble the speech patterns in this video, and even his appearance doesn’t look the same,” Hany Farid, a computer science professor at Dartmouth who specializes in digital forensics. “Something doesn’t look right,” he said, while noting that he could not make a definitive assessment.

Die Technologie von AI-gestützter Video/Identitäts-Fälschung ist alles andere als „da“. Die Produktion von Deepfakes erfordert nach wie vor technische Skills, die die allermeisten nicht haben. Vom Training eines Models für den Algorithmus bis hin zu Videoschnitt ist diese Technologie noch weit von „One-Click“-Lösungen entfernt, auch wenn ein paar lustige Anwendungen in App-Stores wie etwa Morphin Avatars und ein Java-Port der Technologie anderes suggerieren. Die Lernkurve ist schlichtweg (noch) zu hoch, um diese Technologie für die Massen verfügbar zu machen, es handelt sich immer noch um Expertenwissen und ein paar Spaß-Apps ändern daran nichts.

Und nicht zuletzt tragen Deepfakes zum prinzipiellen Zynismus bei, der der grundsätzlichen Editierbarkeit des digitalen Raums geschuldet ist. Es ist gar nicht so wichtig, ob mein Gesicht auf ‘nen Porno kopiert wird, es reicht bereits die Möglichkeit, es zu tun, um den Konsens auf eine gemeinsame Realität zu gefährden. Und dieser Konsens ist die Grundvorraussetzung für das Gelingen von Gesellschaft. Früher wurde dieser Konsens durch Synchronisationsleistungen der Massenmedien hergestellt, mit deren Hilfe sich die Gesellschaft auf einige grundsätzliche gesellschaftliche Realitäten einigte. Heute erzeugen wir diese diskursiven Massenmedien selbst auf Plattformen mit User Generated Content, die Meldungen aus dem Journalismus sind dabei grade mal Stichwortgeber. Und wenn dieses Stichwort die gefälschte oder nicht gefälschte Neujahrsansprache eines angeschlagenen Präsidenten ist, dann kann Zynismus und der Zweifel an Authentizität auch mal einen Militär-Coup auslösen.