[DasGeile Neue Internet 29.1.2020] Virale Desinformation zum Coronavirus; Studie: Youtubes Empfehlungsalgorithmus radikalisiert nicht; Twitter als Reality Distortion Field für Journalismus

Ausführliche neue Studie über die Wege der Radikalisierung durch Youtubes Empfehlungsalgorithmen, nachdem Youtube im Herbst seine Algorithmen geändert hatte und deutlich weniger „independent creators“ empfiehlt: Algorithmic Extremism: Examining YouTube’s Rabbit Hole of Radicalization. Das Ergebnis ist eindeutig: „we refute the popular radicalization claims“.

To the contrary, these data suggest that YouTube’s recommendation algorithm actively discourages viewers from visiting radicalizing or extremist content. Instead, the algorithm is shown to favor mainstream media and cable news content over independent YouTube channels with slant towards left-leaning or politically neutral channels. Our study thus suggests that YouTube’s recommendation algorithm fails to promote inflammatory or radicalized content, as previously claimed by several outlets.

Ergänzend zur Studie hier ein neuer Artikel von Rebecca Lewis, die sich seit Jahren an Youtube als Radikalisierungsbeschleuniger abarbeitet und die sich in jüngerer Zeit dem Einfluss von Micro-Stardom auf politische Propaganda in Sozialen Medien widmet. Besonders lustig finde ich ihre Headline, die nichts anderes als eine extreme Übersteigerung der Wahrheit ist und praktisch demselben Mechanismus gehorcht: Frau Lewis radikalisiert sich für Aufmerksamkeit und deshalb ist All of YouTube, Not Just the Algorithm, […] a Far-Right Propaganda Machine. Ihre Analyse ist trotz Headline sehr brauchbar und ich denke nicht, dass sich die Studie und Lewis’ Analyse wirklich widersprechen.

Today, the most successful celebrities for a new generation are YouTubers (the numbers are staggering — the most successful individual YouTuber, PewDiePie, has 102 million subscribers at the time of writing).

For years, YouTube has described this in democratizing terms. Indeed, people in their bedrooms can broadcast directly to their fans, creating a sense of intimacy and authenticity not present in older forms of media. In practice, however, that means a range of anti-feminist, Islamophobic, and even white supremacist content creators share far-right propaganda in the form of incredibly intimate personal stories, spoken to their audiences as if they are speaking to close friends. Media historian Fred Turner has described this as a form of “charismatic, personality-centered” authoritarianism. In my own research, I have shown how YouTube creators build trust with their audiences by aligning qualities of authenticity and transparency with reactionary politics. […]

Additionally, my research has indicated that users don’t always just stumble upon more and more extremist content — in fact, audiences often demand this kind of content from their preferred creators. If an already-radicalized audience asks for more radical content from a creator, and that audience is collectively paying the creator through their viewership, creators have an incentive to meet that need. [ed: You can see this in near real time on Tim Pools Channel who was way more moderate a year ago than he is now. The guy is constantly drifting to a more radical output without crossing lines. I think this is a direct reaction to the demands of his audience.]


Wie Twitter die Wahrnehmung von Aktivisten und Journalisten und damit die politische Berichterstattung verzerrt: The Twitter Electorate Isn’t the Real Electorate – Social media is distorting our sense of mainstream opinion:

Twitter has become journalists’ easiest and most reliable source of cor-blimey (or OMG, to American readers) stories, because all of human life is there, and it’s searchable. It is also the world’s wire service: Just look at Donald Trump, who drops his unfiltered thoughts straight onto Twitter, confident that they will be picked up by journalists. For anyone interested in politics, it is the closest thing to a global community center, or a small-ads section—the virtual room where it happens.

All of this gives the social network—and its most active users—outsize power to shape the political conversation. Its influence can be seen in contests currently under way in the United States and Britain: the race to become the Democrats’ presidential nominee, and the struggle to succeed Jeremy Corbyn as leader of the Labour Party. Both risk being distorted by what we might call the “Twitter Primary.” […]

Here’s one example of the Twitter Primary in action. In December, the Labour politician Rebecca Long-Bailey wrote an article that was seen as her pitch to be the party’s next leader. It was published in The Guardian, a newspaper that backed Corbyn’s Labour, and Long-Bailey herself is the anointed successor of Corbyn’s right-hand man, John McDonnell. The piece was mostly bland, but one phrase stood out: “progressive patriotism.” The top Twitter results for that phrase show the tenor of responses from the left. “We’re now an electorate that can only be bought with racism,” reads one tweet with 1,400 likes. “Or ‘progressive patriotism’, to give it its latest fancy name.” (In the piece that officially launched her campaign, Long-Bailey did not repeat the phrase.) Yet to read so directly across from “patriotism” to “racism” is a fringe position. Some 67 percent of Britons describe themselves as “very” or “slightly” patriotic.” Telling two-thirds of the country that they are secretly racist is a courageous electoral strategy. […]

The genuine fury from the left at people three inches closer to the political center reflects a turbocharged tribalism. Freud called this “the narcissism of small differences”; the legal scholar Cass Sunstein calls it “group polarization,” where “deliberation tends to move groups, and the individuals who compose them, toward a more extreme point.”


Guter Text im Atlantic über die bimodale Kommunikation auf Twitter, die sowohl Eigenschaften oralen (mündlicher) wie schriftlicher Kommunikation zeigt: Why Twitter may be ruinous for the Left. (Vorher: Der duale Charakter der Online-Kommunikation)

From my perspective, as a single Twitter user, the online horde is always going on about something. So if I tweet about that something, it’s not a big deal. I’m only thinking aloud, goofing off, and harmlessly chatting with my friends and readers. But if 50 other people tweet about the same thing—especially if it’s frivolous and especially if they all have, like I do, an account with more than 1,000 or so followers—then they’re making that topic even more popular, amplifying it, and reinforcing the media’s toxic fixation on meaningless chaff. My tweets—well, not my tweets, but you get it—are conversational and informal, and they matter relatively little. But taken collectively, everyone else’s tweets are informational and declamatory. They carry weight.

This instability—between the individual and the mass, the high and the low—is also what makes Twitter fun. The site’s worst users are those who monotonously, humorlessly post about the same thing over and over again. But in trying to avoid that fate—and in trying, generally, to act like a regular person online—users push the conversation toward conflict and superficiality.

Ong would have understood. Writing down a language, he realized, is not just a mere shuffling of papers; it forever changes how the language works. Consider the differences between speech and text. For oral cultures, words are primarily vibrations in the air, Ong argued. Words must therefore be memorable, few in number, and tied to the concrete reality of day-to-day life. But after the advent of writing, words become more than invisible sounds. They become permanent symbols that exist outside their utterance and can be read long after the speaker has died. Words can also divorce from the physical world and start to reference ideas, concepts, and abstract states. And instead of words needing to aid memory, as they do in oral cultures (by using a repeated epithet, such as Homer’s “wine-dark sea”), written words can suddenly act as a form of memory themselves.

Before Ong died in 2003, he was asked about a special kind of writing that people do online, a genre of communication familiar to any Slack or AIM user or group-chat texter. It’s a mode that delivers words live and at the speed of speech—in which, as Ong put it, “textualized verbal exchange registers psychologically as having the temporal immediacy of oral exchange.” (This is apparently how a Jesuit talks about sliding into one’s DMs.) Ong called this new fusion “secondary literacy,” but today we just call it texting. Whatever its name, it reigned during Twitter’s early days. As I once wrote: “Twitter lets users read the same words at different times, which is a key aspect of literacy. Tweets are chatty, fusing word and action like orality; and also declarative, severable, preservable, and analyzable like literacy.”

Tweets that were written as chatty musings for one group of users were interpreted as print-like declamations by another.


Ich mache mir (noch) keinerlei Sorgen wegen des Coronavirus, beobachte die eskalierende Berichterstattung im Netz wie üblich mit großem Interesse. Hier zwei exemplarische Artikel über virale (pun intended) Desinformation zur Wuhan-Grippe: Platforms get hit with the coronavirus.

One result of a world in which everyone has more or less equal access to publishing tools has been what’s sometimes called an epistemic crisis: a scenario in which large groups of people muddle along with very different understandings of reality, undermining the ability of elected officials to govern. This might be particularly scary during a catastrophe, when citizens are relying upon their government for accurate and potentially life-saving information. If you can’t trust official government announcements — or you are misled into thinking that an official-sounding hoax is real — catastrophes might begin compounding upon one another.

Social Media selektiert grundsätzlich für die extremsten Sichtweisen und Meldungen und das wird zum Problem in Krisenzeiten, wenn Gesundheitsbehörden verlässliche Informationen bekanntgeben: How To Misinform yourself about the Coronavirus.

Accounts big and small have whipped up quite an apocalyptic fervor in the past weeks, posting scary videos of dubious provenance and veracity. The mainstream media has proceeded carefully, and reporters’ stories have seemingly been unable to satiate the rising hunger for more information about coronavirus. This was the ecosystem in which Feigl-Ding’s thread landed. No wonder it took off. Feigl-Ding put together a thread on Twitter, mostly quoting the paper itself, that declared we were “faced with the most virulent virus epidemic the world has ever seen.” […]

Twitter ate it up. Many people seemed to be experiencing the outbreak, especially from afar, as some kind of distributed movie, watched in grainy cellphone videos sent out of China and populated by Twitter heads filling in the backstory. The thread soon had thousands of retweets. Feigl-Ding’s account was flooded with new followers. Here was a Harvard epidemiologist naming the world’s darkest fear about the new disease and confirming it.

Yet there were issues with Feigl-Ding’s analysis, even if they were not immediately apparent to the people simply scrolling through Twitter. The thread exemplified a deep problem on Twitter: The most extreme statements can be far more amplified than more measured messages. In the information sphere, while public-health researchers are doing their best to distribute scientific evidence, viral Twitter threads, context-free videos, and even conspiracy theories are reaching far more people.


Die Empörungsspirale, die zur Löschung der Science-Fiction-Story „I Sexually Identify as an Attack Helicopter“ führte, ist eins der interessanteren Beispiele für Outrage-Culture und ihre Mechanismen, die etwa eine Wieder-Aneignung „problematischer Inhalte“ verhindern. ISIAAAH war ursprünglich eine transphobe Meme aus rechten Kreisen, die von der Autorin in ein Stück absurder und surrealer Science-Fiction-Literatur verwandelt wurde. Ein künstlerischer Vorgang, der grade in der Counter Culture der Vergangenheit zu den üblichen Kulturtechniken gehörte, wird durch Allsichtbarkeit auf Sozialen Medien und Outrage-Culture praktisch verunmöglicht.

Outline: What’s the harm in reading? The controversy that erupted over a recent sci-fi short story by Isabel Fall raises questions about how we encounter difficult art.
Wired: The Disturbing Case of the Disappearing Sci-Fi Story. A young writer wrote a controversial bit of military science fiction about sexual politics. The fallout was nuclear.


Neue Meta-Studie über Social Media-Nutzung und Mental Health-Issues bei Heranwachsenden, die nur eine geringe Korrelation findet. Ich bleibe bei diesen Studien skeptisch, der Anstieg von Mental Health-Issues bei Heranwachsenden ist zu groß, fällt zu genau in den Zeitraum des Aufstiegs von Social Media und wird darüber hinaus flankiert von einer ganzen Reihe neuartiger psychologischer Phänomene wie „Selfie Dysmorphia“, um einen Zusammenhang wegzuwischen. Die Studie argumentiert folgerichtig auch für bessere Methoden der Forschung, die sich auf Daten beruft, die durch Self-Reporting gesammelt werden oder nur Screentime untersuchen. Die Psychologie benötigt genauere Daten über das, was User wirklich tun und welche Reaktionen durch diese Verhaltensweisen ausgelöst werden.


Neuer Deepfake-Algorithmus, der Lipsynch aus Audio generiert: The researchers say this method creates “very deceptive” audio-visual results. Compared to past deepfake methods like Face2Face from 2016 and “Synthesizing Obama” from 2017, the results are more crisp with fewer artifacts visible to the naked eye. In an online poll of 100 participants conducted by the researchers, 55 percent of generated videos were rated as “real.”


“Flood the zone with shit”: How misinformation overwhelmed our democracy: We’re in an age of manufactured nihilism. The issue for many people isn’t exactly a denial of truth as such. It’s more a growing weariness over the process of finding the truth at all. And that weariness leads more and more people to abandon the idea that the truth is knowable.


Clearview AI founder linked to Trump world and Far-Right: While Ton-That has erased much of his online persona from that time period, old web accounts and posts uncovered by BuzzFeed News show that the 31-year-old developer was interested in far-right politics. In a partial archive of his Twitter account from early 2017, Ton-That wondered why all big US cities were liberal, while retweeting a mix of Breitbart writers, venture capitalists, and right-wing personalities. “In today’s world, the ability to handle a public shaming / witch hunt is going to be a very important skill,” he tweeted in January 2017.


Dave Winer über Facebook: „Too much attention has been paid to Facebook the company, it’s time to learn about the hundreds of millions of people who use Facebook, and what they’re doing with it. […] The stories we tell ourselves little connection to reality. And so any general statement about a community as huge and diverse as Facebook is certain to miss the mark, widely. And most of what we read only focuses on the company, not the users. To have that appear as journalism is just wrong because journalism has a higher calling, to find out what’s real, what’s true, and then say that.“

Ich unterschreibe das zu 100% und bin immer und immer wieder ratlos und erstaunt, wenn Journalisten und Aktivisten die offensichtlichen Probleme der Online-Kommunikation und der psychologischen Effekte der Allsichtbarkeit auf Kapitalismus oder die eine oder andere Unternehmenskultur reduzieren wollen. Es ist eine bequeme Haltung, für die man garantiert Karmapoints auf Twitter einsammelt, aber den Punkt treffen diese Analysen nur bedingt. Es sind immer noch wir, die wir uns gegenseitig an die Gurgel gehen und die Gründe dafür sind allzuoft nicht Manipulation oder Geld.


Apps für „the dark forest of the internet“: Why private micro-networks could be the future of how we connect: Forget amassing likes or cultivating your online persona. Apps like Cocoon are all about being your true self with just a select few people.


Der Spiegel hat ein „geheimes Netzwerk“ enttarnt: So werden Sie auf Facebook von Fake-Profilen manipuliert. Das Netzwerk diente offenbar nicht der Manipulation politischer Berichterstattung, sondern um einen groß angelegten Betrugsversuch. Die Story steckt hinter einer Paywall, alle Details gibt es allerdings auch beim DFR-Lab: A Facebook drama in three acts, A Facebook drama, act 1: a network of fakes, A Facebook drama, act 2: the coordination, A Facebook drama, act 3: the content


Podcasts

HR2 Der Tag: Sie sehen was, was Du nicht siehst – Identität digital (MP3): Straftäter erkennen. Mitten in einer Menschenmenge. An ihren Gesichtern, die eine Kamera erfasst und die dann mit Bildern in der “Verbrecherkartei” abgeglichen werden. Das klingt verlockend, wenn eine solche Gesichtserkennung wirklich nur Kriminelle träfe, die im Begriff sind, weitere Straftaten zu begehen. Aber eine Kamera als “Auge des Gesetzes” kann auch die Gesichter unbescholtener Menschen erfassen. Und dann dürfen wir alle uns fragen, was die Sicherheitsbehörden wohl anfangen werden – mit dem, was sie auf unseren Gesichtern lesen. “Wer das Gesicht eines Menschen auf ein Foto bannt, der raubt diesem Menschen die Seele”. Dieser alte Glaube mancher Kulturen bekommt im digitalen Zeitalter ein ganz neues – Gesicht. Und zwar eines, das viele von uns in ähnlicher Weise beunruhigt. Gesicht zu zeigen – so sinnvoll das ist, wenn es um Politik und Zivilcourage geht, so problematisch wird es, wenn wir im öffentlichen Raum und im Netz unsere Identität verteidigen wollen.

Sein und Streit: Philosoph Geert Keil über Fehlbarkeit – Warum wir uns nie sicher sein können – und es trotzdem Wahrheit gibt (MP3, Info): Verrechnet, verlesen, verrannt – uns unterlaufen ständig Fehler. Trotzdem gibt es Dinge, die wir für unbedingt wahr halten, zum Beispiel, dass eins plus eins zwei ergibt. Wie können wir fehlbar und uns zugleich einer Sache bombensicher sein?

SWR2 Wissen: Lug und Trug im Internet – Die Mechanik der Täuschung (MP3): In den Zeiten der Digital-Pioniere galt das Internet einmal als Ermöglichung weltweiter Transparenz, einer Welt ohne Grenzen. Und heute: Das sind nur noch Utopien, das Internet zeigt sein anderes Gesicht: Fakes, Datenklau, Manipulation, Cybergrooming. Meint Dr. Marco Wehr, Physiker, Philosoph, Autor und Gründer
des Philosophischen Labors in Tübingen.

SWR2 Wissen: Gewaltfreie Kommunikation – Gute Idee, wenig Wirkung? (MP3): Konflikte lösen, ohne dass es Verlierer gibt – Das ist das Ziel der Gewaltfreien Kommunikation nach Marshall Rosenberg. In den 1980er Jahren hat sich die Idee verbreitet. Was hat sie seitdem erreicht?

SWR2 Forum: Namenlose Drohungen – Brauchen wir Klarnamen im Internet? (MP3): Ich habe dazu nur eine unfertige Meinung, denke gleichzeitig, dass Anonymität eine wertvolle Eigenschaft des Netzes und gleichzeitig ein gigantisches Problem bezüglich Desinformation und stochastische virtuelle Gewalttaten darstellt, wobei Untersuchungen auf Facebook zeigen, dass die Klarnamen dort das Problem höchstens einzuhegen vermögen.

Das moderne Individuum definiert sich über sein Ego – auch und gerade in der Massengesellschaft. Gesicht zeigen ist nicht nur eine Anstandsregel, sondern auch eine Frage bürgerlichen Stolzes.
Doch im Zeitalter der Internetkommunikation erscheint Anonymität als neuer Trumpf. Im Schutz der Namenlosigkeit wird gepöbelt und gedroht; zivilisierte Umgangsformen sind auf dem Rückzug. Würde eine Klarnamenpflicht, wie von manchen Politikern gefordert, den Ton im Web verbessern? Oder gibt es gute Gründe, sich dem Erkanntwerden zu entziehen?
Wäre die Identifizierung jedes Users überhaupt technisch machbar – und um welchen Preis? Und wie kommt es, dass die Politik beim Datenschutz dermaßen hochrüstet und zugleich solche Angst davor hat?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.