Studie: Soziale Medien steigern Nachrichtenvielfalt

Eine weitere Studie widerlegt die These der Filterblase und bestätigt gesteigerten und vielfältigeren Nachrichtenkonsum. Die Forscher sprechen in ihrer Pressemitteilung zur Studie fälschlicherweise davon, dass die Ergebnisse auch die Bildung von Echokammern widerlegen würde, das Gegenteil aber ist der Fall. Vor ein paar Tagen erst bloggte ich über eine weitere Studie, die ebenfalls einen gesteigerten, vielfältigeren Nachrichtenkonsum konstatiert – und zwar innerhalb dieser Echokammern, in denen Leute ihre eigene Haltung mit Verweisen auf Nachrichten und Meldungen gegenteiliger Meinungen zementieren.

Dr. Frank Mangold von der Universität Hohenheim erklärt: „Unsere Ergebnisse zeigen […], dass soziale Medien und Suchmaschinen durchaus das Potenzial haben, bestehende Mauern zu überwinden“. Und genau das ist das Problem.

Die Gleichung ist einfach: Je mehr Internet, desto mehr Nachrichten aus allen Lagern, auch aus dem der „Anderen“. Diese Meldungen nutzen wir vor allem dafür, die Echokammer unseres Tribes zu befeuern und damit unsere eigene Haltung zu stärken. Ich vermute, die meistgeklickten News-Items in polarisierten Tribes stammen aus dem jeweils gegnerischen Lager. Die beiden Studien stehen meines Erachtens nicht im Widerspruch zueinander und ergänzen sich.

Paper: How social network sites and other online intermediaries increase exposure to news // Spektrum

“Wer Facebook oder Google besucht, kommt mit einer größeren Wahrscheinlichkeit mit Nachrichten in Kontakt. Die Nutzung dieser Intermediäre ist daher ein wichtiger Mechanismus für den Konsum von Nachrichten im Internet”, erklärt Dr. Frank Mangold von der Universität Hohenheim. Das Forscherteam führt dies auf das Konzept der zufälligen Rezeption von Nachrichten zurück. In traditionellen Medien wie Fernsehen und Zeitung sehen Bürgerinnen und Bürger Nachrichten oft nur, wenn sie diese bewusst auswählen. Auf intermediären Plattformen kommen Menschen auch zufällig mit Nachrichten in Berührung, etwa wenn ihre Kontakte Nachrichteninhalte teilen oder sie beim Abrufen von E-Mails auf interessante Artikel stoßen.

Die Studienergebnisse haben, so die Forscher, bedeutsame politische und gesellschaftliche Implikationen, weil sie der Bildung von Filterblasen oder Echokammern widersprechen. “Bisherige Debatten haben sich in vielerlei Hinsicht um die Befürchtung gedreht, dass Online-Medien zur Entstehung neuer Mauern in der Gesellschaft führen”, so Prof. Dr. Michael Scharkow von der JGU. “Unsere Ergebnisse zeigen demgegenüber, dass soziale Medien und Suchmaschinen durchaus das Potenzial haben, bestehende Mauern zu überwinden.”

[Das Geile Neue Internet 7.2.2020] Virale Kooperation und Corona-Angststürme; Martin Gurri on Revolt, Populism, and Reaction; The Other as Noise

Memetics and Virality

Philosophy

  • The Hierarchy of Cringe
  • Lying Eyes – The Victorian roots of facial recognition
  • Protocols: Duty, Despair and Decentralisation transcript
  • I’m saying for quite some time now that the Digital pretty much made postmodernity a real thing, distinct from theorizing and this guy seems with me: The Iowa caucus affair last night was a masterclass in hyperreality: „everybody got excited about postmodernism, nobody was ready for postmodernity“.
  • And here’s Ed Simon in The Millions reviewing Peter Pomerantsevs books (Nothing Is True and Everything Is Possible and This Is Not Propaganda) stating, more or less, the same. The new is not that people lie and tell fantastical stories about the evil Other, but that it simply doesn’t matter and that is postmodernity which left the theoretical realms of academic thought and was made real, by, I’d like to add, editable bits and bytes on screens.

    Pomerantsev […] describes a “world of dark ads, psy-ops, hacks, bots, soft facts, fake news, deep fakes, brainwashing, trolls, ISIS, Putin. Trump,” where the author meets “Twitter revolutionaries and pop-up populists, trolls and elves, ‘behavioral change’ salesmen and Infowar charlatans, Jihadi fan-boys, Identitarians, truth cops, and bot herders.” […]

    Any radically new information technology alters human consciousness, and has the potential to promulgate disinformation amongst a credulous public not yet literate in the vagaries of the new order. Medieval manuscripts were no more accurate than websites; 14th-century readers of the anonymous The Travels of Sir John Mandeville thrilled to stories about dog-headed Cynocephalics, and two centuries later a rash of printed apocalyptic pamphlets, like the “English Nostradamus” Mother Shipton’s pseudographical prophecies, spread throughout Europe, driving paranoia as surely as Reddit and Twitter defuse QAnon conspiracy theories today. Yet Pomerantsev would be correct in saying that our current predicament is of a different kind, for unlike manuscript or print, our smartphones make us veritable cyborgs, creatures with super computers in our pockets who are continually, potentially connected by network to every other fellow cyborg in the world. This relativist consensus, an epistemic collapse that allows everyone to choose whatever truth is convenient to them, is a type of post-modern magical thinking.

Media Manipulation and Fakes

Culture Wars

Hate Speech

  • Hass gegen Journalisten: “Und morgen bist du tot!”: Seit Jahren erhält der Journalist Hasnain Kazim Morddrohungen, zuletzt mehrere täglich. Er steht auf Todeslisten, Anzeigen bleiben folgenlos. Was macht das mit einem?
  • When a subreddit is devoted to stalking a New York Times reporter: There’s an entire subreddit dedicated to hating on one influencer that is literally obsessed with me and has posted multiple hate threads and conspiracies about me. Like, these people are sick. It’s bizarre and honestly terrifying.
    The worst part of being a journalist is being even semi in the public eye. Even dealing with a fraction of what actual public figures go through has been shocking and horrible. It’s completely changed how I live my life and has severely affected my mental health over the past yr.

Psychology

  • The Other as Noise – Has technology made us more susceptible to misophonia, the inability to tolerate the sounds other people make?

    The repetitive sounds that irresistibly draw and saturate misophonics’ concentration can be likened to another contemporary phenomenon: push notifications, which are also designed to hijack attention. Misophonic triggers can feel like auditory dark patterns, as if they were deviously designed to distract us rather than being the incidental and inevitable sounds people make when going about their business.

  • Einer der meistzitierten psychologischen Effekte der Debattenkultur ist der Backfire-Effect, nachdem Menschen auf die Präsentation von Fakten, die nicht ihren Haltungen entsprechen, nicht etwa mit einer Änderung ihrer Meinung reagieren, sondern mit einer Verstärkung der Haltung. Es gibt Gesprächs-Strategien gegen diesen Effekt, beispielsweise hilft es bei ideologisch oppositionellen Gesprächspartnern, an die jeweiligen Werte zu appellieren. Einen Konservativen überzeugt man von Klimaschutz-Argumenten eher nicht mit Wissenschaft, sondern mit der Zukunft seiner Kids.

    Eine weitere Strategie gegen den Rebound-Effekt wurde nun in einem neuen Paper bestätigt: Gespräche, die ohne Wert-Urteile über die Haltung des Gegenübers geführt werden, führen zu weniger Blockadehaltungen, grade und vor allem bei emotional aufgeladenen Themen. No shit sherlock.

Journalism

  • Can Journalism Be Saved?: There are plenty of examples from other fields in which originally commercial activities stopped making money but were preserved because of their obvious social value (opera, or streetcars and subways), or of activities the market supported to some extent, if not to the extent the country needed (such as pure scientific research).
  • Warren Buffett steigt aus dem Nachrichten-Geschäft aus: Warren Buffett Will Sell His Newspaper Empire: With a deal to sell Berkshire Hathaway’s newspapers to Lee Enterprises, the billionaire is giving up on the news business.
  • Misleading media coverage of Warren’s voting-related disinformation plan: A tweeted headline omitted an essential qualifier, setting off a chain of misinformation.
  • Publishers are growing audiences by producing less content: Publishers including the Guardian, News UK’s The Times of London and Le Monde have trimmed the number of articles they publish, leading to a growth in audience traffic, higher dwell times and ultimately more subscribers.

Politics

  • Martin Gurri identifiziert das Phänomen des Schwarms als ausschlaggebenden Faktor für den weltweiten Aufstieg der Populisten und ich denke, er hat Recht: Revolt, Populism, and Reaction – The turbulent 2010s may be a harbinger of things to come.

    The rise of the public as a leading actor on the political stage, and the angry impulse to repudiate the established order, provide the theme for the 2010s. The decade ended in a flood tide of revolt—and the meaning of it all is up for grabs. The human race seems to be wandering in the wilderness, caught in a migration out of the industrial age to parts unknown. The public is trapped in a mesh of rejection and negation, unable to articulate positive demands. The elites face a dire choice: between reacting on behalf of the old order or leaping into the void of structural reform. Democratic institutions, adapted to a largely vanished era, continue to bleed authority and legitimacy at a dangerous rate.

    Hier noch ein Podcast mit Gurri über „The American public’s relentless desire to destroy the established order without any clue about what comes next [and] How the rising tsunami of information is tied directly to increasing levels of social and political turbulence“: Why is everybody so damn angry?

  • I might get flag for this but Im with Zuck on this one. Since when do politicians not lie in political ads? The only argument I’d follow is that FB-Ads might be indistinguishable from editorial content, which is where I’d draw a line.

    Facebook commitment to free speech will ‘piss people off’, Zuckerberg says: “We’re going to stand up for free expression,” he said, apparently referring to the company’s decision to resist pressure to ban political ads because it would be too tough to determine the line between true and false content.
    “It’s unfortunate that this is such a controversial thing,” Zuckerberg said, adding that critics of his stance are typically “people not at risk of being censored themselves”.

  • Politischer Strukturwandel: Bullshit untergräbt die Demokratie
  • The new class war: did a liberal elite pave the way for rise of Trump?

The Purity Spiral

Guter Artikel und Podcast über Empörungsmemetik in Online-Subkulturen am Beispiel von Strick-Communities und Young Adult Novels. Gavin Haynes identifiziert korrekterweise Gossip als Hauptmechanismus der von ihm sogenannten Purity Spiral: How knitters got knotted in a purity spiral – A process of moral outbidding is corroding small communities from within.

You might think online knitting and teen fiction would be innocuous cosy communities formed around a shared love of craft and a good yarn. However, as Gavin reveals, both scenes have recently become embroiled in what he terms The Purity Spiral. These vicious cycles of accusation and judgement see communities engaging in moral feeding frenzies. As a result, individuals are targetted and savaged by mobs who deem them problematic.

Gavin meets Nathan Taylor, an Instagram knitting star who unwittingly triggered a race row after attempting to reach out to people of colour using the hashtag Diversknitty. Nathan watched in horror as a wave of accusations of white supremacy and Nazism flowed into his inbox. This brush with the toxicity of a Purity Spiral was so severe that Nathan was hospitalised by his husband following a suicide threat. […]

A purity spiral occurs when a community becomes fixated on implementing a single value that has no upper limit, and no single agreed interpretation. The result is a moral feeding frenzy. But while a purity spiral often concerns morality, it is not about morality. It’s about purity — a very different concept. Morality doesn’t need to exist with reference to anything other than itself. Purity, on the other hand, is an inherently relative value — the game is always one of purer-than-thou.

It’s not just another word for ‘woke culture’, or even ‘cancel culture’, or ‘virtue signalling’. Even though intersectional social justice is a pretty great breeding ground for purity spirals, it is one among many. Nor is it confined to the Left: neo-Nazi groups offer some of the clearest examples of purity spirals: the ongoing parsing of ethnic purity into ever-more Aryan sub-groups. Perhaps the most classic one of all hails from Salem, Massachusetts.

FBI-Direktor warnt vor ständigen Informationskrieg

7. Februar 2020 12:25 | #Allgemein #Memetik #Politik #synch

Der FBI-Direktor Chris Wray hat vor einem ständigen Informationskrieg durch Russland gewarnt. Das Statement muss man realistischerweise ausweiten, denn Desinformationskampagnen und Manipulation der Informationsströme (nicht nur) durch staatliche Akteure sind ein globales Phänomen.

Memetic Warfare ist eine Konstante. Das war sie schon immer, man sieht’s jetzt halt. Die Produktionsmittel der memetischen Kriegsführung wurden durch das Digitale demokratisiert und heute darf jeder mal ballern, und sei es nur gegen einen „Drachenlord“. Memetische Kriegsführung ist kein partisanes Phänomen einer Seite, sondern eine Eigenschaft der Digitalität, basierend auf grundsätzlicher Editierfähigkeit und damit Manipulierbarkeit aller Inhalte und emotionsgesteuerter Informationsdistribution. Die demokratische, redliche, transparente Variante der „memetischen Kriegsführung“ ist der „Marketplace of Ideas“ und die Logik des Informationskriegs folgt den psychologischen Regeln der Aufmerksamkeitsökonomie.

Russia, just as it did in 2016, is relying on a covert social media campaign aimed at dividing American public opinion and sowing discord. That effort, which involves fictional personas, bots, social media postings and disinformation, may have an election-year uptick but is also a round-the-clock threat that is in some ways harder to combat than an election system hack, Wray said.

“Unlike a cyberattack on an election infrastructure, that kind of effort — disinformation — in a world where we have a First Amendment and believe strongly in freedom of expression, the FBI is not going to be in the business of being the truth police and monitoring disinformation online,” Wray said. […]

“They identify an issue that they know that the American people feel passionately about on both sides and then they take both sides and spin them up so they pit us against each other,” Wray said. “And then they combine that with an effort to weaken our confidence in our elections and our democratic institutions, which has been a pernicious and asymmetric way of engaging in … information warfare.”

Meme als Ideen-Kompression

7. Februar 2020 10:47 | #Allgemein #Memetik #Philosophie #synch

Meme als Kompression, ein Text transportiert beispielsweise 50 Ideen in 5 Minuten, also grob 0,15 Ideen pro Sekunde. Ein Bild dagegen transportiert zwar nur eine handvoll Ideen, kommuniziert diese aber innerhalb einer Sekunde, was zB 2 Ideen pro Sekunde entspricht. Die memetische Kompressionsrate des Bildes ist also grob 25 mal höher als die eines Texts. Ich mag das Konzept, selbst wenn es unausgereift ist: Ideen in Bildern sind vom Betrachter und seiner Kognition abhängig. Ein Farbenblinder erkennt etwa in einem Bild möglicherweise andere Ideen, als andere. Ideen in einem Text sind weniger interpretationsbedürftig.

Andererseits sind Meme als Kompression bereits in meiner Meme-Definition vorab eingebaut: „Garfield“ ist Ausdruck der Idee „anthropomorphe Katze“, also eine Katze mit menschlichen Eigenschaften. Eine „anthropomorphe Katze“ wiederum ist eine weniger abstrakte Version der Idee „Katze“ und diese wiederum ein weniger abstrakte Version der Idee „Tier“ und das wiederum eine weniger abstrakte Version der Idee „Lebewesen“ so weiter. Diese immer höheren Abstraktionsstufen (oder Meme-Level) weisen immer höhere memetische Kompressionsraten auf. Die allerhöchste Abstraktionsstufe mit der höchsten Kompressionsrate wäre in diesem Bild die Idee von Gott oder newschool, die der allumfassenden Simulation.

Die memetische Kompressionsrate wäre eine Neuformulierung oder Abwandlung der Komplexitätsreduktion. Wir alle reduzieren Realität auf eine wahrnehmbare Welt. Wenn wir ein Buch betrachten, sehen wir nicht die Trillionen von Elektronenwolken und ihre Interaktionen und die Magnetfelder, die letztlich die Beschaffenheit des Papiers formen. Wir sehen ein Buch. Wenn wir uns die Hände schütteln ist uns nicht bewusst, dass wir einander eigentlich gar nicht berühren, sondern tatsächlich nur die Abstoßungskräfte elektrisch geladener Teilchen spüren, die in einem Haufen Nichts schweben. Wir schütteln uns die Hände. Die maximale Komplexitätsreduktion wäre ebenfalls mythologisch. Gott bzw. Der Simulationsgedanke reduziert die Komplexität der Welt auf eine einzige Idee und die Realität mit all den Quarks und Elektronen, ihren Orbits und Quantenzuständen, ist die höchste, nicht mehr wahrzunehmende Komplexität.

Genau deshalb gibt es das mythologische Bild der „Blendung durch die Ansicht Gottes“, das Äquivalent zur Blendung durch Erkenntnis in Platos Höhlengleichnis. Eine Verstümmelung der Kognition durch Konfrontation mit der maximalen Komplexität: Das maximal komprimierte Meme – Gott/Simulation als memetische Singularität – transportiert soviel Information, dass sie unsere Wahrnehmung buchstäblich verbrennt.

Jonathan Pie is cancelled

Der großartige Jonathan Pie wechselt von kurzen Rants zu langen, aufwändiger inszenierten Comedy-Sketches und ist nach wie vor der derzeit vielleicht aktuellste Comedian, der am nächsten am Zeitgeschehen dran ist. Das fing vor einer Woche mit seinem 15minütigen Sketch über den Klimawandel (Video ganz unten) an und nun hat er einen weiteren Clip über Brexit und Outrage-Culture nachgeschoben, in dem er unwissend während Brexit-Protesten ein Selfie mit UKIP-Unterstützern schießt und vom Twitter-Mob gecancelt wird. Moderne Zeiten halt, everybody’s the asshole.

Und das Bit über Journalisten auf Twitter ist 100% spot on: „Twitter is a godsend! You just scroll through it and someone somewhere is saying exactly what you want them to say. It’s journalism for toddlers really! You’re always looking for the extremes, so with remainders you want the upset ones, you know: shouting – or crying is always good. And with leave voters, obviously, you’re looking for the ones who look a bit racist.“

Am Ende kommt literally die Sprachpolizei. Das Video bringt unsere geile neue Zeit ziemlich auf den Punkt und my god, I love Jonathan Pie.

PIE NET ZERO

Online-Echokammern florieren dank Sichtbarkeit gegensätzlicher Meinungen

Eine der am häufigsten kritisierten Theorien der Online-Kommunikation ist die der Filterblasen und Echokammern. Erstere schneiden User angeblich von anderen Meinungen der politischen jeweiligen Opposition ab, letztere verstärken die Haltungen und Werte des eigenen Lagers, vor allem durch das Sharing von Inhalten aus der eigenen Gruppe.

Die Filterblase als solche wurde als unterkomplexe Theorie bereits mehrfach widerlegt: Ich mag auf Facebook dank meiner Präferenzen und des Algorithmus vor allem mit Nachrichten konfrontiert werden, die meiner eigenen Haltung entsprechen, das bedeutet aber nicht, dass User nicht gezielt nach anderen Meinungen suchen oder auf anderen Plattformen gegenteilige Meinungs-Inhalte sehen. Und nun stellt sich heraus, dass auch Echo komplexer funktionieren, als gedacht.

Echo-Kammern bilden sich anscheinend nicht durch die Verstärkung der Werte und Haltungen des eigenen Tribes, Echo-Kammern florieren laut einer neuen Studie vor allem durch die Verlinkung und Sichtbarkeit anderer, gegenteiligen Meinungen. Linke bauen also ihre Echokammer mit den Tweets von Rechten und Rechte bauen ihre Echo-Kammer mit den Äußerungen von Linken. Ich nenne das seit ein paar Jahren Allsichtbarkeit und finde die Metapher von Sichtbarkeit als tribalistisches Baumaterial sehr brauchbar.

Paper: Echo Chambers Exist! (But They’re Full of Opposing Views) // Rolf Degen

The theory of echo chambers, which suggests that online political discussions take place in conditions of ideological homogeneity, has recently gained popularity as an explanation for patterns of political polarization and radicalization observed in many democratic countries. However, while micro-level experimental work has shown evidence that individuals may gravitate towards information that supports their beliefs, recent macro-level studies have cast doubt on whether this tendency generates echo chambers in practice, instead suggesting that cross-cutting exposures are a common feature of digital life.

In this article, we offer an explanation for these diverging results. Building on cognitive dissonance theory, and making use of observational trace data taken from an online white nationalist website, we explore how individuals in an ideological ‘echo chamber’ engage with opposing viewpoints. We show that this type of exposure, far from being detrimental to radical online discussions, is actually a core feature of such spaces that encourages people to stay engaged. The most common ‘echoes’ in this echo chamber are in fact the sound of opposing viewpoints being undermined and marginalized. Hence echo chambers exist not only in spite of but thanks to the unifying presence of oppositional viewpoints.

[DasGeile Neue Internet 29.1.2020] Virale Desinformation zum Coronavirus; Studie: Youtubes Empfehlungsalgorithmus radikalisiert nicht; Twitter als Reality Distortion Field für Journalismus

Ausführliche neue Studie über die Wege der Radikalisierung durch Youtubes Empfehlungsalgorithmen, nachdem Youtube im Herbst seine Algorithmen geändert hatte und deutlich weniger „independent creators“ empfiehlt: Algorithmic Extremism: Examining YouTube’s Rabbit Hole of Radicalization. Das Ergebnis ist eindeutig: „we refute the popular radicalization claims“.

To the contrary, these data suggest that YouTube’s recommendation algorithm actively discourages viewers from visiting radicalizing or extremist content. Instead, the algorithm is shown to favor mainstream media and cable news content over independent YouTube channels with slant towards left-leaning or politically neutral channels. Our study thus suggests that YouTube’s recommendation algorithm fails to promote inflammatory or radicalized content, as previously claimed by several outlets.

Ergänzend zur Studie hier ein neuer Artikel von Rebecca Lewis, die sich seit Jahren an Youtube als Radikalisierungsbeschleuniger abarbeitet und die sich in jüngerer Zeit dem Einfluss von Micro-Stardom auf politische Propaganda in Sozialen Medien widmet. Besonders lustig finde ich ihre Headline, die nichts anderes als eine extreme Übersteigerung der Wahrheit ist und praktisch demselben Mechanismus gehorcht: Frau Lewis radikalisiert sich für Aufmerksamkeit und deshalb ist All of YouTube, Not Just the Algorithm, […] a Far-Right Propaganda Machine. Ihre Analyse ist trotz Headline sehr brauchbar und ich denke nicht, dass sich die Studie und Lewis’ Analyse wirklich widersprechen.

Today, the most successful celebrities for a new generation are YouTubers (the numbers are staggering — the most successful individual YouTuber, PewDiePie, has 102 million subscribers at the time of writing).

For years, YouTube has described this in democratizing terms. Indeed, people in their bedrooms can broadcast directly to their fans, creating a sense of intimacy and authenticity not present in older forms of media. In practice, however, that means a range of anti-feminist, Islamophobic, and even white supremacist content creators share far-right propaganda in the form of incredibly intimate personal stories, spoken to their audiences as if they are speaking to close friends. Media historian Fred Turner has described this as a form of “charismatic, personality-centered” authoritarianism. In my own research, I have shown how YouTube creators build trust with their audiences by aligning qualities of authenticity and transparency with reactionary politics. […]

Additionally, my research has indicated that users don’t always just stumble upon more and more extremist content — in fact, audiences often demand this kind of content from their preferred creators. If an already-radicalized audience asks for more radical content from a creator, and that audience is collectively paying the creator through their viewership, creators have an incentive to meet that need. [ed: You can see this in near real time on Tim Pools Channel who was way more moderate a year ago than he is now. The guy is constantly drifting to a more radical output without crossing lines. I think this is a direct reaction to the demands of his audience.]


Wie Twitter die Wahrnehmung von Aktivisten und Journalisten und damit die politische Berichterstattung verzerrt: The Twitter Electorate Isn’t the Real Electorate – Social media is distorting our sense of mainstream opinion:

Twitter has become journalists’ easiest and most reliable source of cor-blimey (or OMG, to American readers) stories, because all of human life is there, and it’s searchable. It is also the world’s wire service: Just look at Donald Trump, who drops his unfiltered thoughts straight onto Twitter, confident that they will be picked up by journalists. For anyone interested in politics, it is the closest thing to a global community center, or a small-ads section—the virtual room where it happens.

All of this gives the social network—and its most active users—outsize power to shape the political conversation. Its influence can be seen in contests currently under way in the United States and Britain: the race to become the Democrats’ presidential nominee, and the struggle to succeed Jeremy Corbyn as leader of the Labour Party. Both risk being distorted by what we might call the “Twitter Primary.” […]

Here’s one example of the Twitter Primary in action. In December, the Labour politician Rebecca Long-Bailey wrote an article that was seen as her pitch to be the party’s next leader. It was published in The Guardian, a newspaper that backed Corbyn’s Labour, and Long-Bailey herself is the anointed successor of Corbyn’s right-hand man, John McDonnell. The piece was mostly bland, but one phrase stood out: “progressive patriotism.” The top Twitter results for that phrase show the tenor of responses from the left. “We’re now an electorate that can only be bought with racism,” reads one tweet with 1,400 likes. “Or ‘progressive patriotism’, to give it its latest fancy name.” (In the piece that officially launched her campaign, Long-Bailey did not repeat the phrase.) Yet to read so directly across from “patriotism” to “racism” is a fringe position. Some 67 percent of Britons describe themselves as “very” or “slightly” patriotic.” Telling two-thirds of the country that they are secretly racist is a courageous electoral strategy. […]

The genuine fury from the left at people three inches closer to the political center reflects a turbocharged tribalism. Freud called this “the narcissism of small differences”; the legal scholar Cass Sunstein calls it “group polarization,” where “deliberation tends to move groups, and the individuals who compose them, toward a more extreme point.”


Guter Text im Atlantic über die bimodale Kommunikation auf Twitter, die sowohl Eigenschaften oralen (mündlicher) wie schriftlicher Kommunikation zeigt: Why Twitter may be ruinous for the Left. (Vorher: Der duale Charakter der Online-Kommunikation)

From my perspective, as a single Twitter user, the online horde is always going on about something. So if I tweet about that something, it’s not a big deal. I’m only thinking aloud, goofing off, and harmlessly chatting with my friends and readers. But if 50 other people tweet about the same thing—especially if it’s frivolous and especially if they all have, like I do, an account with more than 1,000 or so followers—then they’re making that topic even more popular, amplifying it, and reinforcing the media’s toxic fixation on meaningless chaff. My tweets—well, not my tweets, but you get it—are conversational and informal, and they matter relatively little. But taken collectively, everyone else’s tweets are informational and declamatory. They carry weight.

This instability—between the individual and the mass, the high and the low—is also what makes Twitter fun. The site’s worst users are those who monotonously, humorlessly post about the same thing over and over again. But in trying to avoid that fate—and in trying, generally, to act like a regular person online—users push the conversation toward conflict and superficiality.

Ong would have understood. Writing down a language, he realized, is not just a mere shuffling of papers; it forever changes how the language works. Consider the differences between speech and text. For oral cultures, words are primarily vibrations in the air, Ong argued. Words must therefore be memorable, few in number, and tied to the concrete reality of day-to-day life. But after the advent of writing, words become more than invisible sounds. They become permanent symbols that exist outside their utterance and can be read long after the speaker has died. Words can also divorce from the physical world and start to reference ideas, concepts, and abstract states. And instead of words needing to aid memory, as they do in oral cultures (by using a repeated epithet, such as Homer’s “wine-dark sea”), written words can suddenly act as a form of memory themselves.

Before Ong died in 2003, he was asked about a special kind of writing that people do online, a genre of communication familiar to any Slack or AIM user or group-chat texter. It’s a mode that delivers words live and at the speed of speech—in which, as Ong put it, “textualized verbal exchange registers psychologically as having the temporal immediacy of oral exchange.” (This is apparently how a Jesuit talks about sliding into one’s DMs.) Ong called this new fusion “secondary literacy,” but today we just call it texting. Whatever its name, it reigned during Twitter’s early days. As I once wrote: “Twitter lets users read the same words at different times, which is a key aspect of literacy. Tweets are chatty, fusing word and action like orality; and also declarative, severable, preservable, and analyzable like literacy.”

Tweets that were written as chatty musings for one group of users were interpreted as print-like declamations by another.


Ich mache mir (noch) keinerlei Sorgen wegen des Coronavirus, beobachte die eskalierende Berichterstattung im Netz wie üblich mit großem Interesse. Hier zwei exemplarische Artikel über virale (pun intended) Desinformation zur Wuhan-Grippe: Platforms get hit with the coronavirus.

One result of a world in which everyone has more or less equal access to publishing tools has been what’s sometimes called an epistemic crisis: a scenario in which large groups of people muddle along with very different understandings of reality, undermining the ability of elected officials to govern. This might be particularly scary during a catastrophe, when citizens are relying upon their government for accurate and potentially life-saving information. If you can’t trust official government announcements — or you are misled into thinking that an official-sounding hoax is real — catastrophes might begin compounding upon one another.

Social Media selektiert grundsätzlich für die extremsten Sichtweisen und Meldungen und das wird zum Problem in Krisenzeiten, wenn Gesundheitsbehörden verlässliche Informationen bekanntgeben: How To Misinform yourself about the Coronavirus.

Accounts big and small have whipped up quite an apocalyptic fervor in the past weeks, posting scary videos of dubious provenance and veracity. The mainstream media has proceeded carefully, and reporters’ stories have seemingly been unable to satiate the rising hunger for more information about coronavirus. This was the ecosystem in which Feigl-Ding’s thread landed. No wonder it took off. Feigl-Ding put together a thread on Twitter, mostly quoting the paper itself, that declared we were “faced with the most virulent virus epidemic the world has ever seen.” […]

Twitter ate it up. Many people seemed to be experiencing the outbreak, especially from afar, as some kind of distributed movie, watched in grainy cellphone videos sent out of China and populated by Twitter heads filling in the backstory. The thread soon had thousands of retweets. Feigl-Ding’s account was flooded with new followers. Here was a Harvard epidemiologist naming the world’s darkest fear about the new disease and confirming it.

Yet there were issues with Feigl-Ding’s analysis, even if they were not immediately apparent to the people simply scrolling through Twitter. The thread exemplified a deep problem on Twitter: The most extreme statements can be far more amplified than more measured messages. In the information sphere, while public-health researchers are doing their best to distribute scientific evidence, viral Twitter threads, context-free videos, and even conspiracy theories are reaching far more people.


Die Empörungsspirale, die zur Löschung der Science-Fiction-Story „I Sexually Identify as an Attack Helicopter“ führte, ist eins der interessanteren Beispiele für Outrage-Culture und ihre Mechanismen, die etwa eine Wieder-Aneignung „problematischer Inhalte“ verhindern. ISIAAAH war ursprünglich eine transphobe Meme aus rechten Kreisen, die von der Autorin in ein Stück absurder und surrealer Science-Fiction-Literatur verwandelt wurde. Ein künstlerischer Vorgang, der grade in der Counter Culture der Vergangenheit zu den üblichen Kulturtechniken gehörte, wird durch Allsichtbarkeit auf Sozialen Medien und Outrage-Culture praktisch verunmöglicht.

Outline: What’s the harm in reading? The controversy that erupted over a recent sci-fi short story by Isabel Fall raises questions about how we encounter difficult art.
Wired: The Disturbing Case of the Disappearing Sci-Fi Story. A young writer wrote a controversial bit of military science fiction about sexual politics. The fallout was nuclear.


Neue Meta-Studie über Social Media-Nutzung und Mental Health-Issues bei Heranwachsenden, die nur eine geringe Korrelation findet. Ich bleibe bei diesen Studien skeptisch, der Anstieg von Mental Health-Issues bei Heranwachsenden ist zu groß, fällt zu genau in den Zeitraum des Aufstiegs von Social Media und wird darüber hinaus flankiert von einer ganzen Reihe neuartiger psychologischer Phänomene wie „Selfie Dysmorphia“, um einen Zusammenhang wegzuwischen. Die Studie argumentiert folgerichtig auch für bessere Methoden der Forschung, die sich auf Daten beruft, die durch Self-Reporting gesammelt werden oder nur Screentime untersuchen. Die Psychologie benötigt genauere Daten über das, was User wirklich tun und welche Reaktionen durch diese Verhaltensweisen ausgelöst werden.


Neuer Deepfake-Algorithmus, der Lipsynch aus Audio generiert: The researchers say this method creates “very deceptive” audio-visual results. Compared to past deepfake methods like Face2Face from 2016 and “Synthesizing Obama” from 2017, the results are more crisp with fewer artifacts visible to the naked eye. In an online poll of 100 participants conducted by the researchers, 55 percent of generated videos were rated as “real.”


“Flood the zone with shit”: How misinformation overwhelmed our democracy: We’re in an age of manufactured nihilism. The issue for many people isn’t exactly a denial of truth as such. It’s more a growing weariness over the process of finding the truth at all. And that weariness leads more and more people to abandon the idea that the truth is knowable.


Clearview AI founder linked to Trump world and Far-Right: While Ton-That has erased much of his online persona from that time period, old web accounts and posts uncovered by BuzzFeed News show that the 31-year-old developer was interested in far-right politics. In a partial archive of his Twitter account from early 2017, Ton-That wondered why all big US cities were liberal, while retweeting a mix of Breitbart writers, venture capitalists, and right-wing personalities. “In today’s world, the ability to handle a public shaming / witch hunt is going to be a very important skill,” he tweeted in January 2017.


Dave Winer über Facebook: „Too much attention has been paid to Facebook the company, it’s time to learn about the hundreds of millions of people who use Facebook, and what they’re doing with it. […] The stories we tell ourselves little connection to reality. And so any general statement about a community as huge and diverse as Facebook is certain to miss the mark, widely. And most of what we read only focuses on the company, not the users. To have that appear as journalism is just wrong because journalism has a higher calling, to find out what’s real, what’s true, and then say that.“

Ich unterschreibe das zu 100% und bin immer und immer wieder ratlos und erstaunt, wenn Journalisten und Aktivisten die offensichtlichen Probleme der Online-Kommunikation und der psychologischen Effekte der Allsichtbarkeit auf Kapitalismus oder die eine oder andere Unternehmenskultur reduzieren wollen. Es ist eine bequeme Haltung, für die man garantiert Karmapoints auf Twitter einsammelt, aber den Punkt treffen diese Analysen nur bedingt. Es sind immer noch wir, die wir uns gegenseitig an die Gurgel gehen und die Gründe dafür sind allzuoft nicht Manipulation oder Geld.


Apps für „the dark forest of the internet“: Why private micro-networks could be the future of how we connect: Forget amassing likes or cultivating your online persona. Apps like Cocoon are all about being your true self with just a select few people.


Der Spiegel hat ein „geheimes Netzwerk“ enttarnt: So werden Sie auf Facebook von Fake-Profilen manipuliert. Das Netzwerk diente offenbar nicht der Manipulation politischer Berichterstattung, sondern um einen groß angelegten Betrugsversuch. Die Story steckt hinter einer Paywall, alle Details gibt es allerdings auch beim DFR-Lab: A Facebook drama in three acts, A Facebook drama, act 1: a network of fakes, A Facebook drama, act 2: the coordination, A Facebook drama, act 3: the content


Podcasts

HR2 Der Tag: Sie sehen was, was Du nicht siehst – Identität digital (MP3): Straftäter erkennen. Mitten in einer Menschenmenge. An ihren Gesichtern, die eine Kamera erfasst und die dann mit Bildern in der “Verbrecherkartei” abgeglichen werden. Das klingt verlockend, wenn eine solche Gesichtserkennung wirklich nur Kriminelle träfe, die im Begriff sind, weitere Straftaten zu begehen. Aber eine Kamera als “Auge des Gesetzes” kann auch die Gesichter unbescholtener Menschen erfassen. Und dann dürfen wir alle uns fragen, was die Sicherheitsbehörden wohl anfangen werden – mit dem, was sie auf unseren Gesichtern lesen. “Wer das Gesicht eines Menschen auf ein Foto bannt, der raubt diesem Menschen die Seele”. Dieser alte Glaube mancher Kulturen bekommt im digitalen Zeitalter ein ganz neues – Gesicht. Und zwar eines, das viele von uns in ähnlicher Weise beunruhigt. Gesicht zu zeigen – so sinnvoll das ist, wenn es um Politik und Zivilcourage geht, so problematisch wird es, wenn wir im öffentlichen Raum und im Netz unsere Identität verteidigen wollen.

Sein und Streit: Philosoph Geert Keil über Fehlbarkeit – Warum wir uns nie sicher sein können – und es trotzdem Wahrheit gibt (MP3, Info): Verrechnet, verlesen, verrannt – uns unterlaufen ständig Fehler. Trotzdem gibt es Dinge, die wir für unbedingt wahr halten, zum Beispiel, dass eins plus eins zwei ergibt. Wie können wir fehlbar und uns zugleich einer Sache bombensicher sein?

SWR2 Wissen: Lug und Trug im Internet – Die Mechanik der Täuschung (MP3): In den Zeiten der Digital-Pioniere galt das Internet einmal als Ermöglichung weltweiter Transparenz, einer Welt ohne Grenzen. Und heute: Das sind nur noch Utopien, das Internet zeigt sein anderes Gesicht: Fakes, Datenklau, Manipulation, Cybergrooming. Meint Dr. Marco Wehr, Physiker, Philosoph, Autor und Gründer
des Philosophischen Labors in Tübingen.

SWR2 Wissen: Gewaltfreie Kommunikation – Gute Idee, wenig Wirkung? (MP3): Konflikte lösen, ohne dass es Verlierer gibt – Das ist das Ziel der Gewaltfreien Kommunikation nach Marshall Rosenberg. In den 1980er Jahren hat sich die Idee verbreitet. Was hat sie seitdem erreicht?

SWR2 Forum: Namenlose Drohungen – Brauchen wir Klarnamen im Internet? (MP3): Ich habe dazu nur eine unfertige Meinung, denke gleichzeitig, dass Anonymität eine wertvolle Eigenschaft des Netzes und gleichzeitig ein gigantisches Problem bezüglich Desinformation und stochastische virtuelle Gewalttaten darstellt, wobei Untersuchungen auf Facebook zeigen, dass die Klarnamen dort das Problem höchstens einzuhegen vermögen.

Das moderne Individuum definiert sich über sein Ego – auch und gerade in der Massengesellschaft. Gesicht zeigen ist nicht nur eine Anstandsregel, sondern auch eine Frage bürgerlichen Stolzes.
Doch im Zeitalter der Internetkommunikation erscheint Anonymität als neuer Trumpf. Im Schutz der Namenlosigkeit wird gepöbelt und gedroht; zivilisierte Umgangsformen sind auf dem Rückzug. Würde eine Klarnamenpflicht, wie von manchen Politikern gefordert, den Ton im Web verbessern? Oder gibt es gute Gründe, sich dem Erkanntwerden zu entziehen?
Wäre die Identifizierung jedes Users überhaupt technisch machbar – und um welchen Preis? Und wie kommt es, dass die Politik beim Datenschutz dermaßen hochrüstet und zugleich solche Angst davor hat?

Content-Moderation intern als gefährlicher Beruf anerkannt, Arbeiter müssen PTSD-Klausel unterzeichnen

Casey Newton arbeitet sich auf The Verge bereits seit Jahren an den Arbeitsbedingungen der Content-Moderatoren ab. In Interviews fand er heraus, dass die mittlerweile an Unternehmensberatungen ausgelagerte Tätigkeit in unzähligen Fällen Mental Health-Issues erzeugte, die Moderatoren unter mutmaßlich illegalen Bedingungen arbeiten und diese psychologische Belastungen in der Vergangenheit praktisch ohne nennenswerte Begleitung durch Psychologen oder Mental Health-Maßnahmen ertragen mussten. Ein bisschen ist das so, als hätten die Zuckerbergs der Welt ihre neuen digitalen Städte (aka Plattformen) ohne Kanalisationssystem geplant und dann sie haben den Klempner outgesourced, wo er sich für Mindestlohn in seinen Überstunden Mental Health-Issues abholt.

Nun hat die Unternehmensberatung Accenture ein Dokument an ihre Youtube-Content-Moderatoren zur Unterzeichnung ausgegeben, mit dem die Mitarbeiter die Gefährlichkeit des Arbeitsplatzes und die Möglichkeit einer Erkrankung an einer Posttraumatischen Belastungsstörung (PTSD) anerkennen. Das Dokument wurde kurz nach der Veröffentlichung von Newtons Artikeln an die Moderatoren verteilt und darin wälzt das Unternehmen die Verantwortung für die geistige Gesundheit auf seine unterbezahlten Mitarbeiter ab, während man gleichzeitig die emotionale Belastung des Jobs formal anerkennt.

In einem Newsletter schreibt Newton nun davon, dass dieses Dokument nicht nur an Youtube-Moderatoren ausgegeben wurde, sondern auch an Moderatoren anderer Plattformen in den USA und Europa, offenbar bereitet sich Accenture mit dieser Vereinbarung auf kommende Gerichtsverhandlungen vor. Die ersten Moderatoren haben Klagen gegen ihre ehemaligen Arbeitgeber eingereicht. Als möglicherweise unbeabsichtiger Nebeneffekt gibt Accenture mit diesem Dokument praktisch zu, dass es sich bei der Moderation von Online-Content allgemein um einen gefährlichen Beruf handelt, der zu Einschränkungen der geistigen Gesundheit führen kann.

Ich erachte den Beruf des Content-Moderators als den wichtigsten Beruf unserer Zeit. Sie sind die Klempner, die dafür sorgen, dass das Internet zumindest oberflächlich nicht durch Gewalt und Porno überschwemmt wird. Genau wie die Erfindung der Abwassersysteme während der Industrialisierung Krankheiten eindämmte und zu einem gewaltigen gesellschaftlichen Sprung führte, sind es Systeme der Content-Moderation, die das Netz für uns alle ein wenig sicherer machen. Arbeitsplätze in diesem Bereich müssen massiv ausgebaut und besser bezahlt werden, während die Unternehmen die Sicherheit ihrer Arbeitnehmer gewährleisten und entsprechende Maßnahmen in ausreichender Menge zur Verfügung stellen.

The Verge: YOUTUBE MODERATORS ARE BEING FORCED TO SIGN A STATEMENT ACKNOWLEDGING THE JOB CAN GIVE THEM PTSD

“I understand the content I will be reviewing may be disturbing,” reads the document, which is titled “Acknowledgement” and was distributed to employees using DocuSign. “It is possible that reviewing such content may impact my mental health, and it could even lead to Post Traumatic Stress Disorder (PTSD). I will take full advantage of the weCare program and seek additional mental health services if needed. I will tell my supervisor/or my HR People Adviser if I believe that the work is negatively affecting my mental health.”

The PTSD statement comes at the end of the two-page acknowledgment form, and it is surrounded by a thick black border to signify its importance. It may be the most explicit acknowledgment yet from a content moderation company that the job now being done by tens of thousands of people around the world can come with severe mental health consequences.

“The wellbeing of our people is a top priority,” an Accenture spokeswoman said in an email. […]

The PTSD form describes various support services available to moderators who are suffering, including a “wellness coach,” a hotline, and the human resources department. (“The wellness coach is not a medical doctor and cannot diagnose or treat mental health disorders,” the document adds.)

It also seeks to make employees responsible for monitoring changes in their mental health and orders them to disclose negative changes to their supervisor or HR representative. It instructs employees to seek outside help if necessary as well. “I understand how important it is to monitor my own mental health, particularly since my psychological symptoms are primarily only apparent to me,” the document reads. “If I believe I may need any type of healthcare services beyond those provided by [Accenture], or if I am advised by a counselor to do so, I will seek them.”

The document adds that “no job is worth sacrificing my mental or emotional health” and that “this job is not for everyone” — language that suggests employees who experience mental health struggles as a result of their work do not belong at Accenture.

Aus Casey Newtons Newsletter: How tech companies should address their workers’ PTSD.

First, invest in research. We know that content moderation leads to PTSD, but we don’t know the frequency with which the condition occurs, or the roles most at risk for debilitating mental health issues. Nor have they investigated what level of exposure to disturbing content might be considered “safe.” It seems likely that those with sustained exposure to the most disturbing kind of photos and videos — violence and child exploitation — would be at the highest risk for PTSD. But companies ought to fund research into the issue and publish it. They’ve already confirmed that these jobs make the workforce ill — they owe it to their workforce to understand how and why that happens.

Second, properly disclose the risk. Whenever I speak to a content moderator, I ask what the recruiter told them about the job. The results are all over the map. Some recruiters are quite straightforward in their explanations of how difficult the work is. Others actively lie to their recruits, telling them that they’re going to be working on marketing or some other more benign job. It’s my view that PTSD risk should be disclosed to workers in the job description. Companies should also explore suggesting that these jobs are not suitable for workers with existing mental health conditions that could be exacerbated by the work. Taking the approach that Accenture has — asking workers to acknowledge the risk only after they start the job — strikes me as completely backwards.

Third, set a lifetime cap for exposure to disturbing content. Companies should limit the amount of disturbing content a worker can view during a career in content moderation, using research-based guides to dictate safe levels of exposure. Determining those levels is likely going to be difficult — but companies owe it to their workforces to try.

Fourth, develop true career paths for content moderators. If you’re a police officer, you can be promoted from beat cop to detective to police chief. But if you’re policing the internet, you might be surprised to learn that content moderation is often a dead-end career. Maybe you’ll be promoted to “subject matter expert” and be paid a dollar more an hour. But workers rarely make the leap to other jobs they might be qualified for — particularly staff jobs at Facebook, Google, and Twitter, where they could make valuable contributions in policy, content analysis, trust and safety, customer support, and more.

If content moderation felt like the entry point to a career rather than a cul-de-sac, it would be a much better bargain for workers putting their health on the line. And every tech company would benefit from having workers at every level who have spent time on the front lines of user-generated content.

Fifth, offer mental health support to workers after they leave the job. One reason content moderation jobs offer a bad bargain to workers is that you never know when PTSD might strike. I’ve met workers who first developed symptoms after a year, and others who had their first panic attacks during training. Naturally, these employees are among the most likely to leave their jobs — either because they found other work, or because their job performance suffered and they were fired. But their symptoms will persist indefinitely — in December I profiled a former Google moderator who still had panic attacks two years after quitting. Tech companies need to treat these workers like the US government treats veterans, and offer them free (or heavily subsidized) mental health care for some extended period after they leave the job.

Not all will need or take advantage of it. But by offering post-employment support, these companies will send a powerful signal that they take the health of all their employees seriously. And given that these companies only function — and make billions — on the backs of their outsourced content moderators, taking good care of them during and after their tours of duty strikes me as the very least that their employers can do.

Vorher auf Nerdcore:

Facebooks Inhalts-Moderatoren stecken sich mit Verschwörungstheorien an
Content Moderatoren und Community Manager sind die wichtigsten Berufe im Internet
Die psychologischen Folgen von Facebooks Content-Moderation

Tiefenunschärfe als fotojournalistische Meme: The Rise of the Blur

Kluges Essay von Dushko Petrovich im n+1-Mag über eine technisch-ästhetische Meme im Foto-Journalismus, die seit der Wahl Trumps immer häufiger als illustratives Gestaltungselement in Bildredaktionen genutzt wird: Tiefenunschärfe.

n+1: Rise of the Blur – A specter is haunting photojournalism—an actual, visible specter!

Fotografen arbeiten grundsätzlich mit sehr reduzierten Gestaltungsmitteln, ihnen bleibt 1. das zu fotografierende Motiv oder Ereignis, das sie 2. in einem wählbaren Fokus aus 3. einer Perspektive fotografieren. Und seit Trump rahmen die redaktionellen Bildgestalter ihre Motive immer häufiger in dunklen, unscharfen Objekten im Vordergrund, die das eigentliche Hauptmotiv partiell verdecken, sie selbst diffus wirken lässt. Die Bildredaktionen (in den USA) zeichnen ihre Fotografien heute nebulöser, „unfassbarer“ und verleihen ihnen damit eine subtil surreale Ästhetik, als noch zu während der Präsidentschaften von Bush oder Obama.

Petrovich führt führt das Entstehen dieser Meme auf zwei Ursachen zurück. Einerseits reagieren professionelle Fotografen auf die Allpräsenz von Fotografie-Technologie in unseren Smartphones, mit denen wir Fotografien mit professioneller Anmutung per Klick erstellen können, die dennoch technisch oft anspruchslos bleiben. Wo das iPhone den Hintergrund weichzeichnen kann für influenzerkompatiblere Insta-Fotos, steht einem Profifotograf das komplette Gestaltungsarsenal der Technik „Tiefenunschärfe“ zur Verfügung.

Andererseits und sehr viel interessanter ist diese ästhetische Meme selbstverständlich eine Reaktion auf eine Myriarde von Phänomenen: Der offenen Feindlichkeit der Trump-Regierung gegenüber der Presse, der zusammenbrechende gesellschaftliche Konsens auf alle möglichen Fakten und Ereignisse, die diffuse „Bedrohungslage“ durch unberechenbare Präsidenten oder den Klimawandel und schlußendlich auf die explosionsartige Komplexitätssteigerung durch Vernetzung und erhöhte Sichtbarkeit in sozialen Medien.

Petrovich beschreibt die Tiefenunschärfe-Meme im modernen Fotojournalismus als ästhetischen Ausdruck eines fast lovecraftschen „existential Dread“, einer existenziellen Bedrohung, die (scheinbar) unscharf außerhalb unseres Fassungsvermögens liegt. Eine total-sichtbare, globalisierte, hyperaktive und gleichzeitig unsichere Welt, bebildert in unscharfen, nebulösen, ungreifbaren Fotografien und die Bildredaktionen der Medien als Seismograph für die emotionale Verfasstheit der Menschen darin.

the blur functions best as an insinuation. It has an element of gossip about it. I want to say it is like a whisper or a murmur, but in fact, the blur functions wordlessly. When your mind tries to link it to “government corruption” or “systemic collapse,” the blur retreats.

That’s because it doesn’t illustrate the particular phenomenon, so much as our feelings—our dread—about what is going on outside of view, outside of our control. This might be why the blur is so often positioned like a velvet curtain. Nestled inside the relentless clarity of our Super Retina displays, the dark swath of pixels also comes as a kind of relief. The blurs are weirdly sensual. The framing is voyeuristic. We have access, the photographers seem to be saying, but we don’t have access. Unlike the other pervasive abstraction of our time—the black rectangle of government redaction—the blur is being inserted by the journalists themselves. It isn’t self-censorship though—it’s weirder than that. If anything, the blur has the heat and the blush of pure expression. Each instance, however, employs the tactic of plausible deniability. “A dark, looming figure just happened to block more than half of this otherwise perfect shot,” the photo says. News outlets have tended to parcel the blurs out one at a time, perhaps in an effort to preserve visual variety. But there’s another possibility: if you put all these pictures together, they accumulate to something monstrous, almost obscene.

SINCE 2016, the foreground blurs have grown not only in frequency but also in size. What was once a subtle framing became an interruption, then an encroachment; now the fuzziness regularly suffocates the subject. Trump, of course, has been pictured this way almost daily, with a dark blur closing in on him from all or most sides. His henchmen, too: Mulvaney, Barr, Bolton. But many others get the smudge treatment. In the past few weeks, in the Times alone, Adam Schiff had a black and red blur swirling all around him, to accompany a warning: “Democrats: Don’t Overreach on Impeachment.” Michael Bloomberg, entering the presidential race as a moderate, was put the middle of gargantuan blurs coming at him from all sides. Pete Buttigieg was shown stroking his chin behind a crowd of blurry forms to illustrate a piece about how he has “quit playing nice.” […]

And yet even as the blur metastasizes, Trump has regained his position at its vanguard. As he faced impeachment, Trump was no longer surrounded by blurs. He had, instead, become the blur. In a notable case of paper-of-record and magazine-of-record alignment, the New York Times and the New Yorker used extremely similar images to chronicle the extent to which the President found himself hemmed in by the impeachment inquiry. […]

It’s hard to say what will come next. Maybe more flames. It’s possible that the bright orange photos of Australia’s ravenous fires—arid Turner landscapes for the anthropocene—will also render all these blurs quaint and modest.