[Fakelinks 27.6.2019] 11 Deepfakes in 1; Die Banalität der Fälschung; Werner Herzogs extatische Wahrheit und die Meme-Warfare-Einheit der britischen Armee

What It’s Like To See Yourself In A Deepfake Porn Video

In addition to free, easy-to-use deepfake generator apps, there are now photo search engines (which HuffPost won’t name) that allow people to upload pictures of individuals to find porn actresses with similar features for optimal face-swapping results. There are even deepfake porn forums where men make paid requests for professional-looking videos of specific women, and share links to the women’s social media profiles for source imagery. HuffPost has observed requesters seeking porn with female Twitch, YouTube and Instagram influencers, as well as the requesters’ own co-workers, friends and exes.

On one such forum in March, someone asked for a sex video of Tina, a 24-year-old Canadian woman, and dropped a link to her YouTube channel. Four days later, a deepfake popped up that appeared to show her bent over naked on a bed with one man thrusting behind her and another stroking his penis near her head. The video, which is virtually seamless, is still up with thousands of views.

Die Banalität der Fälschung: Watching a Deepfake Being Made Is Boring, And You Must See It: AI-generated fake videos are hyped as a modern tech nightmare, and it’s important to understand their everyday banality.

Ross Marquand Is Everyone – 11-Deepfakes-In-One


Ich sage seit Jahren, dass der Wahrheitsgehalt von sogenannten Fake News keine Rolle spielt, da es tatsächlich um die Narrative und Meme geht, die mit den falschen Fakten transportiert werden. The Outline mit einem netten Text darüber, über die Meta-Wahrheiten von Fakes und Werner Herzogs Extatic Truth: Does anyone want to hear a story??? – Viral Twitter tales are often bullshit, but being made-up isn’t the worst thing about them.

These stories may or may not have actually, factually “happened.” But in a way, that hardly matters at all, because what they reveal about reality is vastly more compelling than any mere “facts.” It is not always clear exactly what the story reveals; it cannot, like a fact, be analyzed into a cluster of true statements. But it has a poetic significance: David Cameron — he just did shag a dead pig’s head, didn’t he? Scott Morrison — he just did shit himself in a suburban McDonald’s. Cameron’s whole personality is shagging a dead pig’s head, Morrison’s entire politics is shitting himself in a suburban McDonald’s.

In his 1999 statement of principles known as the “Minnesota Declaration,” Werner Herzog gave an explanation of his theory of “ecstatic truth”. Cinema Verité, Herzog tells us, deals only with “superficial truth, the truth of accountants.” “One well-known representative of Cinema Verité declared publicly that truth can be easily found by taking a camera and trying to be honest. He resembles the night watchman at the Supreme Court who resents the amount of written law and legal procedures. ‘For me,’ he says, ‘there should be only one single law: the bad guys should go to jail.’”

In this, Herzog says, such realism “confounds facts and truth”: “Facts create norms, and truth illumination.” But luckily, against the realists, “There are deeper strata of truth in cinema, and there is such a thing as poetic, ecstatic truth. It is mysterious and elusive, and can be reached only through fabrication and imagination and stylization.” In his work (most notably, his documentaries), Herzog seeks this “ecstatic truth”: to reflect reality not how it is on the surface, but how it is on a deep level, beyond the façade of what we merely perceive.

Kim Kardashian vs. Deepfakes – Can the Kardashian approach to taking down ultra-realistic fake videos work for others?: copyright law isn’t the solution to the spread of deepfakes. The high-profile deepfake examples we’ve seen so far mostly appear to fall under the “fair use” exception to copyright infringement.

Reddits GPT2-Subreddit-Simulator bastelt einen Thread über die Culture Wars nach.

NYTimes über Fake-Influencer: These Influencers Aren’t Flesh and Blood, Yet Millions Follow Them: Lil Miquela, who has 1.6 million Instagram followers, is a computer-generated character. Introduced in 2016 by a Los Angeles company backed by Silicon Valley money, she belongs to a growing cadre of social media marketers known as virtual influencers. Each month, more than 80,000 people stream Lil Miquela’s songs on Spotify. She has worked with the Italian fashion label Prada, given interviews from Coachella and flaunted a tattoo designed by an artist who inked Miley Cyrus.
Until last year, when her creators orchestrated a publicity stunt to reveal her provenance, many of her fans assumed she was a flesh-and-blood 19-year-old. But Lil Miquela is made of pixels, and she was designed to attract follows and likes.

WiredUK über die neue Spezialeinheit der britischen Armee für memetic warfare: Inside the British Army’s secret information warfare machine:

From office to office, I found a different part of the Brigade busy at work. One room was focussed on understanding audiences: the makeup, demographics and habits of the people they wanted to reach. Another was more analytical, focussing on creating “attitude and sentiment awareness” from large sets of social media data. Another was full of officers producing video and audio content. Elsewhere, teams of intelligence specialists were closely analysing how messages were being received and discussing how to make them more resonant.

Explaining their work, the soldiers used phrases I had heard countless times from digital marketers: “key influencers”, “reach”, “traction”. You normally hear such words at viral advertising studios and digital research labs. But the skinny jeans and wax moustaches were here replaced by the crisply ironed shirts and light patterned camouflage of the British Army. Their surroundings were equally incongruous – the 77th’s headquarters were a mix of linoleum flooring, long corridors and swinging fire doors. More Grange Hill than Menlo Park. Next to a digital design studio, soldiers were having a tea break, a packet of digestives lying open on top of a green metallic ammo box. Another sign on the wall declared, “Behavioural change is our USP [unique selling point]”. What on Earth was happening?

Russia used social media to keep EU voters at home, report finds: The report said it could not “identify a distinct cross-border” attempt to specifically target European elections. But, the report also found, “evidence collected revealed a continued and sustained disinformation activity by Russian sources aiming to suppress turnout and influence voter preferences.”

DFRLab über eine global angelegte russische Desinformationskampagne (mit, wie immer, unklarem Impact): Top Takes: Suspected Russian Intelligence Operation: A Russian-based information operation used fake accounts, forged documents, and dozens of online platforms to spread stories that attacked Western interests and unity. Its size and complexity indicated that it was conducted by a persistent, sophisticated, and well-resourced actor, possibly an intelligence operation.

Russian Op 1: Fantasy Assassins
Russian Op 2: Fanning Irish Flames
Russian Op 3: The Blue Man and the Mole
Russian Op 4: The Dark Lady Sings
Russian Op 5: Target Germany and Immigrants
Russian Op 6: EU Elections
Russian Op 7: Venom in Venezuela

Reddit stellt r/The_Donald unter „Quarantäne“

Reddit hat die „Pro-Trump-Community“ r/The_Donald unter „Quarantäne“ gestellt. Tatsächlich war die angebliche „Pro-Trump-Community“ der Deckmantel für das Mainstream-Einfalltor der miesesten Verschwörungstheorien von 4chan (QAnon, Pizzagate). Selbstverständlich heulen die „konservativen“ Arschlöcher nun wegen angeblicher Zensur, aber soweit ich weiß, steht es ihnen nach wie vor frei, einen Server zu mieten und ihre Meinung kundzutun. r/The_Donald ist weit von einer infrastrukturellen Instanz entfernt, ab der man von einem memi-öffentlichen Ort reden könnte. Anlass waren Gewaltaufrufe während des Bullshits von Oregon, den ich gestern in den Klimalinks verlinkt hatte.

Republikaner flohen über die Staatsgrenzen von Oregon, verstecken sich in Idaho, um die Abstimmung über ein Klima-Gesetz auszusitzen und ließen sich von privaten Milizen vor der Polizei beschützen. Das Prozedere (minus die Milizen) ist anscheinend dort „politische“ Praxis. Nun gab es dabei eben auch Aufrufe, um die Abgeordneten mit Waffengewalt vor dem (legalen) Zugriff der Polizei zu schützen. Es hätte mich gewundert, wenn diese Gewaltaufrufe nicht auch auf r/The_Donald stattgefunden hätten.

Es handelt sich hierbei nicht um „Zensur“, sondern um völlig banale Content Moderation. Reddit handelt hier nicht nur nach seinen eigenen Terms of Service, sondern auch im Sinne des gesunden Menschenverstandes, der Rechtsauslegern nicht nur bei diesen Temperaturverhältnissen gerne mal abhanden kommt.

NYTimes: Reddit Restricts Pro-Trump Forum Because of Threats

Reddit limited access to a forum popular with supporters of President Trump on Wednesday, saying that its users had violated rules prohibiting content that incites violence. Visitors to the The_Donald subreddit were greeted Wednesday with a warning that the section had been “quarantined,” meaning its content would be harder to find, and asking if they still wanted to enter. Site administrators said that users of the online community, which has about 750,000 members, had made threats against police officers and public officials.

“The reason for the quarantine is that over the last few months we have observed repeated rule-breaking behavior in your community and an overreliance on Reddit admins to manage users and remove posts that violate our content policy, including content that encourages or incites violence,” Reddit wrote in a message to the site’s moderators, who shared the note publicly on Wednesday.

“Most recently,” the message continued, “we have observed this behavior in the form of encouragement of violence toward police officers and public officials in Oregon.”

The posts came amid a partisan feud in Oregon over a climate change bill, in which Gov. Kate Brown, a Democrat, ordered the state police to corral Republican lawmakers who had fled the Capitol. There was a one-day closing of the Capitol after threats of militia violence.

The Verge: Reddit quarantines Trump subreddit r/The_Donald for violent comments

r/The_Donald members posted comments like “none of this gets fixed without people picking up rifles” and “[I have] no problems shooting a cop trying to strip rights from Citizens.” The posts were later removed.

The Reddit post describes the quarantine as the result of repeated rule-breaking, calling out r/The_Donald’s recent “encouragement of violence” against Oregonian officials.

Over the last few months we have observed repeated rule-breaking behavior in your community and an over-reliance on Reddit admins to manage users and remove posts that violate our content policy, including content that encourages or incites violence. Most recently, we have observed this behavior in the form of encouragement of violence towards police officers and public officials in Oregon. This is not only in violation of our site-wide policies, but also your own community rules (rule #9). You can find violating content that we removed in your mod logs.

As we have discussed in the past, and as detailed in our content policy and moderator guidelines, we expect you to enforce against rule-breaking content. You’ve made progress over the last year, but we continue to observe and take action on a disproportionate amount of rule-breaking behavior in this community. We recognize that you do remove posts that are reported, but we are troubled that violent content more often goes unreported, and worse, is upvoted.

Die Fälschung als digitale Möglichkeit

Zaynep Tufekci schreibt in einem kurzen Text auf Wired, das Internet habe aus uns allen Betrogene und Zyniker gemacht. Er meint damit, dass der digitale Raum von Fakes überschwemmt wird und in Folge dessen ein Zynismus gegenüber digitaler Realität herrscht, in dem nichts mehr als „echt“ wahrgenommen wird. Das Internet sei eine „Low-Trust-Society“ und er hat natürlich Recht damit. Amazon wird von gefälschten Reviews überschwemmt, die russische Troll-Army wiegelt Aktivisten-Gruppen gegenseitig auf und Influencer auf Instagram sind die scheinglücklichsten Menschen der Welt. Dann allerdings verkürzen er und Cory Doctorow auf Boing Boing das Phänomen auf eine Kritik des Kapitalismus, in der der digitale Fake eine Reflektion des Zynismus der Marktideologie darstellt.

Low-trust societies aren’t fun places to live. As Tufekci writes, “You expect to be cheated, often without recourse. You expect things not to be what they seem and for promises to be broken, and you don’t expect a reasonable and transparent process for recourse. It’s harder for markets to function and economies to develop in low-trust societies. It’s harder to find or extend credit, and it’s risky to pay in advance.”

I think Tufekci is right here, and moreover, I think that the low-trust society of the internet is a reflection of a reduction in the amount of trust in our society at large. On the one hand, you have decades of treating poor people as presumptive criminals, now codified in a set of automated systems that produce a “digital poorhouse,” that punishes truthfulness and requires everyone in the system to lie to fit the algorithm’s expectations.

Ich halte diese Analyse für eine Verkürzung, die davor zurückschreckt, die Ursachen für die Irrealität des Digitalen in den Bedingungen des digitalen Raumes selbst zu suchen. Und die Feed-Algorithmen bevorzugen auch nicht Fakes per se, sondern sie bevorzugen starke Emotionen, ob diese nun von einer Fälschung erzeugt wurden oder nicht.

Genau jetzt basteln Leute Fakes von Star Wars mit Nicolas Cage als Luke Skywalker und fiesere Trolle bauen Fake-Videos von Politikern, die betrunken wirken. Nicht weil sie sauer sind auf globale Konzerne oder weil der Kapitalismus die Entfremdung zwischen den Menschen beschleunigt, sondern weil es Spaß macht und Menschen seit sie auf zwei Beinen laufen können Freude an Fiktionen finden. Und selbstverständlich gibt es grundsätzlich bösartige Fälschungen, deren Motivation die gezielte Schädigung von Mitmenschen ist. Leute bezahlen Geld für Deepfake-Pornos mit dem Crush, Menschen legen Twitter-Accounts an, um ganze Netzwerke zu infiltrieren aus politischen oder persönlichen Gründen und auch hier ist die Motivation nicht (nur) Marktlogik, sondern kriminelle Energie, politische Agenda, dumme Geilheit oder reiner Sadismus.

Das Internet ist ein psychosozialer Baukasten, wir spielen hier Rollen und stellen Personen dar, die wir im wirklichen Leben nicht oder nur zu geringeren Anteilen erfüllen könnten. Wir basteln digitale Personae, die mal mehr, mal weniger mit unserem Realen selbst zu tun haben und nichts im Digitalen ist wirklich, bis auf den Kommunikationsprozess selbst, der sich allerdings ebenfalls dem digitalen Editierbarkeitsdogma unterwirft. Likes und Favs werden gekauft um unseren Status und unsere Sichtbarkeit zu erhöhen und man könnte Argumentieren, dass die Gamifizierung der Kommunikation per demokratisierter Massenmedien ein Ausdruck kapitalistischer Logik ist, aber soweit ich weiß, haben nicht große Konzerne Technologien wie Deepfakes entwickelt, sondern Wissenschaftler der KI-Forschung, die ihren Code als Open Source allen zur Verfügung stellten.

„On the internet no one knows you’re a dog“ ist einer der bekanntesten One-Liner der Internet-Philosophie und er kommt erst jetzt seit ein paar wenigen Jahren zu voller Tragweite. Das hat auch mit Ungleichheit zu tun, aber vor allem mit der Lust des Menschen am Spiel. Die antikapitalistische Analyse des digitalen Fake-Phänomens greift zu kurz und ihre Reduktion des Zynismus in der digitalen Welt auf eine Reflektion des (angeblichen) Zynismus im Spätkapitalismus verkennt sowohl psychologische Motivationen.

Aber es ist die grundsätzliche Editierfähigkeit aller Inhalte und unsere Lust an der Fiktion mit all ihren beeinflussenden Möglichkeiten, die den Fake zuvorderst erzeugt. Erst in einem zweiten Schritt erzeugen kapitalistische und/oder politische Motivationen Phänomene wie Fake News. Wer die grundsätzliche Fähigkeit des Digitalen ausblendet, fiktionale Realitäten der sozialen Kommunikation zu schaffen, dessen Analyse bleibt unvollständig. Und nicht zuletzt darf auch die Rolle von InfoSec-Aktivisten und Hackern nicht unerwähnt bleiben, die seit immer auf einem angeblichen Recht auf Anonymität pochen und damit das Spiel der Auflösung von Realität von Anfang an mitbetreiben, die nun von ihnen selbst beklagt wird.

Der digitale Fake als solcher ist auch ein Ausdruck kapitalistischer Wettbewerbslogik, innerhalb derer es einfacher und billiger ist, Likes und Reviews zu kaufen, statt sie sich zu erarbeiten. Aber vor allem ist der digitale Fake eine Nutzung digitaler Möglichkeiten, die durch die Codifizierung von Realität in 0 und 1 eine grundsätzlich veränderliche Wahrnehmung schafft. Wer das ausblendet, denkt in alten Mustern über neue Möglichkeiten nach.

Social Media als Marktplatz für eskalierenden Empörungs-Wettbewerb

Psychologen der Uni Stanford haben in Experimenten festgestellt, dass Menschen ihre Emotionen willensgesteuert kontrollieren und sich vor allem dann mit Empörung anderer anstecken lassen, wenn sie wütend werden wollen. Menschen regulieren also nicht nur ihre Emotionen, sondern auch den Grad emotionaler Ansteckung.

Nun wird es interessant: In einem zweiten Schritt untersuchten sie Empörung auf Social Media und stellten zunächst fest, dass Menschen vor allem auf wütende Äußerungen reagieren. Diese Erkenntnis ist nun nicht neu. Aber sie stellten ebenfalls fest, dass die Leute ihre Emotionen in einem Feedbackloop eskalieren lassen. Wenn wütende Menschen auf Social Media durch ähnlich wütende Reaktionen bestätigt werden, steigern sie ihre Wut. Meines Erachtens ist dies eine Wettbewerbssituation um Aufmerksamkeit, die Steigerung der Wut ist ein Mittel, um Aufmerksamkeit zu erlangen.

Da nun Aufmerksamkeit auf Social Media ein starker Motivator ist und Menschen daher eher Willens sind, ihre Emotionen online eskalieren zu lassen, bildet Social Media hier einen hervorragenden Motor für eine Eskalationsspirale, in der sich wütende Äußerungen immer weiter gegenseitig steigern. Die Forscher formulieren in dieser Studie auch explizit starke Emotionen als Signal an die Peer-Group und bestätigen damit das Phänomen des Virtue Signaling.

Ich bezeichne diese Mechanismen seit ein paar Jahren als Outrage Memetik und freue mich sehr, dass sie nun empirisch bestätigt wurde.

Medical Express: Examining how people’s emotions are influenced by others
Paper: Beyond emotional similarity: The role of situation-specific motives

In a new study, Stanford psychologists examined why some people respond differently to an upsetting situation and learned that people’s motivations play an important role in how they react. Their study found that when a person wanted to stay calm, they remained relatively unfazed by angry people, but if they wanted to feel angry, then they were highly influenced by angry people. The researchers also discovered that people who wanted to feel angry also got more emotional when they learned that other people were just as upset as they were, according to the results from a series of laboratory experiments the researchers conducted. […]

The researchers also looked at social media where they could see how emotions played out in real time. They focused on the unrest that emerged on Twitter following the shooting of Michael Brown in Ferguson, Missouri, in 2014.

After analyzing almost 19 million Twitter posts, the researchers found that Twitter users were more influenced by stronger emotions expressed by people in their social network compared to weaker and calmer reactions. They also found that when Twitter users responded to tweets that were similar in emotional intensity to their earlier reactions, the users amplified their emotions to express stronger outrage than others in their social network. […]

“Our emotions are not passive nor automatic,” Goldenberg said. “They are a little bit of a tool. We have the ability to use our emotions to achieve certain goals. We express certain emotions to convince other people to join our collective cause. On social media, we use emotions to signal to other people that we care about the issues of a group to make sure people know we’re a part of it.”

Der Fall Lübcke als Stochastischer Terrorismus

Der Fall Lübcke ist meines Erachtens ein Fall Stochastischen Terrorismus, ein Begriff der seit einigen Jahren für Gewalt- und Terroranschläge genutzt wird, die von einem scheinbar zufälligen, alleine handelnden, aber gut vernetzten Täter begangen werden, die durch radikalisierende Nutzung von Massenmeden inspiriert werden und die daher kaum einzudämmen sind.

Es handelt sich bei Stephan E. um einen offensichtlich gut vernetzten Nazi, der auf die massenhaft geäußerten und viral gegangenen Todesdrohungen gegen Lübcke reagierte und diese in die Tat umsetzte. Dazu passen die neuen Organisationsformen des Rechtsextremismus, der sich nicht mehr in sichtbaren Verbänden und Gruppierungen vernetzt, sondern die Möglichkeiten des Internets zur flüchtigen, spontanen Organisation nutzt.

Rechtsextreme Gruppierungen wie der Verein “Sturm 18” und der “Freie Widerstand” wurden verboten oder treten öffentlich nicht mehr in Erscheinung. Die klassische Kameradschaft gebe es immer weniger, lediglich die NPD und Identitäre Bewegung würden noch sichtbar auftreten.

“Das hat damit zu tun, dass es dieser Organisationformen nicht mehr bedarf”, sagte Becker. Menschen kommunizierten anders, soziale Netzwerke spielten eine große Rolle. Statt lokaler Vernetzung erlebe man eine hohe Mobilität zu Veranstaltungen mit rechten Anknüpfungspunkten. So komme es zu skurrilen Mischungen, beispielsweise mit der Kampfsport-, Gelbwesten- oder Hooliganszene. “Selbst wenn es sich um einen Einzeltäter handeln sollte, darf man nicht davon ausgehen, dass er völlig isoliert von anderen Personen mit rechtsextremer Einstellung ist”, sagte Becker.

Interessant und keinesfalls neu ist nun an diesem Fall des stochastischen Terrorismus ist nun, dass die Morddrohungen gegen den Politiker nicht von einer zentrale Instanz geäußert wurden (wie es beim Setting des klassischen Begriff des Stochastischen Terrorismus aus dem „War on Terror“ der 2000er noch der Fall ist), sondern dass die Morddrohungen aus einem (digitalen) Schwarm kamen. Verstärkt wurden diese viralen Drohungen durch prominente rechte Accounts und die AFD, deren Äußerungen immer hart an der Legalität entlangschrammen.

Grade prominente Rechte sind in einer massenmedialen Welt ein Kernfaktor für diese Form des Terrorismus. Sie multiplizierten die Viralität der Hetze gegen Lübcke, produzierten durch diese Viralität eine Art „Ambient Threat“ und sorgten so für ein Bedrohungsklima, in dem der bereits radikalisierte Stephan E. die virale Mordphantasie des rechten Schwarms umsetzen konnte. Die Viralität der Nazi-Hetze zeigt hier eine Parallele zum Terroranschlag von Christchurch, der ebenfalls einen Akt stochastischen Terrors darstellte.

Wenn der Sprecher der AfD-Bundestagsfraktion, Christian Lüth, nun Vorwürfe bestreitet, die AfD habe den Nährboden für derartige Taten bereitet, dann hat er entweder keinerlei Ahnung von den Bedingungen moderner, vernetzter Gesellschaften oder er lügt. Ich vermute beides.

Ansonsten, dies:

The more you express yourself – the more we own you 😶

17. Juni 2019 12:33 | #Allgemein #Deepfake #Facebook #Kunst #synch

Algo-Zuck sez: „I wish I could keep telling you that our mission in life is connecting people, but it isn’t. We just want to predict your future behaviors.“

SPECTRE showed me how to manipulate you into sharing intimate data about yourself and all those you love for free. The more you express yourself – the more we own you 😶

Deepfake Zuckerberg and Deepfake Kardashian love manipulating people online for money!

12. Juni 2019 11:55 | #Allgemein #Deepfake #Kunst #synch #Tech

Großartige Arbeit von Medienkünstler Bill Posters (Mitgründer des bekannten Brandalism-Kollektivs), der für seine Installation SPECTRE eine ganze Reihe von Deepfakes produziert hat. Mark Zuckerberg erzählt nun auf Instagram, wie er das Datensammeln von SPECTRE gelernt hat (anscheinend in Anlehnung an die Villain-Orga von Blofeld aus James Bond) und Kim Kardashian erzählt freimütig, wie geil sie es findet, Leute im Netz für Geld zu manipulieren.

Fake-Zuck sez: „Imagine this for a second: One man, with total control of billions of people’s stolen data, all their secrets, their lives, their futures. I owe it all to Spectre. Spectre showed me that whoever controls the data, controls the future.“

Fake Kardashian sez: „When there’s so many haters I really don’t care because their data has made me rich beyond my wildest dreams my decision. To believe in SPECTRE literally gave me my ratings and my fan base. I feel really blessed because I genuinely love the process of manipulating people online for money.“

Facebook/Instagram sah sich zu einem Statement gezwungen: „According to a spokesperson, Facebook will not be removing the video, following the same policy applied to a distorted, viral video of House Speaker Nancy Pelosi only a few weeks ago. ‘We will treat this content the same way we treat all misinformation on Instagram’, a spokesperson told The Verge. ‘If third-party fact-checkers mark it as false, we will filter it from Instagram’s recommendation surfaces like Explore and hashtag pages.’“

Spectre, a new art installation by Bill Posters and Daniel Howe, is poised to reveal the secrets of the Digital Influence Industry, but only if you are willing, as the artists say, to ‘pray at the altar of Dataism with the Gods of Silicon Valley’. […]

Spectre interrogates and reveals many of the common tactics and methods that are used by corporate or political actors to influence people’s behaviours and decision making. This runs through all aspects of the project, from our social media strategy featuring celebrity ‘Influencers’; to the A/B testing processes used in development; to the ‘personalised’ features integral to the gaming industry; to the technologies, algorithms and behavioural profiling used throughout Spectre’s system. In response to the recent global scandals concerning data, democracy, privacy and digital surveillance, we wanted to tear open the ‘black box’ of the digital influence industry and reveal to others what it is really like.

As part of Spectre, Bill Posters and Daniel Howe have collaborated with leading AI technology start-ups including CannyAI, Respeecher and Reflect, to create a range of AI-generated ‘deep fake’ celebrities – including dead and living artists – that push the fields of generative art and digital storytelling to new heights.

Sieh dir diesen Beitrag auf Instagram an

Ein Beitrag geteilt von Bill Posters (@bill_posters_uk) am Jun 7, 2019 um 7:15 PDT

[Memetik-Links 9.6.2019] Youtube als Leitmedium für Jugendliche; Youtube als Wut-Distributor; Youtube als Radikalisierungsalgorithmus

• Cnet entdeckt im Jahr 2019 das Phänomen der Angry Videogame Nerds und behauptet, das sei neu: Meet the angry gaming YouTubers who turn outrage into views: The video game world is no stranger to controversy, but a new class of YouTube commentators is turning anger into influence.

‘Being mean is lucrative’: queer users condemn YouTube over homophobic content:

“When YouTube allowed monetization for all creators, it empowered a group of people to create content, not because they were passionate about it, but because it made them a lot of money,” Blaque said. “With that, you have people who inevitably find out that being mean to other people is lucrative.”

“When YouTube allowed monetization for all creators” impliziert, YT solle Monetarisierung nur für bestimmte Nutzergruppen erlauben, eine absurde Vorstellung. Und ja, „gemein sein“ (also vor allem: „wütend sein“) zahlt sich aus. Rants sind die Posting-Form mit dem meisten Engagement (und sind daher am lukrativsten) auf allen Plattformen seit es Internet gibt, und zwar aus psychologischen Gründen. Deshalb müssen wir aber Netzwerkeffekte der Wut reden, über verteilte Verantwortung („Distributed Responsibility“) und Stochastisches Mobbing (in Anlehnung an Stochastischen Terrorismus) und wie Plattform-Design diesen Effekten entgegenwirken kann. Wir sollten ebenfalls eine offene Diskussion darüber führen, ob Bad Actors (vulgo „Arschlöcher“) und geschützte Minderheiten auf gemeinsamen quasi-infrastrukturellen Plattformen koexistieren können und wie wir mit den resultierenden psychologischen Effekten umgehen sollen.

Es könnte helfen, sich an den Offline-Orten umzusehen, die genau solche infrastrukturellen Zusammenkunftsorte darstellen: Schulen. Dort kommen Menschen aller Art zusammen und auch dort kommt es zu denselben Phänomenen des memetischen Mobbings etwa durch Gerüchte oder Rufmord, die sich oft auch in Gewalt entladen. Es haben sich dort Mechanismen herausgebildet, die dem entgegenwirken: Streetworker, Vertrauenslehrer, Mentoren – zu all diesen Berufen gibt es (noch) kein Online-Äquivalent. YT und generell Plattformen haben die Verantwortung, neue Berufe rund um menschliche Kommunikation und Online-Publishing zu erfinden („De-Eskalierer“, „Verhandlungsführer“, „Schiedsrichter“, „Schlichter“) zu erfinden und mehr gutbezahlte Content-Moderatoren einzustellen, denn –>

„Für Jugendliche ist YouTube ein Leitmedium“. Und da Massenmedien durch ihre Synchronisationsfunktion nicht weniger als Gesellschaft konstituieren, ist Youtube der Ort, an dem Jugendliche ihre Gesellschaft aushandeln. YT muss sich dieser Verantwortung bewusst werden. Hier die Studie: Jugendliche nutzen YouTube als Bildungs- und Kulturort.

• Ein Gericht in Santa Clara County hat die Beweisaufnahme im Prozess gegen Google wegen der Job-Diskriminierung von Konservativen angeordnet: Google discrimination case first brought by James Damore can proceed und Google must face lawsuit alleging hiring bias against conservatives, judge rules. Ich schätze mal, in den internen Mailinglisten und auf den Chatservern werden jetzt grade fleißig Postings gelöscht. James Damores „Google-Memo“ hatte vor zwei Jahren eine globale Debatte um den Anteil von Frauen in Tech-Berufen ausgelöst, Damore hatte in einem internen Paper wissenschaftliche Studien zusammengetragen, die eine alternative Erklärung zum geringeren Interesse von Frauen an Tech-Berufen lieferten, die vom gängigen identitär-feministischen Narrativ der Diskriminierung abweicht. Er wurde daraufhin gefeuert und Medien (auch in Deutschland) überschlugen sich mit persönlichen Angriffen auf den angeblichen Sexisten. Die Anklage kann nun interne Dokumente, Chatprotokolle und Herausgabe von Mails von Google einklagen und es dürften einige interessante Dinge dabei ans Tageslicht kommen. Mein Mitleid mit der illiberalen Linken auf dem Google Campus hält sich in Grenzen, sie (und die beteiligten Medien) haben sich dieses Desaster selbst zuzuschreiben.

The Making of a Youtube-Radical:

YouTube has been a godsend for hyper-partisans on all sides. It has allowed them to bypass traditional gatekeepers and broadcast their views to mainstream audiences, and has helped once-obscure commentators build lucrative media businesses.

It has also been a useful recruiting tool for far-right extremist groups. Bellingcat, an investigative news site, analyzed messages from far-right chat rooms and found that YouTube was cited as the most frequent cause of members’ “red-pilling” — an internet slang term for converting to far-right beliefs. A European research group, VOX-Pol, conducted a separate analysis of nearly 30,000 Twitter accounts affiliated with the alt-right. It found that the accounts linked to YouTube more often than to any other site.

The Disturbing Power of Information Pollution: We are polarized, not just over values, and not even over just the facts — but over the very standards for knowledge we employ.

Culture Wars in the Knitting-Scene still going strong


Psychiater über echte und falsche Opfer im Netz: In der Opferrolle gewinnt man Autorität (MP3): Opfer zu werden, heißt ausgeliefert sein – keine erstrebenswerte Rolle. Dennoch generiert sie im Netz immer wieder Aufmerksamkeit. Der Psychiater Jan Kalbitzer sieht hinter ausgedachten Opfer-Inszenierungen auch den Wunsch nach Anerkennung und Immunität.

In conversation: Natalie Wynn on Seizing Ground in Reactionary-Occupied Youtube: Current Affairs editor-in-chief Nathan J. Robinson and contributing editor Aisling McCrea sits down with left-wing Youtube superstar Natalie Wynn (aka Contrapoints) to talk about her work making unforgettable left-wing videos in the Age of Reactionary-Occupied Youtube.

Rebel Wisdom: David Pakman: Politics, media & reality tunnels (too much talk about Dave Rubin in this one, but the interview gets interesting in the second half).

Textbasierte Videobearbeitung durch Editierung des Transkripts

In Stanford haben sie einen Algorithmus entwickelt, der die Bearbeitung von Videos erlaubt, in dem man den Text des Dialogs ändert. Der Algo beschränkt sich derzeit auf „Talking Head“-Videos, also Clips von Leuten die in die Kamera labern. Die Technologie editiert gleichzeitig Audio und Video, ist also eine hervorragende Methode, um Film-Dialoge in Post-Production zu ändern, oder eben um Karrenbauer, Trump oder Youtubern in Post-Truth alle möglichen Worte in den Mund zu legen weil nothing is real.

Stanford News: Stanford engineers make editing video as easy as editing text
Paper: Text-based Editing of Talking-head Video

Should an actor or performer flub a word or misspeak, the editor can simply edit the transcript and the application will assemble the right word from various words or portions of words spoken elsewhere in the video. It’s the equivalent of rewriting with video, much like a writer retypes a misspelled or unfit word. The algorithm does require at least 40 minutes of original video as input, however, so it won’t yet work with just any video sequence.

As the transcript is edited, the algorithm selects segments from elsewhere in the recorded video with motion that can be stitched to produce the new material. In their raw form these video segments would have jarring jump cuts and other visual flaws.

To make the video appear more natural, the algorithm applies intelligent smoothing to the motion parameters and renders a 3D animated version of the desired result. However, that rendered face is still far from realistic. As a final step, a machine learning technique called Neural Rendering converts the low-fidelity digital model into a photorealistic video in perfect lip-synch.

Ethical Considerations:

Our text-based editing approach lays the foundation for better editing tools for movie post production. Filmed dialogue scenes often require re-timing or editing based on small script changes, which currently requires tedious manual work. Our editing technique also enables easy adaptation of audio-visual video content to specific target audiences: e.g., instruction videos can be fine-tuned to audiences of different backgrounds, or a storyteller video can be adapted to children of different age groups purely based on textual script edits. In short, our work was developed for storytelling purposes.

However, the availability of such technology — at a quality that some might find indistinguishable from source material — also raises important and valid concerns about the potential for misuse. Although methods for image and video manipulation are as old as the media themselves, the risks of abuse are heightened when applied to a mode of communication that is sometimes considered to be authoritative evidence of thoughts and intents. We acknowledge that bad actors might use such technologies to falsify personal statements and slander prominent individuals. We are concerned about such deception and misuse.

Therefore, we believe it is critical that video synthesized using our tool clearly presents itself as synthetic. The fact that the video is synthesized may be obvious by context (e.g. if the audience understands they are watching a fictional movie), directly stated in the video or signaled via watermarking. We also believe that it is essential to obtain permission from the performers for any alteration before sharing a resulting video with a broad audience. Finally, it is important that we as a community continue to develop forensics, fingerprinting and verification techniques (digital and non-digital) to identify manipulated video. Such safeguarding measures would reduce the potential for misuse while allowing creative uses of video editing technologies like ours.

Youtube löscht Holocaust-Leugnung und Nazis, demonitarisiert Rightwing-Latenighter

Youtube entfernt endlich extremistische Videos, Clips die den Holocaust leugnen und Verschwörungstheorien um Gewaltakte wie Terroranschläge oder Amokläufe: „YouTube announced plans on Wednesday to remove thousands of videos and channels that advocate neo-Nazism, white supremacy and other bigoted ideologies in an attempt to clean up extremism and hate speech on its popular service. The new policy will ban ‘videos alleging that a group is superior in order to justify discrimination, segregation or exclusion’, the company said in a blog post. The prohibition will also cover videos denying that violent events, like the mass shooting at Sandy Hook Elementary School in Connecticut, took place.“

Gleichzeitig haben sie den Channel des Rightwing-Latenighters Steven Crowder demonetarisiert. Mit dieser Lösung in der Sache Maza/Crowler kann ich gut leben: „After nearly a week of sustained controversy, YouTube announced Wednesday that the platform will demonetize the channel of one of its most popular right-wing users due to ‘continued egregious actions’ after his harassment of a gay journalist in his videos was called out. […] However, YouTube will not be removing Crowder’s channel from the platform, spokespeople told VICE in an email.“