Top Qs
Chronologie
Chat
Contexte

Slop (intelligence artificielle)

média utilisant l'intelligence artificielle De Wikipédia, l'encyclopédie libre

Slop (intelligence artificielle)
Remove ads

Le slop (aussi appelé AI Slop) est un média de mauvaise qualité, comprenant des textes, des sons et des images, réalisé à l'aide d'une technologie d'intelligence artificielle générative[3],[4],[1]. Inventé dans les années 2020, le terme a une connotation péjorative proche de celle de « spam »[3].

Thumb
Thumb
Thumb
La multitude d'images générées par l'IA de « Jésus des Crevettes » (Shrimp Jesus) sont un exemple couramment utilisé de « Slop[1],[2] ».

Le slop a été défini de diverses manières : « encombrement numérique »[5], « contenu de remplissage produit par des outils d'IA qui privilégient la vitesse et la quantité au détriment du contenu et de la qualité »[5], « déluge d'images, de sons et de texte vomi par les logiciels d'IA générative, qui pullule dans notre quotidien » [6]et « contenu d'IA de mauvaise qualité ou indésirable, trouvé dans les médias sociaux, l'art, les livres et, de plus en plus, dans les résultats de recherche »[7].

Jonathan Gilmore, professeur de philosophie à la City University de New York, décrit le « style incroyablement banal et réaliste » de l'IA slop comme étant « très facile à reproduire »[8].

Remove ads

Origine du terme

Alors que les grands modèles linguistiques (LLM) ont accéléré la création de contenus écrits et d’images en grand volume mais de faible qualité, la question est apparue de nommer le phénomène. Les termes proposés comprenaient « déchets d'IA » (AI garbage), « pollution par l'IA » (AI pollution) et « scories générées par l'IA » (AI-generated dross)[4]. Le terme « slop » apparaît quant à lui en réaction à la sortie des générateurs d'art par IA en 2022[7]. Son utilisation précoce a été notée dans les sections de commentaires de 4chan, Hacker News et YouTube comme une forme d'argot de groupe[7].

Remove ads

Sur les réseaux sociaux

Résumé
Contexte
Thumb
Image générée à l'aide d'une invite de dialogue conçue pour plaire à un public américain, issue d'un séminaire en hindi : american soldier veteran holding cardboard sign that says 'today's my birthday, please like' injured in battle veteran war american flag[3].

Les images et vidéos réalisées par l'IA ont proliféré sur les réseaux sociaux, en partie parce qu'elles généraient des revenus pour leurs créateurs sur Facebook et TikTok. Cette manne incite les individus des pays en développement à créer des images qui plaisent au public des États-Unis, ce qui leur permet d'obtenir des tarifs publicitaires plus élevés[9],[10],[11].

Le journaliste Jason Koebler a émis l'hypothèse que la nature bizarre de certains contenus pourrait être due au fait que les créateurs utilisent des invites en hindi, en ourdou et en vietnamien (des langues sous-représentées dans les données de formation du modèle), ou utilisent des méthodes de conversion de la parole en texte erratiques pour traduire leurs intentions en anglais[9].

En parlant au magazine New York, un créateur kenyan d'images de synthèse a décrit comment il avait donné à ChatGPT une invite telle que « ÉCRIVEZ-MOI 10 PHOTOS DE JÉSUS QUI APPORTERONT UN ENGAGEMENT ÉLEVÉ SUR FACEBOOK », pour les introduire ensuite dans un service d'IA de conversion de texte en image tel que Midjourney[3].

Remove ads

En politique

Le magazine américain The Atlantic note que les logiciels malveillants d'IA étaient de plus en plus associés à la droite politique aux États-Unis, qui les utilisait pour publier du shitposting et du rage-baiting sur les réseaux sociaux ; la technologie offrant « du contenu bon marché, rapide et à la demande »[12].

Ainsi, au lendemain du passage de l'ouragan Helene aux États-Unis, une image générée par l'IA d'une jeune fille tenant un chiot assise dans un bateau flottant sur les eaux inondées a-t-elle circulé parmi les membres du Parti républicain, qui l'ont utilisée comme preuve de l'échec de l'administration de Joe Biden, le président américain, à répondre à la catastrophe[13]. Certains partagent l'image sur les réseaux sociaux tout en reconnaissant qu'elle n'était pas authentique[14],[15].

Dans la publicité

Résumé
Contexte
Thumb
Capture d’écran d’une publicité de Noël de Coca-Cola assistée par IA, où le logo apparaît mal orthographié en « Coca-Coola »

En novembre 2024, Coca-Cola a utilisé l’intelligence artificielle pour produire trois publicités dans le cadre de sa campagne annuelle de Noël. Ces vidéos ont immédiatement reçu un accueil négatif de la part du public et des artistes[16]. L’animateur Alex Hirsch, créateur de Gravity Falls, a notamment critiqué la décision de la société de ne pas employer d’artistes humains[17]. En réponse, l’entreprise a défendu son choix en affirmant que « Coca-Cola restera toujours attachée à créer le plus haut niveau de travail à l’intersection de la créativité humaine et de la technologie »[18].

En mars 2025, Paramount Pictures a été critiqué pour avoir utilisé un script et une narration générés par IA dans une vidéo Instagram destinée à promouvoir le film Novocaïne[19]. La publicité utilisait une voix artificielle robotisée, dans un style similaire à celui de vidéos de piètre qualité produites par des fermes à contenu. A24 a subi des critiques comparables après avoir diffusé une série d’affiches générées par IA pour le film Civil War en 2024. L’une d’elles représentait un groupe de soldats dans un radeau blindé prêt à tirer sur un grand cygne, une scène qui ne correspondait en rien au film[20],[21].

Le même mois, Activision a diffusé sur des plateformes comme Facebook et Instagram plusieurs publicités et affiches pour de faux jeux vidéo tels que « Guitar Hero Mobile », « Crash Bandicoot: Brawl » et « Call of Duty: Zombie Defender », tous créés à l’aide d’IA générative et qualifiés par beaucoup de « slop »[22]. L’entreprise a ensuite expliqué que ces publications servaient en réalité de sondage pour mesurer l’intérêt du public envers de possibles futurs titres[23].

La tendance de l'Italian brainrot, issue des contenus IA, a par ailleurs été largement adoptée par les publicitaires pour tenter de séduire les jeunes audiences[24].

Remove ads

Dans les listes d'événements

Des graphismes promotionnels fantastiques réalisés pour l'événement Willy's Chocolate Experience de février 2024, qualifiés de « slop »[25], ont induit le public en erreur en le poussant à assister à un événement qui, en réalité, se déroulait dans un entrepôt décoré bon marché. Un utilisateur de Reddit s'est dit surpris de voir que les gens achetaient des billets pour l'événement uniquement sur la base de publicités Facebook générées par l'IA, sans aucune véritable photographie du lieu[26].

Remove ads

Dans les livres

Les libraires en ligne et les fournisseurs de bibliothèques proposent désormais de nombreux titres rédigés par des intelligences artificielles, qui ne sont pas sélectionnés ni intégrés aux collections par des bibliothécaires. Le distributeur de médias numériques Hoopla, qui fournit aux bibliothèques des livres numériques et des contenus téléchargeables, propose ainsi des ouvrages générés par IA, attribués à des auteurs fictifs et de qualité discutable, lesquels occasionnent des coûts pour les bibliothèques lorsqu’ils sont empruntés par des usagers non avertis[27].

Remove ads

Dans la science

Thumb
Un article (désormais rétracté) publié dans la revue Frontiers in Cell and Developmental Biology comportait cette illustration générée par IA avec un texte dénué de sens.

L’IA générative a été utilisée pour rédiger des articles publiés aussi bien dans des revues prédatrices que dans des journaux scientifiques réputés[28]. En 2024, un article évalué par les pairs contenant une image générée représentant un rat doté de parties génitales disproportionnées, accompagnée de texte et de schémas absurdes, a été rétracté par Frontiers in Cell and Developmental Biology après avoir attiré l’attention de scientifiques sur les réseaux sociaux[29],[30].

Remove ads

Dans la musique

Résumé
Contexte

En juillet 2025, de nombreux médias ont rapporté des accusations selon lesquelles un groupe indépendant nommé The Velvet Sundown, qui avait réuni en seulement quelques semaines plus de 850 000 auditeurs sur Spotify, serait généré par IA. Les critiques ont relevé l’absence de traces de concerts, l’inexistence de comptes sur les réseaux sociaux pour les membres du groupe, ainsi que le caractère artificiel de leurs images promotionnelles[31]. L’outil de détection d’IA de Deezer a signalé que la musique du groupe était générée à 100 % par une intelligence artificielle. Un compte non affilié, se présentant comme celui du groupe, a toutefois nié l’utilisation d’IA dans la création de leur musique[31],[32],[33]. Toutefois, dans la semaine suivante, la biographie de l’artiste sur Spotify a été mise à jour pour indiquer que le groupe était « un projet musical synthétique guidé par une direction créative humaine, composé, interprété et visualisé avec le soutien de l’intelligence artificielle », présenté comme une « provocation artistique »[34][35]. À cette date, The Velvet Sundown comptait plus d’un million d’auditeurs mensuels sur Spotify[36]. Selon un ancien employé de Spotify, ce succès s’explique probablement par deux facteurs : d’une part, Spotify accepte désormais des paiements pour améliorer le placement dans ses playlists, et d’autre part, ces dernières sont de plus en plus sélectionnées par des algorithmes plutôt que par des humains[35]. Plus tôt, Rolling Stone, (qui avait qualifié The Velvet Sundown d’« évidemment fictif »), avait rapporté que le porte-parole du groupe, Andrew Frelon, avait reconnu que leur musique était une « farce artistique » générée avec l’outil Suno. Toutefois, Frelon a ensuite affirmé que cette déclaration était elle-même une supercherie et qu’il n’avait aucun lien avec le groupe[37][31][38].

L’IA a également été utilisée pour usurper l’identité de musiciens établis et publier de la musique sur les principales plateformes de streaming sous leur nom à leur insu, vraisemblablement pour générer des revenus de redevances de diffusion. En août 2025, plusieurs artistes de folk-rock et d’Americana, dont Jeff Tweedy, Father John Misty et Blaze Foley (décédé en 1989), ont ainsi été imités, tout comme certains musiciens américains de musique chrétienne contemporaine et des groupes de metalcore. Ces fausses publications, qui présentaient toutes des pochettes générées par IA et attribuées aux mêmes trois maisons de disques, mentionnaient fréquemment « Zyan Maliq Mahardika » comme auteur-compositeur, laissant penser à une source unique. Spotify a supprimé ces morceaux en déclarant qu’ils « violaient notre politique contre l’usurpation d’identité d’une personne ou d’une marque »[39].

Remove ads

Dans les jeux vidéo

Résumé
Contexte

Le jeu Call of Duty: Black Ops 6 inclut des éléments générés par intelligence artificielle. Depuis la sortie initiale du jeu, de nombreux joueurs ont accusé Treyarch et Raven Software d’avoir utilisé l’IA pour créer certains contenus, tels que des écrans de chargement, des emblèmes et des cartes d’appel. Un exemple particulier est un écran de chargement du mode zombies représentant « Necroclaus », un Père Noël zombifié avec six doigts à une main, une image présentant également d’autres anomalies[40]. L’opus précédent, Call of Duty: Modern Warfare III, avait également été accusé de vendre des cosmétiques générés par IA[41].

En février 2025, Activision a reconnu l’utilisation de l’intelligence artificielle générative dans Black Ops 6 afin de se conformer aux règles de Valve concernant les produits générés ou assistés par IA publiés sur Steam. Sur la page du jeu, l’éditeur précise : « Notre équipe utilise des outils d’IA générative pour aider à développer certains contenus du jeu »[42].

En 2024, Rovio Entertainment a publié une démo d’un jeu mobile intitulé Angry Birds: Block Quest sur Android. Le jeu comportait des images générées par IA utilisées dans les écrans de chargement et les arrière-plans[43]. Il a été vivement critiqué par les joueurs, qui l’ont qualifié de « shovelware » et ont désapprouvé l’utilisation d’images issues de l’IA[44],[45]. Le jeu a finalement été abandonné et retiré du Play Store.

Dans le cinéma et la télévision

Résumé
Contexte

Certains films ont été critiqués pour leur utilisation de contenus générés par intelligence artificielle. Le film Late Night with the Devil s’est notamment distingué par l’usage d’IA, ce que certains ont dénoncé comme étant du « slop »[46],[47]. Plusieurs images de faible qualité générées par IA ont été utilisées comme cartons de transition, dont une représentant un squelette avec une structure osseuse incorrecte et des doigts mal formés, détachés de ses mains[48].

Certaines plateformes de streaming comme Amazon Prime Video ont également eu recours à l’IA pour générer des affiches et des vignettes, parfois qualifiées de « slop ». Une affiche de piètre qualité a ainsi été utilisée pour le film Nosferatu de 1922, représentant Comte Orlok d’une manière qui ne correspondait pas à son apparence dans le film[49]. Une vignette de Douze Hommes en colère sur Amazon Freevee montrait 19 hommes aux visages flous, dont aucun ne ressemblait aux personnages du film[50],[51]. Par ailleurs, certains spectateurs ont remarqué que de nombreux résumés semblaient être générés par IA, ce que certains ont également qualifié de « slop ». Ainsi, un synopsis temporairement affiché pour Un après-midi de chien indiquait : « Un homme prend des otages dans une banque à Brooklyn. Malheureusement, je n’ai pas assez d’informations pour résumer davantage dans les limites des directives fournies. »[52].

Dans un autre cas, Deutsche Telekom a retiré de son offre une série après les plaintes de spectateurs concernant la mauvaise qualité et la monotonie du doublage allemand (traduit du polonais), qui s’est révélé avoir été réalisé par IA[53].

Remove ads

Références

Articles connexes

Loading related searches...

Wikiwand - on

Seamless Wikipedia browsing. On steroids.

Remove ads