Source : Pxfuel
ActualitésFrançais

L’intelligence artificielle utilisée pour créer des fake News 👾

Les réseaux sociaux sont un merveilleux outils de communication. Ils permettent de rassembler des proches, des inconnus autour d’un même thème, de s’informer et de découvrir de nouvelles choses. Mais comme toute création humaine, ils viennent avec leur lot de problèmes. Et s’il y’a bien un aspect des réseaux sociaux dont on se passerait bien, ce sont les fake news.

Le phénomène des fakes news sur les réseaux sociaux est devenu l’un des principaux combats que mènent actuellement des plateformes comme Facebook ou Twitter. En effet, depuis la présidentielle américaine de 2016, durant laquelle les services russes ont joué un rôle important, notamment à coup de fake News sur les réseaux sociaux, les plateformes enchaînent les mesures pour éviter qu’une telle ingérence se reproduise.

Quand l’IA crée des fakes news

Leur travail risque d’être encore plus difficile dans les années à venir. En effet, à l’occasion de la conférence Black Hat USA 2021, des chercheurs au Center for Security and Emerging Technology (CEST), Andrew Lohn et Micah Musser, ont montré qu’il était possible de générer de façon automatique des fake news en masse. En s’appuyant sur le générateur de texte GPT-3, ils ont réussi à créer de faux tweets et de faux articles inspirés de la sphère complotiste QAnon. L’illusion est tellement parfaite qu’on a du mal à distinguer qu’ils sont générés par une machine

CSET –  Twodder, fil de microblogging, généré artificiellement

Mais ça ne s’arrête pas là. Après avoir soumis 1700 personnes à des opinions générées automatiquement à propos du retrait des troupes américaines en Irak et du conflit commercial avec la Chine, ils ont voulu savoir si ces textes artificiels pouvaient influencer les utilisateurs. Et bien oui. La moitié des participants ont jugés les arguments présentés comme plutôt valables. Le pire dans tout ça, c’est qu’ils ont réussi à modifier leur manière de penser et ont même réussi à inverser l’avis majoritaire initial.

Nouvelle arme des grandes puissances

Même si la programmation d’un modèle GPT-3 est relativement facile, son exécution l’est moins. En effet, il faut d’énormes capacités de calculs pour ça, notamment dans le cloud. Et ça coûte cher. Ce n’est donc pas à la portée de Monsieur tout le monde. Par contre, aucun problème pour les grandes puissances. A titre d’exemple, pour créer un volume de fake news équivalent à 1 % de la totalité du contenu diffusé par Twitter — soit environ 8,5 millions de tweets par jour — il faudrait un budget de 65 millions de dollars par an, autant dire rien du tout pour ces puissances.

La question que vous devez vous poser c’est : comment se protéger de cette menace ? Et bien, c’est pas facile. Comme dit plus haut, l’illusion des textes générés est quasi parfaite. Du coup, les méthodes d’analyse et de filtrage ne seraient pas efficace. Par contre, générer environ 1% de Twitter demanderait d’avoir 350.000 compte différents. Et ça, ça passe difficilement inaperçu.

Avez-vous déjà été confrontés aux fake news ? Craignez-vous qu’on en soit submergés à l’avenir ? Dites-nous tout ça en commentaire

Sources : 01net, Center for Security and Emerging Technology (CEST)

Qu'en avez-vous pensé?

Excité
0
Joyeux
0
Je suis fan
1
Je me questionne
1
Bof
0

Vous pourriez aussi aimer

Laisser une réponse

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Plus dans:Actualités