Meta veut identifier sur ses réseaux sociaux toute image générée par l'intelligence artificielle

Auteur(s)
Par Yassine KHIRI - AFP
Publié le 06 février 2024 - 19:45
Image
Meta, la maison-mère de Facebook et Instagram, travaille sur un nouveau réseau social dont la
Crédits
AFP/Archives - Lionel BONAVENTURE
AFP/Archives - Lionel BONAVENTURE

Le géant américain Meta veut identifier "dans les prochains mois" toute image générée par l'intelligence artificielle (IA) qui sera publiée sur ses réseaux sociaux, une décision prise sur fond de lutte contre la désinformation, au début d'une année riche en scrutins électoraux.

"Dans les prochains mois, nous étiquetterons les images que les utilisateurs publient sur Facebook, Instagram et Threads" lorsque nous pourrons détecter des signaux conformes aux normes de l'industrie montrant qu'elles sont générées par l'IA, a annoncé mardi Nick Clegg, le responsable des affaires internationales de Meta, dans une note de blog.

Si Meta a déjà mis en place ces étiquettes sur les images créées à partir de son outil Meta AI lancé en décembre, "nous voulons pouvoir le faire aussi avec des contenus créés avec des outils d'autres entreprises" comme Google, OpenAI, Microsoft, Adobe, Midjourney ou encore Shutterstock, a-t-il ajouté.

"Nous sommes en train de construire cette capacité dès maintenant, et dans les mois à venir, nous commencerons à appliquer des étiquettes dans toutes les langues prises en charge par chaque application", a encore souligné le dirigeant.

Cette annonce survient alors que l'essor de l'IA générative fait craindre que des personnes n'utilisent ces outils pour semer le chaos politique, notamment par le biais de la désinformation ou de la mésinformation, à l'approche de plusieurs élections majeures cette année, dont aux États-Unis.

Au-delà de ces scrutins, le développement de programmes d'IA générative s'accompagne de la production d'un flux de contenus dégradants, selon de nombreux experts et régulateurs, à l'image des fausses images ("deepfakes") pornographiques de femmes célèbres, phénomène qui vise également des anonymes.

Une fausse image de la superstar américaine Taylor Swift a par exemple été vue 47 millions de fois sur X (ex-Twitter) fin janvier avant d'être supprimée. Selon les médias américains, la publication est restée en ligne sur la plateforme pendant environ 17 heures.
- "Tatouage" numérique -

Si Nick Clegg admet que cet étiquetage à grande échelle "n'éliminera pas" totalement le risque de production de fausses images, "cela minimiserait certainement" sa prolifération "dans les limites de ce que la technologie permet actuellement".

Concrètement, comment ça marche ? Outre le placement de marqueurs visibles sur les images générées par l'IA, Meta utilise aussi la technologie du "watermarking", une forme de "tatouage" numérique qui "consiste à insérer une marque invisible à l'intérieur de l'image" générée par l'IA pour qu'elle soit détectée par ses réseaux sociaux, explique à l'AFP Gaëtan Le Guelvouit, expert en tatouage numérique de l'Institut de recherche technologique b<>com.

"À chaque fois qu'on dépose une image sur un de leurs réseaux sociaux, il y a du traitement: soit de la compression d'image, du changement de taille... Cela ne coûte pas grand-chose de rajouter une petite brique de détection à l'intérieur. Ils ont les moyens pour le faire", ajoute-t-il.

"Ce n'est pas parfait, la technologie n'est pas encore tout à fait au point, mais c'est la tentative la plus avancée de toutes les plateformes jusqu'à présent pour fournir une transparence significative à des milliards de personnes dans le monde", a déclaré Nick Clegg à l'AFP.

"J'espère vraiment qu'en faisant cela et en prenant les devants, nous inciterons le reste de l'industrie à travailler ensemble et à essayer de développer les normes (techniques) communes dont nous avons besoin", a ajouté le dirigeant de Meta, qui se dit prêt à "partager" sa technologie ouverte "le plus largement possible".

"D'après nos recherches, ce n'est pas une tâche facile, mais il s'agit probablement d'un élément important qui augmentera la confiance dans l'IA générative et les plateformes technologiques", souligne auprès de l'AFP Duncan Stewart, directeur de la recherche Technologies, médias et télécommunications au cabinet Deloitte.

"Il est essentiel que les entreprises collaborent et définissent des normes techniques communes ou s'entendent à ce sujet. Les solutions isolées risquent d'être insuffisantes", ajoute-t-il.

OpenAI, qui a créé ChatGPT, a également annoncé mi-janvier le lancement d'outils pour combattre la désinformation, soulignant que son générateur d'images DALL-E 3 contient des "garde-fous" pour empêcher les utilisateurs de générer des images de personnes réelles, notamment de candidats, à des fins politiques.

L'article vous a plu ? Il a mobilisé notre rédaction qui ne vit que de vos dons.
L'information a un coût, d'autant plus que la concurrence des rédactions subventionnées impose un surcroît de rigueur et de professionnalisme.

Avec votre soutien, France-Soir continuera à proposer ses articles gratuitement  car nous pensons que tout le monde doit avoir accès à une information libre et indépendante pour se forger sa propre opinion.

Vous êtes la condition sine qua non à notre existence, soutenez-nous pour que France-Soir demeure le média français qui fait s’exprimer les plus légitimes.

Si vous le pouvez, soutenez-nous mensuellement, à partir de seulement 1€. Votre impact en faveur d’une presse libre n’en sera que plus fort. Merci.

Je fais un don à France-Soir

Les dessins d'ARA

Soutenez l'indépendance de FS

Faites un don

Nous n'avons pas pu confirmer votre inscription.
Votre inscription à la Newsletter hebdomadaire de France-Soir est confirmée.

La newsletter France-Soir

En vous inscrivant, vous autorisez France-Soir à vous contacter par e-mail.