Menu

Aucun menu défini dans le customizer.

Reverse-SynthID – Le filigrane de Gemini mis à nu

SynthID, le filigrane invisible que Google injecte dans chaque image Gemini, c’était censé être incassable. Sauf qu’un dev a eu l’idée toute bête de générer des images noires et blanches avec Gemini, puis de regarder ce qui restait dans le domaine fréquentiel. Et là, surprise… le watermark est apparu en clair avec toutes ses fréquences porteuses !

Le projet
reverse-SynthID
documente le truc de A à Z où on comprend en gros, que le marquage IA de Google fonctionne en injectant de l’énergie à des fréquences bien précises dans le spectre de l’image via une
transformation de Fourier
. Le chercheur a identifié 6 fréquences porteuses principales, toutes avec une cohérence de phase supérieure à 99,9% et la blague, c’est que ce pattern est fixe. Donc pas de message unique par image, pas de clé qui change… c’est juste la même empreinte spectrale sur toutes les images sorties du modèle Gemini.

La Maison Blanche utilise l’IA pour transformer une opposante en “femme hystérique”

Vous pensiez avoir tout vu avec les manipulations d’images ? Les générateurs de mèmes, les filtres rigolos, tout ça… Bon, on rigole bien entre potes. Sauf que là, c’est la Maison Blanche qui s’y met et tristement c’est pas pour faire du “lol”.

Je vous explique le délire. Jeudi dernier, l’administration Trump a voulu crâner sur les réseaux sociaux. Ils ont annoncé l’arrestation de plusieurs manifestants qui avaient perturbé un office religieux dimanche dernier à Cities Church (St. Paul). Ils protestaient contre un pasteur, David Easterwood, qui serait également le directeur par intérim de l’antenne locale de l’agence fédérale U.S. Immigration and Customs Enforcement (ICE).

X serre la vis de sa plateforme de nudification, mais pas trop fort quand même

Et encore un sujet qui me fout une colère noire et qui montre bien que chez certains, l’éthique c’est visiblement tombé dans les chiottes. Vous l’aurez deviné, je parle bien de Grok, l’IA d’Elon Musk, qui se retrouve une fois de plus sur le devant la scène.

Grâce à la magie de l’IA, ce chatbot permettait jusqu’à présent de générer des images de vraie personnes en tenues légères (bikinis, sous-vêtements…) voire complétement à poil à partir de simples photos. C’est ce qu’on appelle la “nudification” et c’est, disons-le clairement, une saloperie sans nom qui a été utilisée pour harceler des femmes, des jeunes filles et accessoirement faire zizir à tous les pédo nazis qui trainent sur X.

L’IA détruit-elle nos institutions démocratiques ?

L’IA va-t-elle vraiment détruire nos institutions ?

Deux chercheurs de Boston University, Woodrow Hartzog et Jessica Silbey, viennent de
publier un papier académique
qui affirme que oui, et leur thèse tient en trois mécanismes :

  1. l’intelligence artificielle dégrade l’expertise humaine
  2. elle court-circuite les processus de décision
  3. et elle isole les individus.

Autant dire que ça envoie du lourd !

Mais est-ce vraiment le cas ? Je vous propose de regarder un peu ce qui se passe chez nous, en France et en Europe, depuis quelques mois, sans vous prendre la tête avec la théorie.

Le NO FAKES Act veut réguler les deepfakes, mais c’est surtout l’open source qui va trinquer

Après le DMCA, après
la DADVSI
, après SOPA, après PIPA, après EARN IT… voici le NO FAKES Act ! Bref, un nouveau projet de loi américain pondu par des gens qui visiblement n’ont jamais lancé un git clone de leur vie.

Le texte (
S.1367, 119e Congrès
, introduit en avril 2025) part d’une intention louable qui est de protéger les gens contre les deepfakes non consentis. Vous savez, ces vidéos truquées où votre tête se retrouve sur un corps qui n’est pas le vôtre, de préférence à poil…

UnMarker – Les watermarks IA ne servent à rien

Vous vous souvenez quand les géants de la tech
ont promis à la Maison Blanche
qu’ils allaient marquer toutes les images générées par IA avec des filigranes invisibles pour lutter contre les deepfakes ? Hé bien, des chercheurs de l’Université de Waterloo au Canada viennent de démontrer que c’était du pipeau avec un outil de leur cru baptisé
UnMarker
qui supprime n’importe quel watermark IA en quelques minutes, sans même avoir besoin de savoir comment le filigrane a été créé.

SecretDesires.ai – 2 millions de deepfakes pornos et autres photos intimes fuitent publiquement

C’est dégueulasse, j’ai pas d’autre mot.

La plateforme SecretDesires.ai, un service de chatbot érotique avec génération d’images par IA, a laissé fuiter dans la nature près de 2 millions de photos et vidéos dans des conteneurs Azure pas du tout sécurisés. Hé oui, n’importe qui pouvait y accéder via de simples fichiers XML contenant tous les liens vers les images, et ça ont le sait grâce à cette enquête de
404 Media
.

Des scientifiques cachent des codes secrets dans la lumière pour piéger les deepfakes

Ce serait cool non, si on pouvait transformer n’importe quelle lampe de bureau en détecteur de deepfakes, non ?

Car le problème avec les deepfakes aujourd’hui, c’est qu’on court constamment après les faussaires. Ils ont accès aux mêmes vidéos authentiques que nous, aux mêmes outils d’édition ultra-sophistiqués, et l’IA apprend tellement vite qu’elle produit des faux quasi-indétectables. Il leur est donc très facile de reprendre une vraie vidéo et de la trafiquer légèrement pour manipuler les opinions.

On est officiellement des nuls pour détecter les images IA

Bon, autant vous le dire tout de suite : on est tous nuls. Microsoft vient de publier une étude qui prouve scientifiquement que l’humanité entière est incapable de distinguer une vraie photo d’une image générée par IA. Avec 62% de réussite sur 287 000 tests, on fait à peine mieux qu’une pièce de monnaie. Voilà, c’est dit.

Le Microsoft AI for Good Lab a en effet eu la brillante idée de transformer notre incompétence collective en données scientifiques. Plus de 12 500 cobayes du monde entier ont participé à leur jeu “Real or Not”, et les résultats sont… comment dire… humiliants.

UnMarker – L’outil qui ridiculise les watermarks des images IA

Des chercheurs de l’Université de Waterloo ont créé UnMarker, un outil qui efface les watermarks des images IA comme si c’était du Tipp-Ex numérique. Et ça marche sur absolument tous les systèmes de watermarking existants.

Ces fameux watermarks invisibles que Google, Meta et compagnie nous vendent comme LA solution miracle contre les deepfakes viennent de se prendre une grosse claque. Andre Kassis et Urs Hengartner, deux chercheurs canadiens, ont développé cet outil qui peut supprimer n’importe quelle marque de provenance en quelques minutes seulement, avec juste une carte graphique Nvidia A100 de 40 GB. Leur recherche détaillée a été présentée au symposium IEEE sur la sécurité et la confidentialité et le principe est assez malin.