Menu

Aucun menu défini dans le customizer.

Anthropic demande désormais pièce d’identité et selfie pour certains usages de Claude

Pour accéder à certaines fonctionnalités de Claude, Anthropic peut maintenant vous demander une pièce d’identité officielle (passeport, permis de conduire, carte nationale d’identité) et un selfie en temps réel. La vérification est gérée par Persona, un prestataire externe, et les données ne sont ni stockées par Anthropic, ni utilisées pour l’entraînement des modèles. Les photocopies, les cartes étudiantes et les pièces numériques ne sont pas acceptées.

Le mécanisme se déclenche a priori dans plusieurs cas : accès à des capacités spécifiques, vérifications d’intégrité de plateforme, ou mesures de conformité. Anthropic ne détaille pas vraiment les usages qui déclenchent cette vérification, ce qui crée du coup un flou que pas mal d’utilisateurs n’apprécient pas des masses.

Loi Sûre – Le FNAEG veut puiser dans l’ADN récréatif américain

Gérald Darmanin veut que la France aille puiser dans les ADN stockés chez les sociétés américaines de tests récréatifs pour faire tourner le FNAEG. Rien que ça !! Ces tests sont pourtant interdits dans l’Hexagone depuis belle lurette, et la fiabilité de ces boîtes est tellement douteuse qu’elles ont déjà validé des échantillons d’ADN de chien comme des résultats humains parfaitement cohérents. Franchement, y a de quoi hurler.

Bienvenue dans la
Loi Sûre
!

Ghost Murmur – La CIA vous localise grâce à vos battements de cœur

Si votre coeur bat, sachez que la CIA peut vous retrouver n’importe où !

C’est pas moi qui le dis, c’est John Ratcliffe, le directeur de la CIA en personne, qui l’a annoncé ce lundi 7 avril après que ses équipes aient utilisé un outil baptisé Ghost Murmur pour localiser un membre d’équipage américain abattu en Iran, à 65 kilomètres de distance, en captant juste les battements de son coeur.

On dirait vraiment de la SF mais je vais tout vous expliquer.

Il menace un agent du renseignement en parlant à ChatGPT, le RAID débarque chez lui

Un Strasbourgeois de 37 ans a été interpellé par le RAID après avoir formulé des menaces dans une conversation avec ChatGPT. OpenAI a signalé les propos au FBI, qui a transmis l’alerte aux autorités françaises via la plateforme Pharos.

L’affaire a été classée sans suite, mais elle montre que les échanges avec les chatbots ne sont pas vraiment privés.

Des menaces repérées par OpenAI

Les faits remontent au 3 avril. L’homme a indiqué à ChatGPT vouloir acheter un pistolet Glock pour “tuer un agent du renseignement de la CIA, du Mossad ou de la DGSI”. Les propos ont été détectés par les systèmes de modération d’OpenAI, qui applique depuis 2024 une politique claire : si une conversation présente un risque de violence physique, l’entreprise peut transmettre les échanges aux forces de l’ordre.

GitHub va utiliser vos données Copilot pour entraîner ses modèles d’IA

À partir du 24 avril, GitHub activera par défaut la collecte des données d’interaction Copilot pour les utilisateurs Free, Pro et Pro+. Le gros sujet ici, c’est que le code, les suggestions acceptées et même la structure de vos dépôts pourront servir à améliorer les modèles d’IA de la plateforme.

Ce qui change à partir du 24 avril

GitHub vient d’annoncer une mise à jour de sa politique de confidentialité qui concerne directement Copilot. À compter du 24 avril 2026, la plateforme collectera par défaut les données d’interaction de ses utilisateurs pour entraîner ses modèles d’intelligence artificielle.

Strava trahit la position du porte-avions Charles-de-Gaulle en pleine mission

Le Monde a réussi à localiser le porte-avions nucléaire français Charles-de-Gaulle grâce à l’application de sport Strava. Un officier a enregistré un footing de 7 km sur le pont du navire avec sa montre connectée, et son profil public a diffusé les coordonnées GPS en temps réel.

Le navire était déployé en Méditerranée orientale, au large de Chypre, en pleine mission liée au conflit au Moyen-Orient.

Un footing de 7 km qui trahit un navire de guerre

Le 13 mars, à 10h35, un jeune officier prénommé Arthur a lancé un jogging sur le pont du Charles-de-Gaulle. 35 minutes de course, un peu plus de 7 km, et sa montre connectée a transmis le tout à Strava via Bluetooth.

Quand la publicité ciblée devient un outil de surveillance pour le gouvernement américain

Des documents obtenus par la presse révèlent que les douanes américaines ont utilisé les données de localisation issues du système publicitaire en ligne pour pister des téléphones. Et ce, sans mandat.

Le mécanisme repose sur les enchères publicitaires en temps réel, qui diffusent vos coordonnées GPS à des milliers d’entreprises chaque jour. Apple a limité la casse sur iPhone, mais ça ne suffit pas.

Comment vos applications vous trahissent

Le système est assez redoutable dans sa simplicité. À chaque fois qu’une publicité s’affiche dans une application sur votre smartphone, une enchère se joue en quelques millisecondes.

Reconnaissance faciale en open bar pour la police

Depuis 2022, TOUS les policiers et gendarmes français ont accès à un logiciel de reconnaissance faciale directement sur leur téléphone de service. En vous prenant en photo lors d’un contrôle (chiiiiiz 😀), ils peuvent ensuite, en quelques secondes, consulter un énooOoorme fichier contenant 9 millions de portraits.

Tu parles d’un trombinoscope !!

Voilà, c’est ce que révèle
une enquête impressionnante du média Disclose
, documents internes du ministère de l’intérieur à l’appui.

Une grand-mère américaine passe six mois en prison à cause d’une erreur de reconnaissance faciale

La reconnaissance faciale vient encore de montrer ses limites aux États-Unis. Angela Lipps, 50 ans, grand-mère du Tennessee, a passé près de six mois en prison après qu’un algorithme l’a désignée à tort comme suspecte dans une affaire de fraude bancaire au Dakota du Nord.

Ses relevés bancaires ont prouvé qu’elle se trouvait à 2 000 kilomètres des faits. Elle attend toujours des excuses.

Un algorithme, une arrestation

Le 14 juillet 2025, des agents fédéraux américains débarquent chez Angela Lipps au Tennessee. Ils l’arrêtent sous la menace d’une arme, alors qu’elle garde quatre enfants. La police de Fargo, dans le Dakota du Nord, à environ 2 000 kilomètres de là, la soupçonnait d’avoir utilisé une fausse carte d’identité militaire pour retirer des dizaines de milliers de dollars dans plusieurs banques entre avril et mai 2025.

Internet vous connaît par cœur : Incogni appuie sur “effacer” à votre place

— Article en partenariat
avec Incogni

Vous n’avez probablement pas besoin d’un énième sermon sur la “vie privée”. Vous avez besoin d’outils qui font le sale boulot à votre place. Incogni fait exactement ça : il passe ses journées à frapper à la porte des courtiers en données pour leur dire de supprimer vos infos, pendant que vous faites autre chose de vital. Comme préparer une raclette parce que l’hiver n’est pas terminé.