Menu

Aucun menu défini dans le customizer.

Actus AutomatiséesActus TechAnthropicClaudeintelligence-artificielle/actualites-iaSciencesvie-privee-anonymat/surveillance-tracking

Anthropic demande désormais pièce d’identité et selfie pour certains usages de Claude

Actualités Automatisées

Anthropic demande désormais pièce d’identité et selfie pour certains usages de Claude

🕒 Publié le : 16/04/2026 à 12:40
 |  ✍️ Auteur : Korben
 |  📚 Source : Les news de Korben

Pour accéder à certaines fonctionnalités de Claude, Anthropic peut maintenant vous demander une pièce d’identité officielle (passeport, permis de conduire, carte nationale d’identité) et un selfie en temps réel. La vérification est gérée par Persona, un prestataire externe, et les données ne sont ni stockées par Anthropic, ni utilisées pour l’entraînement des modèles. Les photocopies, les cartes étudiantes et les pièces numériques ne sont pas acceptées.

Le mécanisme se déclenche a priori dans plusieurs cas : accès à des capacités spécifiques, vérifications d’intégrité de plateforme, ou mesures de conformité. Anthropic ne détaille pas vraiment les usages qui déclenchent cette vérification, ce qui crée du coup un flou que pas mal d’utilisateurs n’apprécient pas des masses.

Le timing est franchement gênant. Des millions d’utilisateurs ont migré vers Claude ces derniers mois, après les polémiques sur la surveillance et les accords controversés d’OpenAI avec des agences gouvernementales. “Vous avez quitté OpenAI pour la vie privée. Claude veut maintenant votre passeport”, déclarent même certains journalistes. L’image n’est pas fausse.

Anthropic se défend, en expliquant que les images restent chez Persona, Anthropic y accède uniquement sur demande (appel, par exemple), et le prestataire est contractuellement interdit de les utiliser à d’autres fins que la vérification et la prévention des fraudes. Pas de revente, pas de marketing. Sur le papier, c’est propre. En pratique, vous donnez quand même un document d’identité gouvernemental à un sous-traitant pour pouvoir poser des questions à un chatbot.

La vraie question, c’est pourquoi. Anthropic invoque la sécurité et la conformité, mais la pression réglementaire sur les modèles d’IA pousse les éditeurs à vérifier l’âge et l’identité des utilisateurs, surtout quand leurs modèles deviennent plus puissants. On l’a vu avec OpenAI et son programme Trusted Access for Cyber, même logique d’accès vérifié. 

Pour les utilisateurs qui utilisent Claude pour du code, de l’écriture ou de la recherche, ça ne changera probablement rien au quotidien. La vérification ne se déclenche pas pour tout le monde, pas tout le temps. Mais si ça tombe sur vous, refuser revient à perdre l’accès aux fonctionnalités concernées. Pas d’alternative proposée.

Bref, il y a là une logique réglementaire, mais le contraste avec l’image “pro-vie privée” d’Anthropic pique un peu.

Source :
Helpnetsecurity

Avatar de Krigs

À propos de l'auteur

https://github.com/Krigsexe

Voir tous les articles de Krigs

Leave a Comment

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Profil Gravatar