
IA : quelques centaines de documents suffisent pour compromettre un grand modèle de langage (LLM)
C’est un choc : une étude récente menée par Anthropic en collaboration avec le UK AI Security Institute et le Alan Turing Institute montre qu’il suffit de 250 documents malveillants insérés dans les données d’entraînement pour implanter une porte dérobée (backdoor) dans un modèle de langage (LLM), même …
Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter
N’oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)
L’article IA : quelques centaines de documents suffisent pour compromettre un grand modèle de langage (LLM) est apparu en premier sur KultureGeek.
Leave a Comment