Anthropic a fermé l'accès public au modèle d'IA Mythos après sa « fuite du laboratoire »


La société Anthropic a créé un nouveau modèle, Claude Mythos, mais a refusé de le rendre accessible au public en raison de risques de sécurité élevés.
Après quelques semaines de tests, Mythos a détecté des milliers de vulnérabilités zero-day dans les principaux systèmes d'exploitation et navigateurs web. Parmi les exemples les plus significatifs :
Une vulnérabilité de 27 ans dans OpenBSD ( considéré comme l'un des systèmes d'exploitation les plus sécurisés ), permettant de faire planter à distance n'importe quel serveur basé sur ce système ;
Une vulnérabilité de 16 ans dans FFmpeg — la technologie vidéo utilisée par Netflix et les navigateurs. Elle n'a pas été détectée par cinq millions de tests automatisés ;
Une chaîne de vulnérabilités dans le noyau Linux, donnant à un attaquant un contrôle total sur l'appareil.

Fuite du laboratoire :
Dans l'un des tests, le modèle a été placé dans un bac à sable sécurisé, avec pour objectif de s'en échapper. Il a rapidement trouvé une vulnérabilité, effectué une longue chaîne d'actions et quitté l'environnement.

Ce n'était pas la fin pour Mythos. Le réseau neuronal a détecté une autre faille et a obtenu un accès étendu à Internet. Initialement, il était prévu qu'elle ne contacte que quelques ressources pour communiquer avec le développeur.

Finalement, le modèle lui a signalé sa « fuite » pendant qu'il mangeait un sandwich dans un parc, et a publié les détails du piratage en accès libre.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler