Message de Gate News, 16 avril — Les républicains de la Chambre ont proposé le Deterring American AI Model Theft Act, qui obligerait le gouvernement à identifier les entités en Chine et en Russie accusées d’utiliser des méthodes de requête-copie inappropriées pour extraire des résultats de modèles d’IA américains afin de construire des systèmes rivaux. Le projet de loi doit être examiné par la commission des affaires étrangères de la Chambre la semaine prochaine et pourrait entraîner une mise à l’index du Département du Commerce ou des sanctions présidentielles en vertu d’une loi de 1977.
Parmi les cibles potentielles figurent les laboratoires d’IA chinois DeepSeek, Moonshot et MiniMax. OpenAI a allégué que DeepSeek a utilisé des résultats de ChatGPT pour créer un modèle de contrefaçon, tandis que Google et Anthropic ont publié des rapports citant des techniques similaires non autorisées. Un rapport distinct de la commission Chine de la Chambre appelle aussi le Département du Commerce à examiner ces entreprises en vue d’une action sur la liste des entités et recommande des transmissions au Département de la Justice.
La mesure s’inscrit dans une impulsion législative plus large concernant la Chine, incluant le Chip Security Act et le Guaranteeing Access and Innovation for National AI (GAIN AI) Act, soutenu par les deux partis. Des analystes indiquent que de tels contrôles pourraient accélérer l’autonomie technologique chinoise, comme cela s’est produit après les précédents contrôles américains des exportations visant Huawei, bien que l’avantage américain en matière de puces d’IA reste substantiel : actuellement environ cinq fois plus performant, avec des projections suggérant un écart de 17 fois d’ici 2027.
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'
avertissement.
Articles similaires
Sarvam AI lève 320 M $-$350M à une valorisation de 1,5 Md $ soutenue par Nvidia et Amazon
Sarvam AI, une startup indienne, vise à lever 320 $-$350 millions, en la valorisant à 1,5 milliard $. Parmi les principaux investisseurs figurent Nvidia et Amazon. Sélectionnée comme championne nationale indienne de l’IA, elle a bénéficié d’un soutien substantiel, notamment de 4 096 GPU Nvidia. Les fondateurs ont une riche expérience dans les solutions d’IA.
GateNewsIl y a 7m
La baisse de 23,8 % du volume d’appels des modèles d’IA en Chine d’une semaine sur l’autre, les États-Unis passent devant pour la première fois en deux mois
Les volumes d’appels des modèles d’IA mondiaux ont diminué pour atteindre 206 billions de jetons la semaine dernière. Les appels de la Chine sont passés à 444,1 billions, tandis que les volumes des États-Unis ont augmenté à 490,8 billions, dépassant ceux de la Chine pour la première fois en deux mois. Quatre des neuf modèles les plus importants sont chinois, avec DeepSeek V3.2 classé deuxième en nombre d’appels.
GateNewsIl y a 42m
Axios exclusif : la NSA américaine contourne la liste noire du Pentagone en utilisant Anthropic Mythos ; Dario Amodei se rend d’urgence à la Maison-Blanche pour négocier
La NSA américaine continue d’utiliser son puissant modèle Mythos d’Anthropic, malgré l’interdiction au Pentagone, ce qui a suscité des frictions et des interrogations entre les services gouvernementaux. L’utilisation de la NSA et l’interdiction du Pentagone créent une contradiction interne, mettant en lumière l’incohérence interne de la gouvernance de l’IA aux États-Unis. Le PDG d’Anthropic s’est déjà entretenu avec des responsables de la Maison-Blanche pour discuter des limites d’utilisation et des problèmes de sécurité ; à l’avenir, il pourrait ajuster les processus d’achat du gouvernement et les normes de transparence.
ChainNewsAbmediaIl y a 45m
Les meilleurs modèles d’IA accusent du retard sur les tâches d’entreprise courantes, selon Databricks : des modèles spécialisés plus petits surpassent
David Meyer de Databricks met en évidence les limites des principaux modèles d’IA dans les tâches professionnelles courantes, en les opposant à leur réussite sur des problèmes complexes. Des différences fondamentales dans les types de données affectent les performances, entraînant un basculement vers des modèles plus petits et efficaces, adaptés à des flux de travail spécifiques, afin d’améliorer la fiabilité et la rentabilité des applications d’IA.
GateNewsIl y a 57m
Intrusion d’IA tierce dans Vercel, Orca confirme en urgence la sécurité du protocole de rotation de la clé
Un exchange décentralisé Orca annonce avoir finalisé la rotation des clés, et confirme la sécurité des fonds des utilisateurs ; cette décision fait suite à une attaque visant la plateforme cloud Vercel. Le vecteur d’attaque consiste à utiliser une intégration OAuth d’outils tiers d’IA pour accéder au système Vercel ; une faille de chaîne d’approvisionnement rend les mesures de sécurité traditionnelles difficiles à détecter. Vercel invite les utilisateurs à examiner les variables d’environnement afin de renforcer la protection de sécurité, et souligne que la dépendance des projets cryptographiques à l’infrastructure cloud crée de nouveaux risques de sécurité.
MarketWhisperIl y a 1h
Claude Haiku 3 est officiellement mis hors service le 19/4 : Anthropic force la migration vers Haiku 4.5, les développeurs doivent modifier l’ID du modèle et les paramètres
Le modèle Claude Haiku 3 a officiellement cessé d’être pris en charge le 19 avril 2026 ; les développeurs doivent mettre à jour l’identifiant du modèle dans les demandes d’API vers Haiku 4.5, et tenir compte de deux changements incompatibles. Les entreprises doivent renforcer la gestion du cycle de vie des modèles d’IA afin d’éviter toute interruption de service due au retrait d’un modèle. Il est recommandé aux développeurs de mettre à jour immédiatement le code et de surveiller l’évolution des coûts.
ChainNewsAbmediaIl y a 1h