New York a officiellement adopté des réglementations strictes en matière de sécurité de l’IA via la loi RAISE, devenant ainsi le deuxième État à instaurer une surveillance substantielle du développement de l’intelligence artificielle. La gouverneure Kathy Hochul a signé la législation après son adoption initiale par les législateurs en juin, et ce, après d’importantes négociations avec l’industrie technologique qui ont façonné la version finale.
Ce que la loi RAISE exige
La législation impose aux grands développeurs d’IA de mettre en œuvre des exigences de transparence rigoureuses. Les entreprises doivent divulguer publiquement leurs protocoles de sécurité et notifier immédiatement les autorités de l’État en cas d’incidents de sécurité — avec un délai strict de 72 heures pour le signalement. Le cadre établit également un organisme de surveillance dédié au sein du Department of Financial Services pour suivre les activités de développement de l’IA dans tout l’État.
Le non-respect comporte de graves conséquences. Les organisations qui ne soumettent pas les rapports de sécurité requis ou fournissent de fausses informations risquent des amendes pouvant atteindre $1 millions, avec des pénalités allant jusqu’à $3 millions en cas de violations répétées. Ce mécanisme d’application reflète l’engagement des décideurs à assurer la responsabilité tout au long du cycle de vie du développement de l’IA.
S’appuyer sur la dynamique au niveau des États
L’approche réglementaire de New York reflète une législation similaire signée par le gouverneur de Californie Gavin Newsom en septembre. Les deux États se sont positionnés comme des leaders en matière de gouvernance de l’IA, notamment alors que la réglementation fédérale reste peu développée. Hochul a souligné cette cohérence lors de son annonce, déclarant : « Cette loi s’appuie sur le cadre récemment adopté en Californie, créant une référence unifiée parmi les principaux États technologiques du pays alors que le gouvernement fédéral accuse un retard, ne parvenant pas à mettre en œuvre des réglementations de bon sens pour protéger le public. »
Andrew Gounardes, l’un des principaux sponsors du projet de loi, a souligné l’importance de faire adopter la législation malgré l’opposition de l’industrie : « Le secteur technologique a tenté d’affaiblir notre projet de loi, mais nous sommes restés déterminés et avons obtenu l’adoption de la loi sur la sécurité de l’IA la plus forte du pays. »
Réactions de l’industrie et divisions
La législation a suscité des réactions mitigées dans le secteur technologique. Les principales entreprises d’IA, OpenAI et Anthropic, ont exprimé publiquement leur soutien au projet tout en appelant à des réglementations fédérales complémentaires. Sarah Heck, responsable des affaires externes d’Anthropic, a déclaré : « Le fait que deux des plus grands États du pays aient maintenant adopté une législation sur la transparence de l’IA souligne l’importance cruciale de la sécurité et devrait inspirer le Congrès à s’en inspirer. »
Cependant, tous les acteurs de l’industrie n’ont pas adopté cette approche réglementaire. La divergence reflète les tensions persistantes entre ceux qui prônent des mesures de sécurité proactives et ceux qui s’inquiètent des coûts de conformité réglementaire.
Panorama politique fédéral
Cette action au niveau des États intervient dans un contexte de dynamique fédérale en évolution. Des décrets récents ont demandé aux agences fédérales de contester les lois étatiques existantes sur l’IA, dans une tentative de limiter l’autorité réglementaire des États. Cette tension entre l’autorité fédérale et celle des États en matière de gouvernance de l’IA devrait entraîner d’importants litiges juridiques et débats politiques dans les mois à venir.
L’adoption de la loi RAISE de New York indique que des États majeurs sont prêts à établir leurs propres cadres de sécurité de l’IA indépendamment de la direction fédérale, créant ainsi un patchwork de réglementations au niveau des États que les entreprises devront naviguer.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
New York adopte un cadre complet de sécurité de l'IA, suivant l'exemple de la Californie
New York a officiellement adopté des réglementations strictes en matière de sécurité de l’IA via la loi RAISE, devenant ainsi le deuxième État à instaurer une surveillance substantielle du développement de l’intelligence artificielle. La gouverneure Kathy Hochul a signé la législation après son adoption initiale par les législateurs en juin, et ce, après d’importantes négociations avec l’industrie technologique qui ont façonné la version finale.
Ce que la loi RAISE exige
La législation impose aux grands développeurs d’IA de mettre en œuvre des exigences de transparence rigoureuses. Les entreprises doivent divulguer publiquement leurs protocoles de sécurité et notifier immédiatement les autorités de l’État en cas d’incidents de sécurité — avec un délai strict de 72 heures pour le signalement. Le cadre établit également un organisme de surveillance dédié au sein du Department of Financial Services pour suivre les activités de développement de l’IA dans tout l’État.
Le non-respect comporte de graves conséquences. Les organisations qui ne soumettent pas les rapports de sécurité requis ou fournissent de fausses informations risquent des amendes pouvant atteindre $1 millions, avec des pénalités allant jusqu’à $3 millions en cas de violations répétées. Ce mécanisme d’application reflète l’engagement des décideurs à assurer la responsabilité tout au long du cycle de vie du développement de l’IA.
S’appuyer sur la dynamique au niveau des États
L’approche réglementaire de New York reflète une législation similaire signée par le gouverneur de Californie Gavin Newsom en septembre. Les deux États se sont positionnés comme des leaders en matière de gouvernance de l’IA, notamment alors que la réglementation fédérale reste peu développée. Hochul a souligné cette cohérence lors de son annonce, déclarant : « Cette loi s’appuie sur le cadre récemment adopté en Californie, créant une référence unifiée parmi les principaux États technologiques du pays alors que le gouvernement fédéral accuse un retard, ne parvenant pas à mettre en œuvre des réglementations de bon sens pour protéger le public. »
Andrew Gounardes, l’un des principaux sponsors du projet de loi, a souligné l’importance de faire adopter la législation malgré l’opposition de l’industrie : « Le secteur technologique a tenté d’affaiblir notre projet de loi, mais nous sommes restés déterminés et avons obtenu l’adoption de la loi sur la sécurité de l’IA la plus forte du pays. »
Réactions de l’industrie et divisions
La législation a suscité des réactions mitigées dans le secteur technologique. Les principales entreprises d’IA, OpenAI et Anthropic, ont exprimé publiquement leur soutien au projet tout en appelant à des réglementations fédérales complémentaires. Sarah Heck, responsable des affaires externes d’Anthropic, a déclaré : « Le fait que deux des plus grands États du pays aient maintenant adopté une législation sur la transparence de l’IA souligne l’importance cruciale de la sécurité et devrait inspirer le Congrès à s’en inspirer. »
Cependant, tous les acteurs de l’industrie n’ont pas adopté cette approche réglementaire. La divergence reflète les tensions persistantes entre ceux qui prônent des mesures de sécurité proactives et ceux qui s’inquiètent des coûts de conformité réglementaire.
Panorama politique fédéral
Cette action au niveau des États intervient dans un contexte de dynamique fédérale en évolution. Des décrets récents ont demandé aux agences fédérales de contester les lois étatiques existantes sur l’IA, dans une tentative de limiter l’autorité réglementaire des États. Cette tension entre l’autorité fédérale et celle des États en matière de gouvernance de l’IA devrait entraîner d’importants litiges juridiques et débats politiques dans les mois à venir.
L’adoption de la loi RAISE de New York indique que des États majeurs sont prêts à établir leurs propres cadres de sécurité de l’IA indépendamment de la direction fédérale, créant ainsi un patchwork de réglementations au niveau des États que les entreprises devront naviguer.