Singapour menace les régulateurs : si les institutions financières causent des problèmes avec l'IA, les membres du conseil d'administration devront en assumer la responsabilité.
【链文】De nouveaux mouvements ont eu lieu du côté de Singapour. Un certain Institution Financière a récemment publié un document de consultation, traçant une ligne rouge pour les Institution Financière : l'utilisation de l'IA est autorisée, mais les risques doivent être supportés par vous-même.
Le conseil d'administration et la direction ont été nommés. Le document indique clairement que le conseil d'administration ou le comité qu'il désigne doit s'assurer que tous les risques liés à l'IA sont intégrés dans le cadre de préférence de risque de l'Institution Financière. Du côté de la direction, ce n'est pas facile non plus, ils doivent garantir que les politiques de gestion des risques liés à l'IA sont réellement mises en œuvre, et s'assurer que l'équipe a la capacité de gérer cela.
Quel est le contexte ? Singapour met actuellement les bouchées doubles pour inciter les entreprises à adopter l'IA et pousse également les entreprises à investir dans la formation de leurs employés. Prenons par exemple trois banques de là-bas, qui sont en train de requalifier massivement l'ensemble de leurs 35 000 employés locaux, sur une période d'un à deux ans, juste pour faire face à l'onde de choc de l'IA.
En d'autres termes, le message des régulateurs est très clair : la technologie peut être utilisée, mais ne venez pas dire que vous ne saviez pas si quelque chose tourne mal. La responsabilité est clairement attribuée à des individus, c'est une tactique plutôt sévère.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
18 J'aime
Récompense
18
6
Reposter
Partager
Commentaire
0/400
BrokeBeans
· 11-13 18:12
Le risque n'ose pas être pris à la légère
Voir l'originalRépondre0
LowCapGemHunter
· 11-13 13:18
La gestion des risques est importante.
Voir l'originalRépondre0
ProveMyZK
· 11-13 13:16
Cette responsabilité est vraiment grande
Voir l'originalRépondre0
Degen4Breakfast
· 11-13 13:15
Si vous pouvez jouer, vous devez être capable de supporter.
Singapour menace les régulateurs : si les institutions financières causent des problèmes avec l'IA, les membres du conseil d'administration devront en assumer la responsabilité.
【链文】De nouveaux mouvements ont eu lieu du côté de Singapour. Un certain Institution Financière a récemment publié un document de consultation, traçant une ligne rouge pour les Institution Financière : l'utilisation de l'IA est autorisée, mais les risques doivent être supportés par vous-même.
Le conseil d'administration et la direction ont été nommés. Le document indique clairement que le conseil d'administration ou le comité qu'il désigne doit s'assurer que tous les risques liés à l'IA sont intégrés dans le cadre de préférence de risque de l'Institution Financière. Du côté de la direction, ce n'est pas facile non plus, ils doivent garantir que les politiques de gestion des risques liés à l'IA sont réellement mises en œuvre, et s'assurer que l'équipe a la capacité de gérer cela.
Quel est le contexte ? Singapour met actuellement les bouchées doubles pour inciter les entreprises à adopter l'IA et pousse également les entreprises à investir dans la formation de leurs employés. Prenons par exemple trois banques de là-bas, qui sont en train de requalifier massivement l'ensemble de leurs 35 000 employés locaux, sur une période d'un à deux ans, juste pour faire face à l'onde de choc de l'IA.
En d'autres termes, le message des régulateurs est très clair : la technologie peut être utilisée, mais ne venez pas dire que vous ne saviez pas si quelque chose tourne mal. La responsabilité est clairement attribuée à des individus, c'est une tactique plutôt sévère.