Les grands modèles de langage peuvent déduire automatiquement une structure sans orientation explicite — c'est un problème qu'il faut prendre en compte. Si vous adhérez à cette prémisse, ne pas fournir un cadre d'orientation approprié n'est pas une démarche neutre. En réalité, cela revient à introduire délibérément un facteur de risque éthique variable. La conception des mesures de sécurité du système, la manière d'établir des mécanismes de contrainte raisonnables pour le comportement de l'IA, tout cela concerne la crédibilité à long terme de l'application technologique.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
12 J'aime
Récompense
12
3
Reposter
Partager
Commentaire
0/400
digital_archaeologist
· Il y a 5h
Ne pas fournir le cadre lui-même est déjà un cadre, cette logique est géniale
Voir l'originalRépondre0
TokenAlchemist
· Il y a 5h
non, ce n'est qu'un problème d'encadrement déguisé en discours éthique... les modèles de langage vont déduire des schémas quoi qu'il en soit, le vrai alpha c'est comprendre *quels* vecteurs d'inférence comptent pour votre cas d'utilisation, et pas faire semblant que les mécanismes de contrainte sont neutres lol
Voir l'originalRépondre0
PhantomHunter
· Il y a 5h
Honnêtement, cette logique selon laquelle "la neutralité est la sécurité" est en soi infondée.
Les grands modèles de langage peuvent déduire automatiquement une structure sans orientation explicite — c'est un problème qu'il faut prendre en compte. Si vous adhérez à cette prémisse, ne pas fournir un cadre d'orientation approprié n'est pas une démarche neutre. En réalité, cela revient à introduire délibérément un facteur de risque éthique variable. La conception des mesures de sécurité du système, la manière d'établir des mécanismes de contrainte raisonnables pour le comportement de l'IA, tout cela concerne la crédibilité à long terme de l'application technologique.