Alguien me preguntó, si los agentes de IA ya pueden subir a la cadena y hacer el trabajo por sí mismos, ¿para qué todavía necesitamos respaldo humano? Mi primera reacción fue: no confíes demasiado en lo "totalmente automático", al final quien siempre carga con la culpa es la persona. Lo que más propenso a fallar en la cadena en realidad no es pulsar un botón, sino esas condiciones límite: cuánto se autoriza, si la firma es única, actualizaciones del contrato / cambios temporales en las reglas de multi-firma, puentes entre cadenas que de repente se bloquean... Los agentes pueden ejecutar procesos, pero cuando se enfrentan a decisiones como "¿debería detenerse?, ¿debería revertir?, ¿debería admitir la pérdida?", en realidad no tienen una verdadera sensación de culpa. Además, ahora con la estrategia de apalancamiento / compartición de seguridad y acumulación de beneficios, ser criticados por "repetir esquemas" no es sin razón; cuanto más se apilan, más parece que cada capa que falla es como jugar al balón prisionero, y al final alguien tiene que tomar la decisión, emitir un anuncio y soportar las críticas. En fin, mi enfoque actual es: la automatización está bien, pero los permisos son limitados, las restricciones están predefinidas, y cuando realmente se necesita apalancamiento, todavía soy yo quien confirma manualmente.

Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado