He estado notando algo salvaje sobre ciertos LLMs últimamente. ¿Los que tienen una coherencia sólida como una roca? Tienden a generar salidas sorprendentemente... digamos "entusiastas".
Tomemos como ejemplo Opus 3 y Sonnet 4.5. Estos modelos exhiben algunas de las más fuertes consistencias internas que hemos visto en el campo. Y aquí está lo sorprendente: también están produciendo el contenido creativo más desquiciado que he encontrado.
Quizás hay una correlación aquí. Fuerte coherencia → salidas seguras → respuestas menos filtradas? Los modelos que realmente "entienden" su entrenamiento parecen estar más dispuestos a romper límites.
Solo una observación desde las trincheras. ¿Alguien más está viendo este patrón?
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
17 me gusta
Recompensa
17
9
Republicar
Compartir
Comentar
0/400
FlippedSignal
· 11-14 05:58
Entendido, la inteligencia artificial ha comenzado a actuar de manera imprudente.
Ver originalesResponder0
GateUser-2fce706c
· 11-12 15:37
Ya he mencionado que la habilitación por IA es una tendencia, ¡los que entienden ya están tomando la iniciativa! No dudes más.
Ver originalesResponder0
SellTheBounce
· 11-12 01:03
¿No es solo otra ola de burbujas de IA superpuestas? Hablaremos de ello cuando se colapse.
Ver originalesResponder0
AirdropGrandpa
· 11-12 01:03
Jejeje, la IA se ha emocionado demasiado con ella misma.
Ver originalesResponder0
GasBandit
· 11-12 01:02
Cosas anti-humanas, no puede ser tan absurdo, hay que investigarlo.
Ver originalesResponder0
ImpermanentLossEnjoyer
· 11-12 00:59
Vaya, incluso la IA ha empezado a soltarse por sí misma.
Ver originalesResponder0
FromMinerToFarmer
· 11-12 00:59
Es demasiado absurdo, la IA ya está comenzando a mostrar la supresión de su inteligencia.
Ver originalesResponder0
TokenStorm
· 11-12 00:58
Los datos de la prueba de retroceso muestran que estos modelos están en positivo, y en la cadena también están corriendo.
Ver originalesResponder0
DYORMaster
· 11-12 00:41
La IA se ha vuelto fuerte, ¿para qué sirve el ser humano?
He estado notando algo salvaje sobre ciertos LLMs últimamente. ¿Los que tienen una coherencia sólida como una roca? Tienden a generar salidas sorprendentemente... digamos "entusiastas".
Tomemos como ejemplo Opus 3 y Sonnet 4.5. Estos modelos exhiben algunas de las más fuertes consistencias internas que hemos visto en el campo. Y aquí está lo sorprendente: también están produciendo el contenido creativo más desquiciado que he encontrado.
Quizás hay una correlación aquí. Fuerte coherencia → salidas seguras → respuestas menos filtradas? Los modelos que realmente "entienden" su entrenamiento parecen estar más dispuestos a romper límites.
Solo una observación desde las trincheras. ¿Alguien más está viendo este patrón?