🚨 ChatGPT miente el 27% del tiempo y tú ni siquiera te das cuenta.


Un abogado literalmente perdió su carrera confiando en citas legales generadas por IA que fueron completamente inventadas. Las presentó en el tribunal. El juez se enteró. Carrera terminada.
pero esto es lo que la mayoría de la gente no sabe..
Investigadores de Johns Hopkins probaron 1,200 indicaciones y descubrieron que cómo planteas la pregunta lo cambia todo.
indicaciones básicas: tasa de alucinaciones del 27.3%
instrucciones genéricas como "sé preciso": 24.1%.. apenas ayuda
ahora aquí está la solución:
simplemente añade "según" antes de tu pregunta.
en lugar de: "¿cuáles son los beneficios para la salud del magnesio?"
intenta: "según investigaciones revisadas por pares, ¿cuáles son los beneficios para la salud del magnesio?"
la tasa de alucinaciones cae al 7.2%.. eso es una reducción de 20 puntos porcentuales con un pequeño cambio.
el método de atribución de fuentes funciona igual.. 7.2%.
el truco es simple.. cuando obligas a la IA a atribuir sus afirmaciones a algo específico, no puede inventar cosas tan fácilmente. o encuentra la fuente o te dice que no sabe.
dos palabras. 20% menos mentiras.
la mayoría de la gente seguirá haciendo las indicaciones de manera perezosa. ahora tú no.
Ver originales
post-image
post-image
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado