Cuando más sabés, menos dudás: el nuevo sesgo en el uso de la IA

Una investigación reciente detectó un corrimiento inquietante: los usuarios con mayor alfabetización en IA son quienes más sobreestiman su desempeño y menos verifican lo que obtienen. ¿Por qué los “expertos” bajan la guardia y qué dice esto de nuestra época?

Actualidad11/11/2025
NOTA

Arranquemos por una escena cotidiana. En una oficina cualquiera, alguien que “la tiene clarísima” con prompts resuelve en minutos un informe con ayuda de un modelo de lenguaje. Nadie revisa, porque “siempre le sale bien”. Semanas después, el error está impreso. No falló el algoritmo, falló nuestra relación con él: cuanto más usamos la IA, menos la discutimos.

La tendencia tiene nombre propio: un Dunning–Kruger al revés. Durante años repetimos que los novatos sobreconfían y los expertos dudan. En el ecosistema de IA, el patrón se invirtió: los usuarios más entrenados sobrevaloran su rendimiento y confían demasiado en la primera respuesta. No es sólo vanidad tecnológica. Es un clima cultural: velocidad, productividad, métricas de entrega y “magia” algorítmica que promete atajos sin costo.

 

De dónde viene el sesgo

Hay tres fuerzas sociales empujando este fenómeno.

-Prestigio del experto. En equipos saturados, quien domina herramientas de IA se vuelve el “resuelve-todo”. Ese capital simbólico premia la rapidez, no la verificación.

-Ficcionalización de la tecnología. La narrativa publicitaria convirtió a la IA en un oráculo. Si el software “acierta” muchas veces, nuestro cerebro infiere infalibilidad.

-Economía de la atención. Cerrar tareas rápido vale más que abrir preguntas. La duda se percibe como costo, no como calidad.

El resultado es paradójico: a mayor experticia, menor fricción. El usuario avanzado formula mejores prompts, sí, pero también gana una confianza que reemplaza el chequeo básico. Y cuando el 92% de la gente no verifica lo que la IA devuelve, ese pequeño porcentaje que domina la herramienta termina amplificando errores con sello de autoridad.

 

Qué impacta y dónde duele

En medios, una cifra mal atribuida se viraliza en minutos. En salud, un resumen clínico con un matiz errado puede orientar mal una decisión. En educación, respuestas seductoras pero inexactas cristalizan aprendizajes pobres. En política pública y empresa, los modelos ayudan a priorizar, pero si nadie audita, el sesgo de origen se multiplica. El problema no es la IA, sino nuestro hábito de creer sin probar.

 

Cultura del “primer intento”

La IA empuja un nuevo modo de trabajo: generar, elegir y pegar. Es útil para empezar, pero peligroso como última palabra. La vieja ética artesanal del “leer dos veces antes de firmar” perdió glamour frente a la estética productivista del “lo resolví ya”. Esa cultura, además, refuerza jerarquías: el que maneja la herramienta impone su resultado y los demás lo convalidan por reputación, no por evidencia.

 

Cómo volver a poner frenos (sin frenar la innovación)

No se trata de demonizar IA, sino de reconstruir la duda como valor. Algunas prácticas simples cambian el juego:
- Verificación por pares en entregas clave: otra persona, otro modelo, otra fuente.
-Segundo pase obligatorio: nunca publicar con una sola interacción. Pedirle al sistema que critique su propia salida o que ofrezca contraejemplos.
-Huella de fuentes: cuando el modelo cite datos, exigir referencias y rastrear al menos una.
-Roles rotativos: el mismo “experto” no valida su propio trabajo. Separar quien produce del que audita.
- Indicadores de calidad: medir no sólo velocidad, también tasa de corrección posterior. Lo que se evalúa se cuida.

 

Qué nos dice del momento social

La IA es espejo. Nos devuelve una época que confunde seguridad con exactitud y productividad con verdad. Que un usuario avanzado caiga en exceso de confianza no es un accidente técnico: es el síndrome del atajo infinito. Aprendimos a conversar con máquinas que suenan convincentes y olvidamos que la responsabilidad sigue siendo humana. La alfabetización real en IA no es saber pedir, es saber poner límites.

Un último gesto para llevarse: tratemos a la IA como trataríamos a un colega brillante pero propenso a pifiarla si nadie lo frena. Agradecé la velocidad, honrá la duda y chequeá como si tu nombre quedara al pie. Porque, en esta era, el error más caro no es equivocarse; es no sospechar que podemos estar equivocados.

 

Te puede interesar
NOTA

Textiles y electrodomésticos en crisis: consumo y avance chino

Actualidad11/11/2025

La producción textil cayó 18% interanual y la línea blanca trabaja a la mitad de su capacidad. El consumo interno se congela, las importaciones se disparan y el ajuste llega por el lado de los salarios y las horas. El país vuelve a debatir su vieja pregunta: ¿cómo reconstruir una economía sin mercado interno?

NOTA

La inteligencia artificial vive su fiebre dorada (y su resaca)

Actualidad10/11/2025

Las advertencias sobre una “burbuja de IA” crecen entre banqueros y tecnólogos. Con inversiones que superan los 500 mil millones recuerda a las puntocom. Pero incluso si estalla, la IA no desaparecerá: se volverá invisible, como el WiFi o la electricidad, naturalizada en cada gesto cotidiano.

Lo más visto
NOTA

La Cámpora busca avanzar en el Club Atlético Independiente

Política06/11/2025

Desde la agrupación Identidad Roja denunciaron que La Cámpora utiliza a sus integrantes para asociarse y ser incluidos como parte del reempadronamiento. Anteriormente había ocurrido con el PRO y otros partidos de la política nacional. La palabra del secretario general de la agrupación y la polémica instalada.

JORNADAS DE AUTOCUIDADO 1

Lanús gobierno concretará nuevas jornadas de autocuidado

Región10/11/2025

Lanús Gobierno informa que este miércoles 12 y el jueves 13 de noviembre se realizarán jornadas gratuitas de autocuidado en distintas instituciones del distrito, con la finalidad de que los vecinos y las vecinas adquieran diversas técnicas para que puedan actuar con rapidez y eficacia ante emergencias médicas, en caso de ser necesario.