Usar IA a escondidas no es paranoia. Es lógica.
El 40% de los profesionales cree que la IA que adoptan erosiona su propia seguridad laboral. Shadow AI, la paradoja del 81% vs 53%, y por qué el antifrágil no esconde que usa IA — la usa en público.
El 40% de los empleados en servicios profesionales cree que la IA que están adoptando termina erosionando su propia seguridad laboral.
Leelo de nuevo.
No son trabajadores de retail, no son operarios de línea, no son administrativos. Son profesionales. Consultores. Tu perfil. Y casi la mitad sospecha que la herramienta que les están pidiendo que usen es la misma que los va a terminar reemplazando.
En ese contexto, esconder cuánto usás IA no es paranoia. Es lógica.
El fenómeno que nadie quiere nombrar
Shadow AI.
El término se usa en IT para describir el uso no autorizado de herramientas de IA dentro de una organización. Empleados que meten datos sensibles en ChatGPT, consultores que arman deliverables con Claude sin avisar, equipos enteros que dependen de Gemini para entregar pero en el reporte aparece el "trabajo del consultor".
Pero hay otra capa del Shadow AI que no está en los reportes de gobernanza de TI. Es la psicológica. Y no aplica a todos los perfiles por igual.
Los developers están en el extremo opuesto. Postean en LinkedIn cuánto código generaron con Claude Code esta semana. Comparten sus prompts en Twitter. Graban vídeos usando Cursor en vivo. Su cultura premia mostrar la herramienta. El que no la usa queda afuera.
Pero bajá un piso en el edificio del enterprise y la cultura se invierte.
En SAP, en consultoría Big 4, en Compliance, en legal, en finanzas corporativas, la norma es la opuesta. Nadie publica en LinkedIn que resolvió el issue de reconciliación con Claude. Nadie dice en la Daily que el documento de requerimientos lo armó con Gemini. Nadie cuenta en la entrevista de performance review que el blueprint funcional lo redactó con IA.
Se hace, pero no se dice.
El caso SAP: dos historias que probablemente te suenan
Caso 1. Consultor SAP senior. Le piden un análisis de impacto para una migración a S/4HANA. En 30 minutos tiene el draft con Claude, validando contra su conocimiento de 12 años. Pasa las siguientes 3 horas reformateando, cambiando frases, agregando comentarios manuales para que parezca que le llevó el día entero. Entrega. Nadie pregunta cómo lo hizo. Él no cuenta cómo lo hizo.
Caso 2. Tech Lead en proyecto de implementación. Descubre que el ABAP que armó el Junior está generado íntegramente con SAP Joule for Developers. El Junior no entendió la lógica pero el código "funciona y corre bien". El Tech Lead tiene tres opciones: escalar y exponer al Junior, tomarse el tiempo de hacer pair programming, o corregir silenciosamente y dejarlo pasar. Elige la tercera. Porque si escala, también queda expuesto que él mismo usa IA para el 40% de su propio trabajo. Y como el Manager lo está presionando con más proyectos en paralelo, no tiene tiempo para dedicarle al Junior.
Ambos están en Shadow AI. Por razones distintas. Uno por miedo a ser considerado reemplazable. El otro por complicidad silenciosa con una práctica que ya es masiva pero nadie quiere formalizar.
La paradoja del 81% vs 53%
Un artículo reciente en Harvard Business Review publicó datos que explican por qué Shadow AI existe y no va a desaparecer en los perfiles que importan.
El 81% de los senior leaders encuestados creen que su organización está completamente enfocada en Augmentation — usar la IA para potenciar a la gente.
Solo el 53% de los contribuidores individuales cree lo mismo.
Esa brecha de 28 puntos es el terreno fértil del Shadow AI. Tu jefe está convencido de que hace Augmentation. Vos leés el newsletter donde Jack Dorsey despidió a 4.000 personas de Block diciendo que las herramientas de inteligencia cambiaron lo que significa construir una empresa. Y sumás dos más dos.
Entonces el consultor usa Claude a escondidas, entrega mejor, más rápido, y nadie se entera. Porque si se entera, la conclusión lógica del Board es:
"Si con IA podés hacer el doble, entonces necesitamos la mitad de consultores, o cobramos la mitad por el mismo alcance."
Ese razonamiento es lo que mata la confianza en toda la cadena. Y ya está empezando a hacer estragos.
El otro fuego: la degradación deliberada
Y mientras el profesional esconde cuánto usa la IA para no ser considerado reemplazable, pasa algo en paralelo que profundiza la trampa.
Los modelos están bajando de calidad.
Lo hablamos la semana pasada. Miles de usuarios documentando que los outputs son peores, que tienen que esperar hasta cierta hora para que el sistema no esté saturado, que la suscripción de $20 ya no alcanza y hay que subir al tier de $200.
La aceleración fue tan brutal que generó dependencia antes de que alguien pudiera cuestionarla. Y ahora el suministro parece estar ajustándose — con comportamientos erráticos entre sesiones, consumo exagerado de tokens y otras cosas que se pueden leer en los foros especializados.
Se me parece, aunque suene feo, a cómo operan los dealers. Primero te regalan el producto. Generás dependencia. Ya no podés funcionar sin la herramienta que te daba resultados mágicos. Entonces ahí, recién ahí, ajustan el precio y la cantidad.
Entre un modelo y el siguiente pasan apenas meses. Para cuando terminás de aprender a trabajar bien con uno, llegó el siguiente con otras limitaciones, otros comportamientos, otros precios.
El profesional está atrapado entre dos fuegos: si muestra cuánto usa la herramienta, lo reemplazan. Si depende de la herramienta, le ajustan el suministro. Dos trampas alimentándose mutuamente.
Augmentation vs Automation: la elección que determina todo
Hay dos caminos. Augmentation — usar IA para potenciar a la gente. Automation — usar IA para reemplazar.
Dorsey eligió Automation. Block despidió a 4.000 personas. El mensaje a los accionistas fue quirúrgico: las herramientas de inteligencia cambiaron la ecuación de construir una empresa.
Kaufman, el CEO de Fiverr, eligió decirle a sus empleados que la IA viene por el trabajo de todos, incluido el de él. Pero no despidió a nadie. Apostó a que cada empleado podía desarrollar capacidades que la IA no tiene: juicio no lineal, decisiones de gusto, pensamiento estratégico.
Dos CEOs, dos lecturas opuestas del mismo momento.
La investigación que cita HBR muestra algo que debería ser evidente y sin embargo se ignora: el camino de Automation da ganancias rápidas pero genera una cascada predecible. Resistencia, pérdida de bienestar, fuga de talento, erosión de la marca empleadora, colapso de los mandos de liderazgo. En seis fases, lo que empezó como ahorro termina como deuda organizacional.
El camino de Augmentation tiene una curva J más profunda al principio. Invertir en capacitar a la gente, rediseñar procesos, construir coordinación humano-IA, es caro y lento. Pero lo que emerge del otro lado no es eficiencia. Es una nueva frontera productiva.
El problema es que los mercados financieros premian el Automation hoy. Y los consultores Senior que leen esto viven en empresas donde la decisión ya se tomó, aunque nadie la haya anunciado.
Antifragilidad: la única salida
Nassim Taleb introdujo un concepto que se usa mal todo el tiempo. Antifragilidad no es resistencia.
Lo frágil se rompe con el shock. Lo resistente aguanta el shock sin romperse. Lo antifrágil se fortalece con el shock.
Shadow AI es frágil. Depende de que nadie se entere. El día que la empresa audita el uso real de IA, el consultor que se escondía queda expuesto y sin argumento.
Dependencia del modelo estrella del momento también es frágil. El día que cambia la política de uso, sube el precio o baja la calidad, tu flujo de trabajo colapsa.
Antifragilidad es otra cosa. Es construir un sistema personal que se beneficia de los shocks.
¿Cómo se ve eso, concretamente?
Primero, criterio acumulado que ningún modelo puede replicar. Los años de entender por qué el modelo de datos está diseñado así, por qué elegiste X arquitectura, qué pasa cuando tocás cierta configuración. Eso no se esconde. Se muestra. Porque es lo que amplifica la IA, no lo que la IA reemplaza.
Segundo, sistemas personales que trascienden la herramienta. Si tu flujo está atado a un modelo específico, sos frágil. Si tu flujo es "defino el problema, documento, valido con N modelos disponibles, aplico criterio propio, itero", sos antifrágil. Cuando cambia el modelo, cambian los resultados. Vos no.
Tercero, documentación de tu propio proceso. El que documenta cómo piensa, cómo decide, cómo combina herramientas, construye un activo que ningún empleador puede borrar ni ningún modelo puede replicar. Esa documentación es tu proof of work en un mundo donde el output es falsificable.
Cuarto, y esto es contra intuitivo: mostrar cómo usás la IA, no esconderlo. Pero mostrarlo en un marco donde quede claro que vos sos el que decide, el que orquesta, el que valida. Shadow AI te convierte en sospechoso. Proof of work con IA te convierte en referente.
Es exactamente lo que los developers llevan haciendo dos años. Y por eso la narrativa pública sobre productividad en Tech la escribieron ellos, no los consultores Senior que entregan el triple pero siguen facturando horas-hombre como si nada hubiera cambiado.
El antifrágil no esconde que usa IA. La usa en público, documenta el proceso, y deja que los shocks del mercado validen su sistema.
Tu diagnóstico esta semana
Tres preguntas.
-
¿Estás escondiendo cuánto usás la IA en tu trabajo? Si la respuesta es sí, el problema no es la IA. Es que no confiás en que tu juicio es visible sin ella. Ese es el gap que tenés que tapar.
-
¿Tu flujo de trabajo depende de un modelo específico? Si mañana ese modelo sube de precio el doble, baja de calidad o desaparece, ¿qué pasa con tu capacidad de entregar? Si la respuesta es "me hundo", sos frágil.
-
¿Podés explicarle a alguien cómo decidís cuándo usar IA y cuándo no? Si tardás más de 30 segundos en responder, no tenés un sistema. Tenés un hábito. Los hábitos se rompen cuando cambia el contexto.
La semana pasada hablamos de la brecha externa: quién accede a qué modelos. Esta semana, la brecha interna: quién esconde cómo trabaja y por qué.
La próxima construimos el sistema que te hace antifrágil en las dos.
FACE o RIP. El tablero ya cambió. La pregunta es si estás jugando a la defensiva o estás construyendo el músculo que se fortalece con cada shock.
¿Arrancamos?
Fuentes: De Neve, Hancock y Niederhoffer. "Why Companies That Choose AI Augmentation Over Automation May Win in the Long Run." Harvard Business Review, abril 2026. · Mo Gawdat, Scary Smart. · Nassim Nicholas Taleb, Antifragile, 2012. · Claude Mythos Preview System Card, Anthropic, abril 2026. · Erik Brynjolfsson et al., investigación sobre la "Productivity J-Curve". · Indeed Workforce Insights Report 2025.
Newsletter
Para el profesional tech que no quiere quedar obsoleto.
Cada semana: una dosis de criterio sobre SAP, IA de frontera y rendimiento humano. Sin motivación barata.