Enterprise & AI Survival··11 min de lectura

La IA acaba de dividir a la humanidad en dos. ¿Ya sabés de qué lado estás?

Anthropic tiene un modelo que no va a publicar. Jensen Huang dice que la AGI ya llegó. Mo Gawdat habla de 12 a 15 años difíciles. El ajedrez ya fue — ahora es squash. Y el partido ya empezó.

La semana pasada Anthropic no publicó un modelo. Eso puede parecer no-noticia. Pero es la primera vez en la historia de esta industria que un lab decide que algo es demasiado bueno para soltarlo al público. Se llama Mythos. Y no lo vamos a ver.

No porque no exista. Sino porque alguien decidió que algunos lo merecen y otros no. Por primera vez, el acceso a la IA más avanzada dejó de ser una cuestión de suscripción. Pasó a ser una cuestión de quién sos. La excusa válida es la seguridad — pero igual ni vos ni yo tendremos acceso a este modelo, al menos por ahora.

Eso es la señal. El momento en que la tecnología deja de ser democrática. Y si no lo registraste como lo que es — la creación formal de dos clases sociales — es porque todavía estás pensando que esto es una conversación sobre herramientas.

Mientras tanto, la droga empieza a fallar

Pero antes de hablar de clases sociales, hay algo que está pasando en tiempo real que merece atención.

Los últimos meses, algo raro empieza a aparecer en los foros, en los grupos de developers, en los threads de gente seria: los modelos que en 2025 y hasta hace nada parecían magia, que comprimían semanas de trabajo en horas, que generaban apps desde cero en una tarde, están bajando de calidad. No es ansiedad colectiva. Miles de usuarios están documentando que los outputs son peores, que tienen que esperar hasta cierta hora para que el sistema no esté saturado, que la suscripción de $20 ya no alcanza y hay que subir al tier de $200.

La aceleración fue tan brutal que generó dependencia antes de que alguien pudiera cuestionarla. Una droga productiva de resultados mágicos. Y ahora el suministro parece estar ajustándose.

¿Casualidad? ¿Degradación técnica? ¿O la consecuencia natural de haber creado algo lo suficientemente poderoso para volverse indispensable, y ahora estar calibrando quién accede a qué versión?

Esa es exactamente la pregunta que me parece más importante que cualquier respuesta que se esté dando ahora mismo.

La IA que construye a la IA

Y hay un meta-punto que da más vértigo todavía.

Anthropic anuncia que tiene un nuevo modelo. ¿Cómo lo construyeron? ¿Artesanalmente, ingenieros escribiendo código línea por línea? ¿O fue el modelo anterior el que ayudó a construir el siguiente? Nadie lo está diciendo con claridad. Pero si la respuesta es la segunda — si la IA ya está construyendo versiones mejoradas de sí misma con supervisión humana pero no autoría humana — entonces el tablero cambió de juego hace rato.

Hace solo unos días Jensen Huang decía en el podcast de Lex Fridman que la AGI se había alcanzado. Tiraba esa bomba y la gente como si nada. Hemos perdido completamente la capacidad de asombro. Estoy seguro de que llegan los OVNIs mañana y seguimos scrolleando. Pero lo que dice Jensen no es marketing. Es el CEO de la empresa que fabrica el hardware sobre el que corre todo esto. Cuando él dice que ya llegamos, al menos merece que pares y lo pienses un segundo.

El ajedrez se jugó. Ahora es squash.

Mo Gawdat, ex Chief Business Officer de Google X y autor de Scary Smart, es uno de los que más de cerca vio cómo se construye esto. Y usa una metáfora que me parece la más honesta de todas las que circulan.

La IA ya ganó al ajedrez. Eso lo sabe todo el mundo. Lo que nadie terminó de procesar es lo que significa que ahora esté jugando squash.

El ajedrez es determinístico. Tablero fijo, reglas fijas, posiciones conocidas. Si tenés suficiente poder computacional, lo resolvés. Deep Blue lo demostró hace casi 30 años.

El squash es otra cosa. La pelota rebota en ángulos que no podés predecir del todo. El rival se mueve. El ambiente cambia en tiempo real. No alcanza con calcular más rápido. Tenés que adaptarte.

Eso es lo que está pasando. La IA ya no está demostrando que puede resolver problemas estructurados mejor que vos. Está demostrando que puede desenvolverse en entornos dinámicos — tu trabajo, tu industria, tu mercado — mejor que vos por lejos.

Incluso los que construyeron estas herramientas están diciendo algo que antes hubiera sonado ridículo: que el coding como acto de escribir código línea por línea ya es secundario. Algunos referentes de la industria llevan meses sin abrir un editor. "El lenguaje de programación más importante hoy es el inglés" — la cita ya es cliché, pero el peso de lo que dice todavía no aterrizó en la mayoría de los departamentos de IT del enterprise.

No es que programar no importe. Es que el acto mecánico de escribir sintaxis dejó de ser el cuello de botella. Lo que importa ahora es entender qué estás construyendo y por qué. Sin eso, la herramienta no amplifica nada.

FACE o RIP. No hay neutros.

Gawdat describe dos patrones de respuesta ante esta transición. Son tan claros que incomodan.

El primero es FACE: Fear, Anger, Conspiracy, Existential dread. La mayoría de las personas que ves en redes discutiendo sobre IA están acá. El miedo primero, la bronca después, la teoría conspirativa como refugio y el nihilismo como destino. El "¿no podrá ser que nos estén haciendo dependientes a propósito?" es una pregunta legítima, pero te termina paralizando en lugar de mover.

El segundo es RIP: Reward, Innovation, Progress. Es la minoría que entendió que el mundo anterior a 2023 ya no vuelve, que patalear contra eso es una pérdida de energía, y que la única movida racional es aprender a jugar el nuevo juego. No con ingenuidad, con los ojos abiertos sobre los riesgos, pero moviéndose igual.

Las dos clases sociales que está creando la IA no se van a dividir por acceso a internet, ni por educación formal, ni por país de origen. Se van a dividir exactamente acá: entre los que procesan la disrupción como data y los que la procesan como amenaza.

Mythos es el símbolo. Pero la brecha ya se está abriendo en tu empresa, en tu equipo, en cada momento en que decidís si usás la IA para pensar o para evitar pensar.

Los próximos 12 a 15 años: el infierno antes del cielo

Gawdat no endulza esto. Hay una ventana de 12 a 15 años que va a ser muy difícil.

No porque la IA sea mala. Sino porque los trabajos van a desaparecer más rápido de lo que aparecen los nuevos. La curva de destrucción siempre precede a la curva de creación. En la Revolución Industrial le llevó décadas a la sociedad reorganizarse. Esta vez el ciclo es más corto y más violento.

El final de esa ventana, según Gawdat, es algo que llama el mínimo de energía: un mundo donde la IA y la robótica producen suficiente para que el costo de los bienes básicos caiga a casi nada, y el trabajo humano se libere para lo que los humanos hacen bien — creatividad, conexión, juicio, cuidado.

Pero para llegar ahí, hay que atravesar el medio.

Y en el medio, los gobiernos van a tener que hacer algo que nadie que cree en el mercado quiere admitir: alguna forma de ingreso básico universal. Gawdat lo llama el "pivote comunista" — no como ideología sino como matemática. Sam Altman lleva tiempo coqueteando con la idea en sus experimentos. Pero cuando el trabajo como commodity desaparece a escala masiva, necesitás un mecanismo diferente de distribución. No porque sea una buena idea filosófica. Porque no hay otra opción viable. Y las consecuencias en cadena para la economía entera son salvajes.

Nadie en el enterprise está poniendo esto en sus roadmaps de transformación digital. Pero los números no van a esperar a que estemos cómodos con la conversación.

IQ 700. Pero hay un catch.

Gawdat dice que la IA efectivamente le da a cualquier persona acceso a un razonamiento equivalente a un IQ de 700. En términos de capacidad de análisis, síntesis, identificación de patrones y generación de opciones, el techo se elevó para todos.

El catch es este: un multiplicador aplicado a cero da cero.

Si no tenés criterio propio, si no entendés el dominio en el que estás operando, si no podés evaluar si lo que la IA te devuelve tiene sentido, entonces el IQ 700 no te sirve. Es como darle una sierra de precisión a alguien que nunca agarró una herramienta. El accidente no es culpa de la sierra.

El término que usa Gawdat es Augmented IQ. No es que la IA piensa por vos. Es que vos pensás con la IA como extensión de tu capacidad cognitiva. Para eso necesitás tener una capacidad cognitiva que extender.

Acá está la grieta más profunda en el enterprise. Los consultores SAP que construyeron su carrera ejecutando transacciones, siguiendo runbooks, aplicando soluciones estándar, tienen muy poco que amplificar. La IA no los potencia. Los expone.

La semana pasada le pedí a SAP Joule que me explicara qué hacía una clase que me estaba reventando un servidor. Me inventó todo. Gemini detectó inconsistencias en la respuesta. Pero el que tomó la decisión final fui yo. No fue ninguna IA. Ese es el punto exacto: el que tiene 15 años de entender por qué el modelo de datos de SAP está diseñado así, qué pasa cuando tocás tal configuración, cómo se comporta una integración bajo carga, tiene algo real que amplificar. El IQ 700 aplicado a ese criterio acumulado es devastadoramente poderoso.

La dependencia sin criterio es el escenario FACE. El Augmented IQ es el escenario RIP.

Las 4 habilidades que no van a ser automatizadas

Gawdat identifica cuatro capacidades que en el horizonte visible no serán reemplazadas. No porque sean místicas. Sino porque requieren exactamente lo que la IA no tiene: juicio situado, contexto vivido, ética encarnada.

Dominio de la IA. No es saber usar ChatGPT. Es entender cómo funcionan estos sistemas, cuáles son sus límites reales, cuándo confiar y cuándo no, cómo construir workflows que amplifiquen en lugar de atrofiar. La diferencia entre manejar un auto y saber de mecánica.

Agilidad. La capacidad de cambiar de marco cuando el entorno lo exige. Aprender un dominio nuevo lo suficientemente rápido como para ser relevante antes de que el ciclo siguiente te deje afuera. Esto no se entrena leyendo artículos de LinkedIn — y no es la agilidad de los cursos de Scrum.

Ética. En un mundo donde la IA puede generar cualquier cosa, la brújula ética no es filosófica, es operativa. El profesional que no puede distinguir qué debe hacerse de qué puede hacerse va a producir daño a escala industrial.

Escepticismo. No desconfianza paranoica. Escepticismo técnico. La capacidad de recibir un output de la IA y preguntarte: ¿esto tiene sentido? ¿Qué asumió que yo no le pedí? ¿Qué no me está diciendo? El que acepta el primer output sin cuestionarlo no está usando IA. Está siendo usado por ella.

Estas cuatro no son habilidades nuevas. Son las que siempre distinguieron al profesional que piensa del que ejecuta. La diferencia es que antes podías esconder su ausencia detrás del trabajo técnico rutinario. Ahora no podés.

Tu diagnóstico, esta semana

Volvamos al principio.

Anthropic tiene un modelo que no va a publicar porque es demasiado capaz para liberarlo sin control. Eso no es una curiosidad técnica. Es el anuncio formal de que la IA premium va a estar detrás de muros. Y mientras tanto, la versión masiva se degrada lo suficiente para que los que dependen de ella tengan que pagar más o esperar su turno.

La brecha no es futura. Está pasando ahora.

Hoy esa brecha todavía es cruzable. La ventana de Gawdat de 12 a 15 años todavía está abierta. El juego todavía se puede aprender.

Pero Mythos es el primer indicio de que la ventana tiene cerrojo.

Entonces, antes de cerrar, tres preguntas concretas para esta semana:

  1. ¿Podés explicarle a alguien lo que la IA hizo por vos hoy, sin la IA? Si no podés, no sos el orquestador. Sos el que firma sin leer.
  2. ¿Cuál es el conocimiento de dominio que tenés vos y que la IA no puede reproducir sin tu contexto? Si tardás más de 10 segundos en responder, ese es el gap que tenés que tapar.
  3. ¿Qué aprendiste en las últimas 4 semanas que no fue generado por un modelo? Si la respuesta es nada, ya empezaste el proceso.

FACE o RIP. El tablero de ajedrez ya fue. Ahora es squash. Y el partido ya empezó.

¿Arrancamos?

Newsletter

Para el profesional tech que no quiere quedar obsoleto.

Cada semana: una dosis de criterio sobre SAP, IA de frontera y rendimiento humano. Sin motivación barata.