👻 La Newsletter de @weareDMNTRs 👻 

Los derroteros de mi vida profesional me han traído esta semana a Gran Canaria y, desde las Dunas de Maspalomas, empiezo a escribir esta newsletter.

Porque creo que van a pasar cosas.

Una de las dudas que llevo rumiando estos días tiene que ver con algo que, creo, estamos empezando a rozar en el desarrollo de software y la gestión de sistemas: el momento sin retorno.

A ver si consigo explicarlo...

En el momento en que metes un agente de IA, llámese OpenClaw, Claude Cowork, Copilot, o lo que venga después, a controlar el desarrollo de una aplicación o la gestión de un sistema, empiezas a entrar en una dinámica de la que es muy difícil salir.

Al principio todo es muy razonable: El agente te ayuda, revisas el código, ejecutas tests, corriges cosas.

Pero poco a poco empiezas a delegar más. Mucho más.

Y totalmente normal, porque somos vagos por naturaleza.

Aunque te obligues a revisar, aunque tengas una buena batería de tests, llega un momento en el que el criterio se vuelve peligrosamente simple: “Funciona y pasa los tests. Pues adelante.”

Y ahí empieza el cambio.

Porque cuando el desarrollo lo hace mayoritariamente el agente, arreglar algo a mano empieza a sentirse igual que cuando te toca mantener una aplicación escrita por alguien que ya no está en la empresa.

Ese compañero que se fue, con ese código que solo tocaba él, lo que viene siendo el marrón de auditoría que nadie quiere abrir.

Pues algo parecido es esta movida de la IA. Intentar meter la mano en ese código empieza a costar más que pedirle al propio agente que lo arregle. Y así, poco a poco, la solución natural pasa a ser añadir más IA a la ecuación para solucionar problemas, hacer upgrades o evolucionar el sistema.

Que, por cierto, tampoco me parece necesariamente malo. De hecho, creo que si queremos sacar verdadero partido de la IA en desarrollo, el objetivo no debería ser que escriba código como lo haríamos nosotros, pensando en que sea fácil de mantener por humanos.

Probablemente el camino correcto sea otro: Código optimizado para que lo entiendan y lo mantengan otras IAs. Nos guste o no, que no lo acabo de tener claro.

Pero una vez que cruzas ese Rubicón, cuando el agente empieza a construir partes importantes de tu sistema, volver atrás se vuelve muy complicado.

Y aquí viene la parte que me tiene un poco inquieto: Cuanto más meto IA en mi vida profesional, más alucino con los desbarramientos virtuales que a veces tiene.

Ideas aparentemente razonables, soportadas por explicaciones muy convincentes. Lo que vienen siendo soluciones que suenan perfectas…

…y que, si no tienes una base sólida del tema que estás tocando, podrían acabar metiendo un destrozo bastante serio en tus sistemas.

El problema es que la IA no solo se equivoca, se equivoca con seguridad y eso cambia completamente el juego.

No es el error torpe que ves venir a kilómetros, ni el fallo evidente que salta a la vista cuando lees el código, es algo mucho más peligroso: una explicación coherente, bien redactada, técnicamente plausible, que te lleva exactamente en la dirección equivocada.

Y cuando eso ocurre en una conversación de chat no pasa nada. Tan solamente pierdes diez minutos, refactorizas algo y sigues con tu vida. Pero cuando esa misma dinámica empieza a formar parte del ciclo normal de desarrollo o de la gestión de sistemas, la cosa cambia. Porque el sistema empieza a evolucionar sobre decisiones que nadie ha comprendido del todo, pero que parecen correctas.

Ahí es donde empieza a aparecer algo que en IT conocemos muy bien: la deuda de conocimiento. No solo no sabes exactamente por qué algo funciona así, sino que tampoco sabes muy bien qué pasa si lo tocas. El sistema funciona, los tests pasan, los logs están en verde… pero debajo hay capas de decisiones que no has razonado tú, que no has diseñado tú, y que probablemente nadie en el equipo entiende del todo.

Cuanto más tiempo pasa, más difícil se vuelve parar la maquinaria, pero tengo claro que vamos a tener una época de sufrimiento hasta que la cosa evolucione a un estado "razonable". Porque cuando aparece un problema serio, la reacción natural ya no es sentarte a entender el sistema desde abajo, sino volver a preguntarle a la IA qué hacer. Más agente, más parche, más automatización encima de algo que cada vez entiendes menos. Todo bien.

Por eso llevo días repitiendo en Twitter la misma frase: van a pasar cosas.

Cuando sistemas críticos empiecen a construirse así, sobre capas de decisiones generadas, aceptadas y reutilizadas sin verdadera comprensión, no será un bug lo que aparezca, será algo mucho más interesante: infraestructuras enteras funcionando de maneras que nadie puede explicar del todo.

Y no estoy seguro de que todos estemos preparados para cuando eso pase.

¡Feliz Domingo!


🔗 Newsletter patrocinada por: 🔗

 

   Protecting what matters most

 


🔊 Llámalo podcast... 🔊

Todos los episodios aquí: https://go.ivoox.com/sq/2343562

 


Y fin...

Me ha encantado Gran Canaria. Prometo volver.

He disfrutado de su gente, de su gastronomía y de sus carreteras, que ya conocía por los tramos del Rally Islas Canarias, ahora en el WRC, pero que vistas al volante se disfrutan de otra manera.

He tenido tiempo de sentarme a mirar el mar y de pensar en todas estas cosas que nos están pasando en el mundo IT. A veces viene bien salir un poco del ruido diario, de los repositorios y de los logs para mirar las cosas con algo de perspectiva.

Porque, al final, mientras nosotros discutimos si el agente debe usar una tool u otra, o si el prompt correcto son 200 o 2000 tokens, ahí fuera el mundo sigue girando con bastante normalidad.

Pero no sé por cuánto tiempo.

Porque si algo tengo claro después de estos días es que estamos en uno de esos momentos raros de la tecnología en los que todo parece funcionar… hasta que deja de hacerlo.

Y cuando eso pase, si pasa, espero que nos pille con algo que nunca debería haber pasado de moda en este oficio: criterio.

Porque agentes, modelos y automatización vamos a tener cada vez más, pero gente que entienda realmente lo que está pasando debajo, sospecho que cada vez menos.

Seguimos hablando por los canales habituales: X y Telegram.
 
Por cierto, si quieres, puedes invitarme a un cafelito. ☕☕☕

Hemos visto una foto en una duna con el portátil... este chaval no está bien de la cabeza...