La ilusión del prompt mágico y la realidad de entregar en ocho semanas
Liderando desarrollo en LATAM bajo presión real: comprimir ciclos de 6–8 meses a 7–8 semanas "apoyándonos fuerte" en IA generativa.
El contexto: evidencia y advertencia
Estoy liderando desarrollo en LATAM bajo una presión concreta: comprimir ciclos de 6–8 meses a 7–8 semanas "apoyándonos fuerte" en IA generativa. La premisa tiene algo de verdad: en su investigación enterprise, GitHub y Accenture reportan evidencias de impacto (incluyendo resultados de laboratorio donde desarrolladores completaron tareas hasta 55% más rápido) y una metodología basada en experimento y telemetría para medir su impacto en entornos reales.

Pero también hay un dato que obliga a madurar el discurso: el reporte de DORA sobre IA generativa observa que, al aumentar adopción 25%, la estabilidad de entrega cae en promedio (7.2%) y el throughput muestra un efecto negativo pequeño (1.5%). Lo interpreto como un recordatorio de liderazgo: acelerar exige un sistema que absorba variabilidad (calidad, seguridad y operación), no solo una herramienta que escriba código.
Introducción: una presión y una paradoja
La ilusión del demo
La ilusión nace en el demo. Un stakeholder muestra una UI con prompts, un flujo "que ya funciona", y la conversación salta directo a producción: "solo hay que montarlo". Me recordó un tema recurrente en Productoria: cuando el calendario gobierna el desarrollo, la calidad termina pagando, y la era del parche puede ser promesa… o peligro.
La decepción del equipo
En paralelo, el equipo se entusiasma explorando y se decepciona rápido cuando el output está incompleto o sin contexto interno. Esa decepción es sensata: sin conocimiento organizacional, el modelo responde como generalista y la confianza se erosiona; y DORA documenta que la confianza en outputs de genAI se relaciona con la capacidad de capturar beneficios de productividad (sin confianza, no hay adopción sostenida).
Talleres con stakeholders: convertir demos en claridad
Dejé de discutir si el demo "está bien" y empecé a usarlo como artefacto de descubrimiento. En una sesión, un líder de negocio llegó con un flujo montado en prompts y una pregunta que sonaba inocente: "si ya corre, ¿qué falta?". Bastaron 15 minutos para que el mismo demo revelara lo que no estaba en pantalla: datos, auditoría, usuarios reales, y quién se despierta cuando algo falla.
El patrón es estable: el negocio trae un prototipo y un expectation gap escondido (demo ≠ plataforma). Cuando explicamos que no es tan simple, aparece el juicio emocional ("no quieren subirse"), pero ahí está la oportunidad: el demo revela su modelo mental y permite negociar qué significa "funciona" con criterios explícitos.
Para bajar la conversación a tierra, usé Value Stream Mapping porque hace visible dónde se va el tiempo real. DORA describe VSM como una práctica para visualizar el flujo de trabajo de idea a producción, identificar cuellos de botella y facilitar conversaciones sobre fricción.
Qué hice en los talleres
1
Entrada
Demo + prompts + "dolor" en una frase.
2
En 90 minutos
Outcome medible, mapa VSM del flujo actual, y NFRs mínimos como criterios de aceptación.
3
Salidas
Una hoja de outcome/KPIs, registro de supuestos, VSM con el cuello dominante, y un backlog de slice vertical (operable).
Dónde se rompen los prototipos al tocar el SDLC
El prototipo suele "correr", pero falla donde no se ve en el demo:
Contexto
Reglas de negocio, contratos de datos, integraciones, decisiones históricas.
NFRs
Performance, disponibilidad, auditoría, costos, mantenibilidad.
Seguridad y evidencia
NIST es explícito: muchos SDLC no abordan seguridad en detalle y hay que integrar prácticas de desarrollo seguro.
Operación
Observabilidad, runbooks, SLOs, rollback, ownership.

Si el prototipo incluye LLMs, aparece otro vector: OWASP cataloga riesgos de apps con LLMs (prompt injection, manejo inseguro de outputs, disclosure de información sensible, supply chain, etc.). Y para código generado, el preprint 2026 "Broken by Default" (en arXiv) evaluó 3,500 artefactos y reporta vulnerabilidades en 55.8%; además, en sus experimentos reporta que instrucciones explícitas de seguridad reducen poco el promedio y que herramientas industriales combinadas no detectaron 97.8% de los hallazgos probados formalmente.
Por qué el "lift-and-shift" de prompts a producción no existe sin cambiar el sistema
La promesa de 7–8 semanas fracasa cuando se intenta comprimir solo "teclado", no el flujo end-to-end.
DORA insiste en que velocidad y estabilidad no son trade‑offs en alta performance, pero eso exige reducir lotes, colas y retrabajo, y medir throughput e inestabilidad con métricas concretas (lead time, deployment frequency, failed deployment recovery, change fail rate, rework).
Una ruta por etapas: del demo al release controlado
En vez de "migrar el demo", lo traté como una ruta por etapas:

La diferencia práctica es "Contexto": la guía de OpenAI describe RAG como patrón para recuperar contexto interno (documentos o bases vectoriales) y generar respuestas más precisas y contextualizadas; sin eso, el asistente vuelve a ser un autocomplete caro.
Recomendaciones prácticas
Convertir el tiempo objetivo en contrato de alcance
Un slice vertical operable.
Pilotear con medición dura
El estudio GitHub/Accenture es útil por su combinación de experimento y telemetría.
KPIs mínimos
Adopción y aceptación/uso; PR cycle time; lead time a producción; frecuencia de despliegue; failed deployment recovery; change fail rate/rework; señales de seguridad (SAST/SCA/secrets); y costo por flujo.
Gobierno y capacitación como parte del plan
IBM describe barreras típicas de adopción (precisión/sesgo, falta de datos propietarios para personalizar, falta de expertise, confidencialidad).
En mi experiencia, el punto de quiebre no está en la herramienta: está en el momento en que el negocio quiere tratar el demo como base técnica. Para evitarlo, cierro cada taller con dos acuerdos: qué se considera un "done" operable (incluyendo NFRs y seguridad) y cuál es el cuello de botella a atacar primero en el flujo. Eso transforma la presión en un plan de aprendizaje iterativo, no en una guerra de percepciones.

La siguiente entrega la dedicaré a diseñar un piloto IA‑first sin caer en "medir solo uso": cómo instrumentar datos, cómo elegir un mix de casos de uso (alto valor/bajo riesgo primero) y cómo construir barandales para que la velocidad no nazca de atajos.