Los "expertos" de hoy --influencers, periodistas-- repiten las notas de prensa como si fuesen mandamientos. Buscan FOMO, vender su curso/servicio/publicidad y llegar primero a sumar algunos seguidores.
Las multinacionales montan el show: lanzan, anuncian maravillas y, cada vez mas, no cumplen. El problema no es una empresa; es la industria del lanzamiento.
La noche del lanzamiento madrugue probando GPT-5 a fondo.
Me sorprendio la notoria inestabilidad, el razonamiento confuso (a niveles impensados) y sobre todo la degradacion en GPTs, proyectos, agentes y automatizaciones que antes funcionaban.
Inexplicablemente, durante 24 horas las redes se mantuvieron positivas. "Copiando y pegando" los mismos mensajes. Luego comenzo a revertirse la marea de opiniones.
Que cambio? Tweets de Sam Altman reconociendo problemas y, otra vez, el repique de las notas de prensa.
No es solo OpenAI. Busco unificar y simplificar y salio con errores importantes. Google abusa de anuncios grandilocuentes con Gemini: titulares hoy, explicaciones manana. El problema no es una empresa: es la industria del lanzamiento.
Cual es el problema de fondo?
Que esta logica de "gran anuncio" es ajena a las practicas modernas de innovacion. En lean y agile se aprende con los actores del negocio: se experimenta y co-crea, se despliega en lotes pequenos a produccion, se prueba con muestras reales, se mide y se refina. Aqui, en cambio, se prioriza el show y se traslada el riesgo al usuario.
Esa logica antigua --muy comercial-- (necesidad de "mostrar" repunte de mercado, pelear titulares) esta creando riesgos serios para empresas y usuarios.
OpenAI promete consistencia y simplicidad, pero la ejecucion deja problemas de desempeno e incertidumbre. Google maqueta promesas que luego no entrega o no funcionan como se anuncio. Resultado: se diluye el posicionamiento y la propuesta de valor de ambos, y cae la confianza en la aplicacion de estas herramientas.
Competencia por titulares. Unos anuncian demasiado pronto; otros salen inestables. En ambos casos, el usuario paga --con tiempo, errores y frustracion-- mientras las organizaciones tienen que contener el impacto.
Cuando el modelo cambia, tu operacion paga. Montas GPTs internos, asistentes y agentes para tareas concretas --clasificar tickets, responder a clientes, generar reportes, disparar ordenes-- y, de un dia para otro, ChatGPT cambia de forma unilateral como "piensan". Resultado:
Formatos que ya no cumplen lo que espera tu sistema (campos vacios, nombres distintos, estructuras nuevas).
Reglas que se contradicen: el mismo caso, dos decisiones diferentes.
Secuencias truncas en agentes: dejan pasos sin ejecutar o los invierten.
Automatizaciones con impacto en usuarios o en lo fisico (envios, reservas, facturacion) que fallan en cadena.
Ese caos no solo se paga en horas: sino en retrabajo, escaladas, disculpas y reputacion.
Si, hay barreras tecnicas para reducir estos riesgos, pero no son infalibles: los modelos pueden cambiar o retirarse, derivar en su comportamiento, variar tiempos y costos o fallar de forma imprevista, impactando a clientes, operaciones y marca. La unica postura responsable es disenar asumiendo esa incertidumbre, construir gestionando riesgos y decidir con evidencia continua, no con titulares.
Nuestra interaccion con LLMs no es solo funcional; es relacional y emocional. Con el tiempo, construimos confianza con un asistente: su tono, su forma de leer, de interpretar y sus intuiciones. Cuando eso se mantiene, aparece el flow y el trabajo fluye.
Si esa "personalidad" cambia de un dia para otro y no puedes cuidarla o elegir, se destruye valor:
Baja la adopcion: la gente deja de usarlo porque "ya no me entiende".
Aumentan los errores por expectativas: el equipo cree que el asistente hara X y ahora hace Y.
Se quiebra la confianza: cada respuesta requiere doble chequeo; vuelves al trabajo manual.
Que podria/deberia ofrecer la industria (ademas de uptime):
Estabilidad comportamental como compromiso: no cambiar tono/estilo/formato sin aviso.
Avisos y ventanas antes de modificar rasgos de comportamiento, con opcion de mantener temporalmente el modelo anterior para transicionar sin romper flujos.
Valor sostenible y confianza = robustez operativa (que nada se rompa cuando el proveedor cambia) + continuidad de personalidad e interaccion (que el asistente "siga siendo el").
No externalizar el criterio. La inteligencia/estrategia del negocio no se terceriza; tampoco la IA, ni la experimentacion continua.
Aprender por lotes con el usuario en el centro. Pilotos pequenos, metricas claras y decisiones basadas en evidencia, no en titulares.
Disenar para el cambio. La pregunta no es si el modelo cambiara, sino como absorberas ese cambio sin perjudicar a tus usuarios y actores del negocio.
Vendedores de humo: quedan expuestos cuando su narrativa no se basa en experimentacion y conocimiento real. No sigas aplausos; pide criterio. Y forma el tuyo.
Prensa y "expertos": su activo es la credibilidad. Copiar y pegar destruye ese capital.
Grandes tecnologicas: su valor no depende solo de lo que prometen, sino de como ejecutan el cambio sin danar al usuario (ni su vinculo con el asistente).
Empresas usuarias: la ventaja esta en integrar, gestionar el riesgo/retorno y aprender mejor que el resto.
Con datos frescos: Mis pruebas en manejo de textos largos (edicion de capitulos y documentos extensos) cambiaron por completo respecto de ayer: los resultados son impresionantes en rendimiento y velocidad.