GPT-5 e o teatro do lancamento: como separar sinal de fumaca

por Francisco Santolo

Os "especialistas" repetem notas de imprensa como mandamentos enquanto as multinacionais montam o show do lancamento. O GPT-5 chegou com notoria instabilidade e degradacao em automacoes que antes funcionavam. O problema nao e uma empresa: e a industria do lancamento.

GPT-5 e o teatro do lancamento: como separar sinal de fumaca

Os "especialistas" de hoje--influencers, jornalistas--repetem as notas de imprensa como se fossem mandamentos. Buscam FOMO, vender seu curso/servico/publicidade e chegar primeiro para ganhar alguns seguidores.

As multinacionais montam o show: lancam, anunciam maravilhas e, cada vez mais, nao cumprem. O problema nao e uma empresa; e a industria do lancamento.

Na noite do lancamento, madrugei testando o GPT-5 a fundo.

Me surpreendeu a notoria instabilidade, o raciocinio confuso (a niveis impensados) e sobretudo a degradacao em GPTs, projetos, agentes e automacoes que antes funcionavam.

Inexplicavelmente, durante 24 horas as redes se mantiveram positivas. "Copiando e colando" as mesmas mensagens. Depois comecou a se reverter a mare de opinioes.

O que mudou? Tweets de Sam Altman reconhecendo problemas e, mais uma vez, o eco das notas de imprensa.

Nao e so a OpenAI. Buscou unificar e simplificar e saiu com erros importantes. O Google abusa de anuncios grandiosos com o Gemini: manchetes hoje, explicacoes amanha. O problema nao e uma empresa: e a industria do lancamento.

Qual e o problema de fundo?

Que essa logica do "grande anuncio" e alheia as praticas modernas de inovacao. Em lean e agile se aprende com os atores do negocio: experimenta-se e cocria-se, implanta-se em lotes pequenos em producao, testa-se com amostras reais, mede-se e refina-se. Aqui, em vez disso, prioriza-se o show e transfere-se o risco ao usuario.

Essa logica antiga--muito comercial--(necessidade de "mostrar" recuperacao de mercado, disputar manchetes) esta criando riscos serios para empresas e usuarios.

A OpenAI promete consistencia e simplicidade, mas a execucao deixa problemas de desempenho e incerteza. O Google maqueta promessas que depois nao entrega ou nao funcionam como anunciado. Resultado: dilui-se o posicionamento e a proposta de valor de ambos, e cai a confianca na aplicacao dessas ferramentas.

Competicao por manchetes. Uns anunciam cedo demais; outros saem instaveis. Em ambos os casos, o usuario paga--com tempo, erros e frustracao--enquanto as organizacoes tem que conter o impacto.

Quando o modelo muda, sua operacao paga. Voce monta GPTs internos, assistentes e agentes para tarefas concretas--classificar tickets, responder a clientes, gerar relatorios, disparar pedidos--e, de um dia para o outro, o ChatGPT muda de forma unilateral como "pensam". Resultado:

Formatos que ja nao cumprem o que seu sistema espera (campos vazios, nomes diferentes, estruturas novas).

Regras que se contradizem: o mesmo caso, duas decisoes diferentes.

Sequencias truncadas em agentes: deixam etapas sem executar ou as invertem.

Automacoes com impacto em usuarios ou no fisico (envios, reservas, faturamento) que falham em cadeia.

Esse caos nao se paga apenas em horas: mas em retrabalho, escalacoes, desculpas e reputacao.

Sim, existem barreiras tecnicas para reduzir esses riscos, mas nao sao infaliveis: os modelos podem mudar ou ser retirados, derivar em seu comportamento, variar tempos e custos ou falhar de forma imprevista, impactando clientes, operacoes e marca. A unica postura responsavel e projetar assumindo essa incerteza, construir gerenciando riscos e decidir com evidencia continua, nao com manchetes.

Nossa interacao com LLMs nao e apenas funcional; e relacional e emocional. Com o tempo, construimos confianca com um assistente: seu tom, sua forma de ler, de interpretar e suas intuicoes. Quando isso se mantem, aparece o flow e o trabalho flui.

Se essa "personalidade" muda de um dia para o outro e voce nao pode cuida-la ou escolher, destroi-se valor:

Cai a adocao: as pessoas deixam de usa-lo porque "ja nao me entende".

Aumentam os erros por expectativas: a equipe acredita que o assistente fara X e agora faz Y.

Quebra-se a confianca: cada resposta requer dupla verificacao; voce volta ao trabalho manual.

O que a industria poderia/deveria oferecer (alem de uptime):

Estabilidade comportamental como compromisso: nao mudar tom/estilo/formato sem aviso.

Avisos e janelas antes de modificar tracos de comportamento, com opcao de manter temporariamente o modelo anterior para transicionar sem quebrar fluxos.

Valor sustentavel e confianca = robustez operacional (que nada se quebre quando o provedor muda) + continuidade de personalidade e interacao (que o assistente "continue sendo ele").

Nao terceirizar o criterio. A inteligencia/estrategia do negocio nao se terceiriza; tampouco a IA, nem a experimentacao continua.

Aprender por lotes com o usuario no centro. Pilotos pequenos, metricas claras e decisoes baseadas em evidencia, nao em manchetes.

Projetar para a mudanca. A pergunta nao e se o modelo mudara, mas como voce absorvera essa mudanca sem prejudicar seus usuarios e atores do negocio.

Vendedores de fumaca: ficam expostos quando sua narrativa nao se baseia em experimentacao e conhecimento real. Nao siga aplausos; peca criterio. E forme o seu.

Imprensa e "especialistas": seu ativo e a credibilidade. Copiar e colar destroi esse capital.

Grandes tecnologicas: seu valor nao depende apenas do que prometem, mas de como executam a mudanca sem prejudicar o usuario (nem seu vinculo com o assistente).

Empresas usuarias: a vantagem esta em integrar, gerenciar o risco/retorno e aprender melhor que os demais.

Com dados frescos: Meus testes em manejo de textos longos (edicao de capitulos e documentos extensos) mudaram por completo em relacao a ontem: os resultados sao impressionantes em desempenho e velocidade.


Outros artigos de Francisco Santolo