Os "especialistas" de hoje--influencers, jornalistas--repetem as notas de imprensa como se fossem mandamentos. Buscam FOMO, vender seu curso/servico/publicidade e chegar primeiro para ganhar alguns seguidores.
As multinacionais montam o show: lancam, anunciam maravilhas e, cada vez mais, nao cumprem. O problema nao e uma empresa; e a industria do lancamento.
Na noite do lancamento, madrugei testando o GPT-5 a fundo.
Me surpreendeu a notoria instabilidade, o raciocinio confuso (a niveis impensados) e sobretudo a degradacao em GPTs, projetos, agentes e automacoes que antes funcionavam.
Inexplicavelmente, durante 24 horas as redes se mantiveram positivas. "Copiando e colando" as mesmas mensagens. Depois comecou a se reverter a mare de opinioes.
O que mudou? Tweets de Sam Altman reconhecendo problemas e, mais uma vez, o eco das notas de imprensa.
Nao e so a OpenAI. Buscou unificar e simplificar e saiu com erros importantes. O Google abusa de anuncios grandiosos com o Gemini: manchetes hoje, explicacoes amanha. O problema nao e uma empresa: e a industria do lancamento.
Qual e o problema de fundo?
Que essa logica do "grande anuncio" e alheia as praticas modernas de inovacao. Em lean e agile se aprende com os atores do negocio: experimenta-se e cocria-se, implanta-se em lotes pequenos em producao, testa-se com amostras reais, mede-se e refina-se. Aqui, em vez disso, prioriza-se o show e transfere-se o risco ao usuario.
Essa logica antiga--muito comercial--(necessidade de "mostrar" recuperacao de mercado, disputar manchetes) esta criando riscos serios para empresas e usuarios.
A OpenAI promete consistencia e simplicidade, mas a execucao deixa problemas de desempenho e incerteza. O Google maqueta promessas que depois nao entrega ou nao funcionam como anunciado. Resultado: dilui-se o posicionamento e a proposta de valor de ambos, e cai a confianca na aplicacao dessas ferramentas.
Competicao por manchetes. Uns anunciam cedo demais; outros saem instaveis. Em ambos os casos, o usuario paga--com tempo, erros e frustracao--enquanto as organizacoes tem que conter o impacto.
Quando o modelo muda, sua operacao paga. Voce monta GPTs internos, assistentes e agentes para tarefas concretas--classificar tickets, responder a clientes, gerar relatorios, disparar pedidos--e, de um dia para o outro, o ChatGPT muda de forma unilateral como "pensam". Resultado:
Formatos que ja nao cumprem o que seu sistema espera (campos vazios, nomes diferentes, estruturas novas).
Regras que se contradizem: o mesmo caso, duas decisoes diferentes.
Sequencias truncadas em agentes: deixam etapas sem executar ou as invertem.
Automacoes com impacto em usuarios ou no fisico (envios, reservas, faturamento) que falham em cadeia.
Esse caos nao se paga apenas em horas: mas em retrabalho, escalacoes, desculpas e reputacao.
Sim, existem barreiras tecnicas para reduzir esses riscos, mas nao sao infaliveis: os modelos podem mudar ou ser retirados, derivar em seu comportamento, variar tempos e custos ou falhar de forma imprevista, impactando clientes, operacoes e marca. A unica postura responsavel e projetar assumindo essa incerteza, construir gerenciando riscos e decidir com evidencia continua, nao com manchetes.
Nossa interacao com LLMs nao e apenas funcional; e relacional e emocional. Com o tempo, construimos confianca com um assistente: seu tom, sua forma de ler, de interpretar e suas intuicoes. Quando isso se mantem, aparece o flow e o trabalho flui.
Se essa "personalidade" muda de um dia para o outro e voce nao pode cuida-la ou escolher, destroi-se valor:
Cai a adocao: as pessoas deixam de usa-lo porque "ja nao me entende".
Aumentam os erros por expectativas: a equipe acredita que o assistente fara X e agora faz Y.
Quebra-se a confianca: cada resposta requer dupla verificacao; voce volta ao trabalho manual.
O que a industria poderia/deveria oferecer (alem de uptime):
Estabilidade comportamental como compromisso: nao mudar tom/estilo/formato sem aviso.
Avisos e janelas antes de modificar tracos de comportamento, com opcao de manter temporariamente o modelo anterior para transicionar sem quebrar fluxos.
Valor sustentavel e confianca = robustez operacional (que nada se quebre quando o provedor muda) + continuidade de personalidade e interacao (que o assistente "continue sendo ele").
Nao terceirizar o criterio. A inteligencia/estrategia do negocio nao se terceiriza; tampouco a IA, nem a experimentacao continua.
Aprender por lotes com o usuario no centro. Pilotos pequenos, metricas claras e decisoes baseadas em evidencia, nao em manchetes.
Projetar para a mudanca. A pergunta nao e se o modelo mudara, mas como voce absorvera essa mudanca sem prejudicar seus usuarios e atores do negocio.
Vendedores de fumaca: ficam expostos quando sua narrativa nao se baseia em experimentacao e conhecimento real. Nao siga aplausos; peca criterio. E forme o seu.
Imprensa e "especialistas": seu ativo e a credibilidade. Copiar e colar destroi esse capital.
Grandes tecnologicas: seu valor nao depende apenas do que prometem, mas de como executam a mudanca sem prejudicar o usuario (nem seu vinculo com o assistente).
Empresas usuarias: a vantagem esta em integrar, gerenciar o risco/retorno e aprender melhor que os demais.
Com dados frescos: Meus testes em manejo de textos longos (edicao de capitulos e documentos extensos) mudaram por completo em relacao a ontem: os resultados sao impressionantes em desempenho e velocidade.