O Que AI Ainda Erra em Media Operations Sem Julgamento Sênior
AI agora consegue produzir media plans, resumos de performance, frameworks de mensuração e setups de campanha numa velocidade impressionante. O problema não é que o output é obviamente ruim. O problema é que muitas vezes é bom o suficiente pra passar uma revisão casual, enquanto deixa escapar o contexto de negócio que realmente importa.
Nos últimos meses, enquanto venho construindo meu curso sobre AI-native media operations, um mesmo pensamento desconfortável continua voltando.
AI está ficando bom o suficiente pra ser perigoso de um jeito muito específico.
Não perigoso porque está obviamente errado. Perigoso porque muitas vezes é plausivelmente certo.
Esse é um modo de falha muito diferente.
Se um modelo de AI te dá uma resposta ridícula, a maioria das pessoas percebe. Ri, talvez tire um screenshot, talvez poste no LinkedIn, e segue em frente.
Mas se AI te entrega um plano de campanha 80% correto, um framework de mensuração que soa completo, uma narrativa de relatório que parece polida, ou uma recomendação de canal que parece estrategicamente coerente — a falha é muito mais sutil.
Alguém ainda precisa perguntar:
- Isso está fundamentado no negócio real?
- Isso se encaixa no contexto do cliente?
- Isso reflete como a plataforma se comporta na vida real?
- Isso cria os trade-offs certos, não só a resposta mais bonita?
É aí que o julgamento sênior ainda importa. E muito.
O Problema Não É "AI É Ruim em Mídia"
Pra deixar claro, eu não acho que AI é ruim em media operations. Não mais.
Na verdade, esse argumento fica mais fraco a cada mês.
AI já é útil pra:
- first-draft media plans
- hipóteses de audiência
- resumos de relatórios
- frameworks de teste criativo
- análises competitivas
- checklists de QA de campanha
- documentação de mensuração
Se alguém ainda diz "AI é só um brinquedo," eu acho que está subestimando o que está acontecendo.
Minha preocupação é quase o oposto.
AI ficou forte o suficiente pra que muitos times vão confiar nele antes de terem construído a camada de julgamento necessária pra supervisioná-lo bem.
E pela minha experiência, media operations é cheio de decisões de julgamento que não aparecem de forma organizada em nenhuma documentação.
Cinco Coisas Que AI Ainda Erra
Esses são os padrões que eu não paro de ver.
1. Otimiza pela métrica visível, não pelo objetivo real de negócio
AI é muito bom em seguir o target que recebeu.
Parece óbvio. Mas em mídia, o target declarado e o target real muitas vezes não são a mesma coisa.
Talvez o KPI diga leads, mas o negócio realmente precisa de pipeline qualificado. Talvez o briefing diga alcance, mas o cliente na verdade precisa de confiança política interna. Talvez o dashboard diga eficiência, mas a marca está tentando silenciosamente proteger posicionamento premium.
AI geralmente otimiza o que é legível.
Julgamento sênior é o que pergunta se o target legível é o correto em primeiro lugar.
2. Trata orientação de plataforma como realidade
Best practices de plataforma são úteis. Passei boa parte da minha carreira trabalhando com elas.
Mas qualquer pessoa que já rodou campanhas por anos sabe a distância entre orientação de plataforma e a realidade operacional bagunçada.
O que funciona no help center nem sempre funciona pra esse cliente, esse orçamento, essa categoria, esse mercado, essa maturidade de dados, ou esse deadline.
AI vai frequentemente produzir a resposta do livro-texto. O operador sênior sabe quando a resposta do livro-texto quebra no contato com o mundo real.
3. Perde a política de stakeholders
Esse é o assassino silencioso.
Um media plan pode ser matematicamente perfeito e mesmo assim falhar porque não corresponde às expectativas dos stakeholders.
Talvez o cliente precise de investimento visível de marca num canal porque a liderança acredita nele. Talvez o time regional precise de flexibilidade local. Talvez a organização de vendas desconfie de atribuição caixa-preta. Talvez procurement se importe menos com elegância do que com consolidação de fornecedores.
Não estou dizendo que devemos entregar a estratégia pra política. Não é isso.
Estou dizendo que media operations vive dentro de organizações, não dentro de diagramas limpos.
Pessoas sêniores geralmente sabem onde estão os tripwires invisíveis.
4. Suaviza as exceções
AI gosta de sistemas limpos.
Media operations real não é limpo.
Tem exceções em todo lugar:
- um cliente com gates de aprovação incomuns
- um mercado com restrições de plataforma
- um stack de mensuração com blind spots conhecidos
- restrições legais
- problemas de taxonomia legada
- dependências criativas que atrasam tudo
A máquina tende a te dar um modelo operacional coerente. O humano precisa notar aquela exceção feia que quebra tudo.
5. Confunde completude com prontidão
Essa me parece especialmente relevante porque vejo o mesmo padrão em código.
AI é fantástico em produzir coisas que parecem prontas.
O deck tem seções. O relatório tem bullet points. O framework tem categorias. A recomendação tem lógica.
E mesmo assim, quando você tenta usar num ambiente ao vivo, algo está errado.
O sequenciamento está errado. O risco está subestimado. O passo de validação está faltando. A recomendação assume capacidades que o time não tem.
Aquele último passo de "completo" pra "pronto" ainda é muito humano.
Julgamento Sênior Não Significa Só Senioridade
Preciso adicionar uma nuance importante aqui.
Quando digo "julgamento sênior," não quero dizer que o título mais alto na sala automaticamente tem a melhor resposta.
Na verdade, uma das realidades desconfortáveis das agências de mídia é que o VP de estratégia pode não ter tocado profundamente na plataforma há anos. O diretor de planejamento pode não conhecer as últimas particularidades de implementação. A pessoa mais próxima da verdade pode ser um operador mais júnior que ainda trabalha dentro dos sistemas todo dia.
Então não acho que a resposta é:
"Deixa a AI fazer o trabalho, depois pede pra um executivo sênior abençoar."
Acho que a resposta é mais perto de:
AI produz o primeiro rascunho. Praticantes profundos validam a verdade operacional. Pessoas sêniores adicionam julgamento de negócio, julgamento de trade-off e julgamento organizacional.
Esse é um modelo operacional muito diferente tanto da velha hierarquia de agência quanto da versão preguiçosa de "AI substitui o trabalho júnior."
A Camada de Avaliação É o Trabalho de Verdade
Escrevi recentemente sobre profundidade se tornando o diferenciador quando AI eleva o piso.
Acho que a expressão operacional disso são evals.
Não só no sentido de machine learning. No sentido prático de time.
O que define um bom setup de campanha? O que define um relatório confiável? Qual limiar de discrepância é aceitável? O que conta como pronto pro lançamento? O que deveria disparar uma segunda revisão?
Essas definições não são overhead administrativo. Elas são a camada de julgamento.
E os times que constroem essa camada bem vão tirar muito mais valor da AI do que os times que param nas bibliotecas de prompts e automação genérica.
O Que Isso Significa Pra Times
Não acho que o takeaway é "tenha medo de AI."
O takeaway é mais exigente do que isso.
Use AI agressivamente. Deixe fazer os 75-80%. Mas seja extremamente claro sobre onde o julgamento humano entra:
- definição de objetivos
- validação
- exceções
- trade-offs
- gestão de stakeholders
- padrões de qualidade
Isso não é anti-AI. Isso é como um modelo operacional de AI sério se parece.
Por isso também que construí o Module 1 do curso do jeito que construí. Eu queria que o módulo gratuito mostrasse o ciclo de vida completo da campanha, sim, mas também o ponto maior por baixo: AI pode tocar cada fase. Isso não elimina a necessidade de julgamento experiente. Muda onde esse julgamento mais importa.
É isso.
Eu genuinamente gostaria de ouvir como outras pessoas estão lidando com isso na prática. Se você já está rodando times de mídia, onde você vê AI produzindo as respostas erradas mais convincentes? E se você está mais no começo da carreira, sente que a barra de julgamento está ficando mais clara ou mais nebulosa?
Cheers, Chandler





