Quais Funções um Time de Marketing AI-Native Realmente Precisa em 2026
A maioria das conversas sobre AI e design de equipe começa pelo headcount. Eu acho que esse é o ponto de partida errado. A pergunta melhor é quais funções o seu time precisa — e essas acabam sendo as mesmas, seja com quatro ou quarenta pessoas.
Eu continuo ouvindo a mesma conversa em formas diferentes.
Alguém pergunta: "Quantas pessoas precisamos no time agora que temos AI?"
O número muda. Às vezes são quatro. Às vezes são dez. Às vezes é "provavelmente podemos cortar esse time pela metade."
Eu entendo por que as pessoas se ancoram no headcount. É concreto. Cabe numa linha de orçamento. É a pergunta que um CFO faz.
Mas pela minha experiência, é o ponto de partida errado.
A pergunta melhor é: quais funções o time precisa?
Porque as funções acabam sendo as mesmas — seja um pod de agência com quatro pessoas, um time in-house de quarenta, ou algo no meio. O organograma é flexível. As funções não são.
Tenho pensado muito nisso ao longo do último ano, e quero compartilhar onde cheguei. Posso estar errado em alguns detalhes. Mas o padrão subjacente me parece certo.
Primeiro: Por Que Não Começar Pelo Headcount?
Porque a resposta muda conforme o contexto, e o contexto varia enormemente.
Uma agência mid-market construindo do zero não tem nada a ver com um time enterprise retrofitando AI em workflows existentes. Um time in-house de oito pessoas tem restrições diferentes de um pod de agência atendendo um único cliente grande.
Se você começa com "quantas pessoas?", você obtém um número que parece preciso mas só se encaixa em um cenário.
Se você começa com "quais funções?", você obtém algo portátil.
Três Funções Operacionais (Mais um Líder Estratégico)
Depois de construir sistemas de AI para times de marketing e trabalhar como o modelo operacional realmente muda, eu sempre volto a três funções que precisam existir, independente do tamanho do time.
1. Validação de Output
Alguém precisa verificar o que a AI produz.
Não apenas "isso parece certo?" mas especificamente:
- isso bate com o que a plataforma realmente mostra?
- isso segue nosso guia de marca e regras de campanha?
- os dados são precisos, ou a AI suavizou algo importante?
- isso passaria na revisão que nosso stakeholder mais exigente faz?
Eu comecei a chamar isso de função Auditor de AI. A pessoa (ou pessoas) que valida o output da AI em plataformas, criativo e dados.
O interessante sobre essa função é que ela não precisa necessariamente de uma pessoa sênior. O que precisa é de alguém com profundidade atual de plataforma — alguém que esteve nas ferramentas recentemente o suficiente para perceber quando a AI produz algo errado com confiança. Escrevi sobre isso em AI Eleva o Piso — as pessoas mais próximas das plataformas são frequentemente os melhores validadores, independente do título.
Um estrategista sênior que não entrou na plataforma de ads nos últimos três anos provavelmente não consegue fazer isso bem. Um operador mid-level que vive na plataforma todo dia pode ser excelente nisso.
Isso importa para como você contrata e desenvolve pessoas.
2. Infraestrutura de Dados e Mensuração
Sistemas de AI são tão bons quanto os dados que fluem para eles. Alguém precisa ser dono de:
- implementação e precisão de tracking
- definições de eventos de conversão
- higiene do data warehouse
- conexões de dados cross-platform
- o ground truth da mensuração — o que constitui tracking preciso, thresholds aceitáveis de discrepância, lógica correta de atribuição
Eu penso nisso como a função Arquiteto de Sinais. É, na minha experiência, a função mais difícil de contratar em qualquer nível de senioridade. As pessoas que conseguem fazer isso bem são raras, e desenvolver essa profundidade internamente pode ser sua única opção realista.
Quando uma AI gera um plano de mensuração ou sinaliza uma anomalia de performance, a infraestrutura do Arquiteto de Sinais determina se aquela análise sequer é baseada em dados confiáveis. Sem essa função, você está construindo na areia.
3. Conhecimento Estruturado e Memória
Essa é a função sobre a qual escrevi mais recentemente, e acho que é a mais subvalorizada.
Alguém precisa manter a base de conhecimento estruturado que faz tudo funcionar:
- contexto de cliente ou marca (longo prazo: posicionamento, voz, cenário competitivo, padrões sazonais)
- conhecimento operacional (curto prazo: pacing desta semana, experimentos ativos, resultados recentes, questões em aberto)
- padrões de avaliação (como "bom" se parece, o que foi rejeitado e por quê, quais benchmarks importam)
Eu chamo isso de função Curador de Memória. A pessoa que garante que sistemas de AI tenham contexto atual e preciso para cada trabalho.
Memória de longo prazo se atualiza trimestralmente. Memória de curto prazo se atualiza a cada ciclo. Ambos os tipos precisam ser estruturados e mantidos deliberadamente. Sem isso, você tem o problema que eu continuo vendo: AI que produz output polido que erra completamente o contexto de negócio.
A boa notícia é que essa função se beneficia de experiência, mas a habilidade central é ensinável. É um dos pontos de entrada mais acessíveis para alguém se desenvolvendo rumo a um papel estratégico.
Mais: Um Líder Estratégico ou de Conta
Essas três funções precisam de alguém conduzindo a direção geral — definindo prioridades, gerenciando stakeholders, fazendo os trade-offs que moldam no que o time trabalha e por quê. Chame de Líder de Conta, Diretor de Marketing, Head de Growth, o que couber na sua organização.
O ponto é que as três funções acima — validação, infraestrutura, memória — são a camada operacional. O líder estratégico é a camada de direcionamento. Você precisa de ambas.
Como Isso Se Parece numa Segunda-Feira de Manhã
Deixa eu tornar isso concreto.
Uma marca mid-market de skincare está se preparando para lançar uma campanha de Q2. A AI gerou um plano de mídia inicial, brief criativo e framework de mensuração durante a noite.
Eis o que acontece antes de qualquer coisa ir ao ar:
O Auditor de AI abre o plano de mídia e verifica contra as plataformas. A AI recomendou um split 60/40 entre Meta e TikTok — mas o Auditor sabe que a integração do TikTok Shop da marca quebrou mês passado e não foi consertada. A AI não sabe disso. O Auditor sinaliza antes de qualquer budget ser comprometido.
O Arquiteto de Sinais olha o framework de mensuração. A AI propôs tracking baseado no setup de pixel do trimestre passado. Mas o Arquiteto sabe que o time migrou para tracking server-side duas semanas atrás, e os eventos antigos do pixel agora estão duplicando conversões. Os números de atribuição pareceriam ótimos e estariam completamente errados. O Arquiteto corrige as definições de eventos antes do dashboard ser construído.
O Curador de Memória revisa o brief criativo. A AI produziu algo polido — tom profissional, CTA forte, copy limpo. Mas a memória estruturada do Curador mostra que o CEO desse cliente rejeitou qualquer coisa com framing de "promoção" no trimestre passado, e o time de compliance exige linguagem específica sobre claims de ingredientes. O Curador adiciona essas restrições antes do brief chegar ao time criativo.
O Líder de Conta olha os três outputs, agora validados e corrigidos, e faz a decisão estratégica: adiar o lançamento em uma semana porque um concorrente acabou de anunciar um produto similar e a marca precisa de um ângulo de diferenciação primeiro.
Nenhuma dessas capturas é glamorosa. Todas teriam sido perdidas por um time que simplesmente confiou no output da AI. Escrevi sobre esse padrão em Por Que a Maioria das Ferramentas de AI Marketing Parecem Rápidas Mas Enfraquecem o Julgamento do Time — a velocidade é real, mas sem a camada de validação, velocidade só te acelera na direção de uma decisão pior.
Como a Forma Muda por Contexto
Aqui é onde eu acho que a conversa fica mais útil do que um headcount fixo.
Um pod pequeno de agência ou time de startup (3-5 pessoas): Uma pessoa segura duas ou até três funções. O líder estratégico também curadoria memória. O especialista de canal também audita output de AI. Isso funciona quando o time é pequeno o suficiente para que o contexto fique compartilhado naturalmente.
Um time de agência mid-market (6-12 pessoas): Cada função ganha uma pessoa dedicada. É aqui que o modelo operacional começa a compor — o conhecimento estruturado do Curador de Memória torna todas as outras funções mais efetivas ao longo do tempo. Pelo que tenho visto, mid-market é na verdade a zona de disrupção mais interessante agora, porque a lacuna entre o que esses clientes atualmente recebem e o que um time aumentado por AI pode entregar é maior aqui.
Um time enterprise ou in-house (15-40+ pessoas): Cada função pode ter um time por trás. A função de Auditor de AI vira uma camada de qualidade em múltiplos canais. A função de Arquiteto de Sinais vira uma capacidade de data engineering. A função de Curador de Memória vira uma prática de conhecimento institucional.
O ponto-chave: as funções são inegociáveis. Os rótulos do organograma e o número de pessoas por função são completamente flexíveis.
Por isso que eu acho que "quantas pessoas?" é a pergunta errada. A pergunta melhor é: "essas três funções existem no nosso time, e quem é dono delas?"
Onde Pessoas Júnior Se Encaixam — E Por Que Isso Importa
Quero abordar algo diretamente, porque acho que é importante.
Muita conversa sobre AI e times soa assim: times menores, mais alavancagem, menos contratações. E se você está no início da carreira, isso pode soar como: menos oportunidades pra mim.
Eu não acho que é assim. Mas também não acho que o caminho antigo funciona mais, e quero ser honesto sobre isso.
O antigo modelo de aprendizado funcionava por repetição. Pessoas júnior aprendiam fazendo tarefas manualmente — rodando relatórios, configurando campanhas, puxando dados, formatando decks — vezes suficientes para internalizar o julgamento por trás do trabalho.
Se a AI agora cuida de boa parte da produção de primeira passada, as repetições encolhem. A pergunta vira: se a AI cuida de todo o trabalho júnior, como alguém se torna sênior?
Eu acho que esse é um dos problemas mais difíceis e não resolvidos da indústria agora.
Aqui está onde cheguei, e seguro isso com mão leve:
O Modelo de Desenvolvimento 2+2
Quando penso em construir um time, não assumo que todas as posições precisam ser preenchidas por contratações sênior externas.
O que acho que funciona melhor é algo como: 2 pessoas experientes + 2 pessoas em programas deliberados de desenvolvimento depth-first.
As contratações experientes trazem julgamento e contexto. Os slots de desenvolvimento trazem profundidade atual de plataforma, energia e — criticamente — uma razão para investir em crescer talento em vez de apenas extraí-lo.
Profundidade Primeiro, Não Rotação Primeiro
O modelo de carreira antigo era: vá amplo primeiro, especialize depois. Rode pelos canais, aprenda um pouco de tudo.
Eu acho que o modelo AI-native inverte isso. Vá fundo primeiro, depois amplie.
Seis meses focados profundamente em uma disciplina constroem expertise mais durável do que seis meses rodando por quatro áreas. A profundidade é o que permite validar output de AI. A amplitude vem depois através de rotação.
Criação de Avaliação como Aprendizado
Um dos mecanismos de aprendizado mais poderosos que consigo ver agora é pedir para as pessoas definirem como "correto" se parece.
Não apenas executar a tarefa. Definir os critérios de avaliação:
- como um bom setup de campanha se parece?
- o que deveria acionar uma segunda revisão?
- qual threshold de discrepância é aceitável?
- o que nunca deve passar sem uma verificação humana?
Esse exercício força o tipo de entendimento profundo que costumava vir de fazer o trabalho manualmente. A pessoa que escreve o checklist de pré-lançamento precisa entender a disciplina profundamente o suficiente para codificar julgamento expert em um sistema.
Por exemplo: "conversion tracking precisa disparar dentro de 2% dos números reportados pela plataforma antes de qualquer campanha ir ao ar." Escrever essa regra parece simples. Saber por que 2% é o threshold certo, não 5% ou 0,5%, exige profundidade real.
Não é o mesmo que o antigo aprendizado. Mas acho que pode funcionar.
Os Caminhos de Carreira
Cada uma das três funções que descrevi também é um caminho de desenvolvimento, não um rótulo sem saída:
- Auditor de AI → cresce para liderança de conta, porque a pessoa que entende profundamente o que torna output bom ou ruim é a pessoa que pode conduzir relacionamentos com clientes
- Arquiteto de Sinais → cresce para liderança de mensuração, porque conhecimento de infraestrutura de dados é um dos conjuntos de habilidades mais valiosos e raros
- Curador de Memória → cresce para estratégia sênior, porque a pessoa que estrutura conhecimento eventualmente se torna a pessoa que molda como a organização pensa
Se você está no início da carreira e lendo isso, a pergunta não é "vai ter uma vaga pra mim?" A pergunta é "em qual dessas funções estou construindo profundidade?" Esse é o movimento de carreira que compõe.
O Que a Camada de AI Cuida
Se o time humano está organizado em torno dessas funções, a camada de AI cuida de boa parte do trabalho de produção — primeiros rascunhos, síntese de pesquisa, estruturas de relatórios, documentação, reaproveitamento de conteúdo.
Mas eu não confundiria alta atividade de AI com um modelo operacional completo.
Alguém ainda precisa definir o que é confiável, o que precisa de revisão, e o que qualidade significa. É aí que eu acho que muitas conversas "AI-first" ainda parecem um pouco rasas. Elas param na geração. A alavancagem real está na orquestração e avaliação.
O Framing de Empoderamento
Mais uma coisa, porque acho que isso importa para como times realmente adotam isso.
A diferença entre um time que resiste à AI e um time que abraça é frequentemente o framing.
Se a mensagem é "AI está substituindo seu emprego" ou "estamos automatizando para eficiência," a reação é resistência, ansiedade, desengajamento silencioso.
Se a mensagem é "AI cuida do trabalho repetitivo para que você possa focar nas partes que exigem julgamento," a reação geralmente é curiosidade e senso de dono.
Eu já vi isso acontecer. O paralelo com programática é útil aqui. Quando as ordens de inserção manual desapareceram, as pessoas que se adaptaram se tornaram estrategistas de programática — funções de maior habilidade e maior remuneração. A transição foi desconfortável. O resultado foi crescimento.
Eu acho que estamos num ponto de inflexão similar. A forma do trabalho muda. O valor das pessoas que fazem o trabalho sobe, não desce — se o time for desenhado para deixá-las se desenvolver.
Onde Isso Me Deixa
Eu ainda acho que o mix específico vai variar por negócio. Alguns times precisam de um editor criativo como função central. Alguns precisam de um especialista de canal. Alguns precisam de dois Arquitetos de Sinais e nenhum Curador de Memória dedicado.
Mas o padrão subjacente ao qual eu sempre volto:
- defina funções, não headcount
- as três funções operacionais (validação, infraestrutura, memória) são inegociáveis
- inclua slots de desenvolvimento, não apenas contratações sênior
- invista em aprendizado depth-first
- deixe a camada de AI cuidar da produção para que a camada humana possa focar em julgamento
Essa é a direção que tenho seguido — tanto em como penso sobre times quanto em como tenho construído meu próprio modelo operacional ao longo do último ano.
É isso.
Se você está redesenhando um time agora, eu genuinamente adoraria ouvir qual dessas funções é mais fácil de estabelecer e qual continua quebrando. E se você está no início da carreira, em qual função está construindo profundidade?
Abraços, Chandler





