Skip to content
··12 min de lecture

Quels rôles une équipe marketing AI-native a vraiment besoin en 2026

La plupart des conversations sur l'AI et la conception d'équipes commencent par les effectifs. Je pense que c'est le mauvais point de départ. La meilleure question est de savoir quelles fonctions votre équipe a besoin — et il se trouve que ce sont les mêmes, que vous ayez quatre personnes ou quarante.

Je continue à entendre la même conversation sous différentes formes.

Quelqu'un demande : « Combien de personnes nous faut-il dans l'équipe maintenant qu'on a l'AI ? »

Le nombre change. Parfois c'est quatre. Parfois c'est dix. Parfois c'est « on peut probablement réduire cette équipe de moitié. »

Je comprends pourquoi les gens s'ancrent sur les effectifs. C'est concret. Ça rentre dans une ligne de budget. C'est la question que pose un CFO.

Mais d'après mon expérience, c'est le mauvais point de départ.

La meilleure question est : de quelles fonctions l'équipe a-t-elle besoin ?

Parce que les fonctions s'avèrent être les mêmes, que vous soyez un pod d'agence de quatre personnes, une équipe in-house de quarante, ou quelque chose entre les deux. L'organigramme est flexible. Les fonctions ne le sont pas.

J'y réfléchis beaucoup depuis un an, et je veux partager où j'en suis arrivé. Je me trompe peut-être sur certains détails. Mais le schéma sous-jacent me semble juste.


D'abord : pourquoi ne pas commencer par les effectifs ?

Parce que la réponse change selon le contexte, et le contexte varie énormément.

Une agence mid-market qui construit à partir de zéro ne ressemble en rien à une équipe enterprise qui intègre l'AI dans des workflows existants. Une équipe in-house de huit personnes a des contraintes différentes d'un pod d'agence au service d'un seul gros client.

Si vous commencez par « combien de personnes ? », vous obtenez un nombre qui semble précis mais ne correspond qu'à un seul scénario.

Si vous commencez par « quelles fonctions ? », vous obtenez quelque chose de portable.


Trois fonctions opérationnelles (plus un lead stratégique)

Après avoir construit des systèmes AI pour des équipes marketing et travaillé sur la façon dont le modèle opérationnel change réellement, je reviens toujours à trois fonctions qui doivent exister, quelle que soit la taille de l'équipe.

1. Validation des outputs

Quelqu'un doit vérifier ce que l'AI produit.

Pas juste « est-ce que ça a l'air correct ? » mais spécifiquement :

  • Est-ce que ça correspond à ce que la plateforme affiche réellement ?
  • Est-ce que ça respecte notre guide de marque et les règles de campagne ?
  • Les données sont-elles précises, ou l'AI a-t-elle lissé quelque chose d'important ?
  • Est-ce que ça passerait la revue de notre stakeholder le plus exigeant ?

J'ai commencé à appeler ça la fonction AI Auditor. La personne (ou les personnes) qui valide les outputs AI à travers les plateformes, le créatif et les données.

Ce qui est intéressant avec cette fonction, c'est qu'elle ne nécessite pas forcément une personne senior. Ce qu'il faut, c'est quelqu'un avec une profondeur actuelle sur la plateforme — quelqu'un qui a été dans les outils assez récemment pour repérer quand l'AI produit quelque chose de faux avec assurance. J'ai écrit à ce sujet dans L'AI relève le plancher — les personnes les plus proches des plateformes sont souvent les meilleurs validateurs, quel que soit leur titre.

Un stratège senior qui n'a pas mis les pieds dans la plateforme publicitaire depuis trois ans ne peut probablement pas bien le faire. Un opérateur mid-level qui vit dans la plateforme tous les jours pourrait être excellent.

C'est important pour la façon dont vous recrutez et développez les gens.

2. Infrastructure de données et de mesure

Les systèmes AI ne valent que ce que valent les données qui les alimentent. Quelqu'un doit être responsable de :

  • L'implémentation et la précision du tracking
  • Les définitions des événements de conversion
  • L'hygiène du data warehouse
  • Les connexions de données cross-plateformes
  • La vérité terrain pour la mesure — ce qui constitue un tracking précis, les seuils de divergence acceptables, la logique d'attribution correcte

Je vois ça comme la fonction Signal Architect. C'est, d'après mon expérience, la fonction la plus difficile à recruter à tous les niveaux de séniorité. Les personnes capables de bien le faire sont rares, et développer cette profondeur en interne est peut-être votre seule option réaliste.

Quand une AI génère un plan de mesure ou signale une anomalie de performance, l'infrastructure du Signal Architect détermine si cette analyse repose même sur des données fiables. Sans cette fonction, vous construisez sur du sable.

3. Connaissance structurée et mémoire

C'est la fonction sur laquelle j'ai le plus récemment écrit, et je pense que c'est la plus sous-estimée.

Quelqu'un doit maintenir la base de connaissances structurée qui fait fonctionner tout le reste :

  • Contexte client ou marque (long terme : positionnement, voix, paysage concurrentiel, schémas saisonniers)
  • Connaissances opérationnelles (court terme : pacing de cette semaine, expériences en cours, résultats récents, sujets ouverts)
  • Standards d'évaluation (à quoi ressemble « bon », ce qui a été rejeté et pourquoi, quels benchmarks comptent)

J'appelle ça la fonction Memory Curator. La personne qui s'assure que les systèmes AI disposent d'un contexte actuel et précis pour chaque travail produit.

La mémoire long terme est rafraîchie trimestriellement. La mémoire court terme est rafraîchie à chaque cycle. Les deux types doivent être structurés et maintenus délibérément. Sans ça, on obtient le problème que je vois constamment : une AI qui produit des outputs soignés qui ratent complètement le contexte business.

La bonne nouvelle, c'est que cette fonction bénéficie de l'expérience, mais la compétence centrale s'enseigne. C'est l'un des points d'entrée les plus accessibles pour quelqu'un qui évolue vers un rôle stratégique.

Plus : un lead stratégique ou de compte

Ces trois fonctions ont besoin de quelqu'un qui pilote la direction générale — qui définit les priorités, gère les stakeholders, fait les arbitrages qui déterminent sur quoi l'équipe travaille et pourquoi. Appelez ça Account Lead, Directeur Marketing, Head of Growth — peu importe ce qui correspond à votre organisation.

Le point est : les trois fonctions ci-dessus — validation, infrastructure, mémoire — constituent la couche opérationnelle. Le lead stratégique est la couche directionnelle. Il faut les deux.


À quoi ça ressemble un lundi matin

Laissez-moi rendre ça concret.

Une marque skincare mid-market prépare le lancement d'une campagne Q2. L'AI a généré un plan média initial, un brief créatif et un framework de mesure pendant la nuit.

Voici ce qui se passe avant que quoi que ce soit passe en production :

L'AI Auditor ouvre le plan média et le vérifie par rapport aux plateformes. L'AI a recommandé un split 60/40 entre Meta et TikTok — mais l'Auditor sait que l'intégration TikTok Shop de la marque a planté le mois dernier et n'a pas été réparée. L'AI ne le sait pas. L'Auditor le signale avant qu'un budget soit engagé.

Le Signal Architect examine le framework de mesure. L'AI a proposé un tracking basé sur la configuration pixel du trimestre dernier. Mais l'Architect sait que l'équipe a migré vers le tracking server-side il y a deux semaines, et que les anciens événements pixel dupliquent maintenant les conversions. Les chiffres d'attribution auraient l'air excellents et seraient complètement faux. L'Architect corrige les définitions d'événements avant que le dashboard soit construit.

Le Memory Curator examine le brief créatif. L'AI a produit quelque chose de soigné — ton professionnel, CTA fort, copy propre. Mais la mémoire structurée du Curator montre que le CEO de ce client a rejeté tout ce qui avait un framing « promo » le trimestre dernier, et que l'équipe compliance exige un langage spécifique autour des claims d'ingrédients. Le Curator ajoute ces contraintes avant que le brief n'atteigne l'équipe créative.

L'Account Lead regarde les trois outputs, désormais validés et corrigés, et prend la décision stratégique : repousser le lancement d'une semaine parce qu'un concurrent vient d'annoncer un produit similaire et que la marque a besoin d'un angle de différenciation d'abord.

Aucune de ces détections n'est glamour. Toutes auraient été manquées par une équipe qui aurait simplement fait confiance aux outputs de l'AI. J'ai écrit sur ce schéma dans Pourquoi la plupart des outils marketing AI semblent rapides mais affaiblissent le jugement d'équipe — la vitesse est réelle, mais sans la couche de validation, la vitesse ne fait qu'accélérer vers une moins bonne décision.


Comment la forme change selon le contexte

C'est là que je pense que la conversation devient plus utile qu'un effectif fixe.

Un petit pod d'agence ou une équipe startup (3-5 personnes) : Une personne cumule deux, voire les trois fonctions. Le lead stratégique curate aussi la mémoire. Le spécialiste canal audite aussi les outputs AI. Ça fonctionne quand l'équipe est assez petite pour que le contexte se partage naturellement.

Une équipe d'agence mid-market (6-12 personnes) : Chaque fonction a une personne dédiée. C'est là que le modèle opérationnel commence à générer des intérêts composés — la connaissance structurée du Memory Curator rend chaque autre fonction plus efficace avec le temps. D'après ce que j'ai vu, le mid-market est en fait la zone de disruption la plus intéressante en ce moment, parce que l'écart entre ce que ces clients reçoivent actuellement et ce qu'une équipe augmentée par l'AI peut livrer est le plus large ici.

Une équipe enterprise ou in-house (15-40+ personnes) : Chaque fonction pourrait avoir une équipe derrière elle. La fonction AI Auditor devient une couche qualité à travers plusieurs canaux. La fonction Signal Architect devient une capacité data engineering. La fonction Memory Curator devient une pratique de connaissance institutionnelle.

L'essentiel : les fonctions ne sont pas négociables. Les intitulés de l'organigramme et le nombre de personnes par fonction sont complètement flexibles.

C'est pourquoi je pense que « combien de personnes ? » est la mauvaise question. La meilleure question est : « ces trois fonctions existent-elles dans notre équipe, et qui en est responsable ? »


Où les juniors trouvent leur place — et pourquoi c'est important

Je veux aborder quelque chose directement, parce que je pense que c'est important.

Beaucoup de conversations autour de l'AI et des équipes sonnent comme ça : des équipes plus petites, plus de levier, moins de recrutements. Et si vous êtes en début de carrière, ça peut ressembler à : moins d'opportunités pour moi.

Je ne pense pas que ce soit vrai. Mais je ne pense pas non plus que l'ancien parcours fonctionne encore, et je veux être honnête à ce sujet.

L'ancien modèle d'apprentissage fonctionnait par la répétition. Les juniors apprenaient en faisant des tâches manuellement — produire des rapports, configurer des campagnes, extraire des données, mettre en forme des présentations — assez de fois pour internaliser le jugement derrière le travail.

Si l'AI gère maintenant une bonne partie de cette production de premier jet, les répétitions diminuent. La question devient : si l'AI fait tout le travail junior, comment devient-on senior ?

Je pense que c'est l'un des problèmes non résolus les plus difficiles de l'industrie en ce moment.

Voici où j'en suis, et je tiens ça avec souplesse :

Le modèle de développement 2+2

Quand je réfléchis à la construction d'une équipe, je ne présuppose pas que tous les rôles doivent être pourvus par des recrutements seniors externes.

Ce qui me semble mieux fonctionner, c'est quelque chose comme : 2 personnes expérimentées + 2 personnes dans des programmes de développement délibérément orientés vers la profondeur.

Les recrutements expérimentés apportent le jugement et le contexte. Les postes de développement apportent une profondeur actuelle sur les plateformes, de l'énergie et — point crucial — une raison d'investir dans le développement des talents plutôt que de simplement les exploiter.

Profondeur d'abord, pas rotation d'abord

L'ancien modèle de carrière disait : allez large d'abord, spécialisez-vous ensuite. Tournez entre les canaux, apprenez un peu de tout.

Je pense que le modèle AI-native inverse ça. Allez en profondeur d'abord, élargissez ensuite.

Six mois concentrés en profondeur dans une discipline construisent une expertise plus durable que six mois de rotation à travers quatre domaines. C'est la profondeur qui permet de valider les outputs AI. L'ampleur vient ensuite par la rotation.

La création d'évaluations comme apprentissage

L'un des mécanismes d'apprentissage les plus puissants que je vois en ce moment, c'est de demander aux gens de définir à quoi ressemble « correct ».

Pas juste exécuter la tâche. Définir les critères d'évaluation :

  • À quoi ressemble un bon setup de campagne ?
  • Qu'est-ce qui devrait déclencher une deuxième revue ?
  • Quel seuil de divergence est acceptable ?
  • Qu'est-ce qui ne doit jamais passer sans vérification humaine ?

Cet exercice force le type de compréhension profonde qui venait autrefois du fait de réaliser le travail manuellement. La personne qui rédige la checklist pré-lancement doit comprendre la discipline assez en profondeur pour encoder un jugement expert dans un système.

Par exemple : « le tracking de conversion doit se déclencher dans les 2% des chiffres reportés par la plateforme avant qu'une campagne ne soit mise en production. » Écrire cette règle a l'air simple. Savoir pourquoi 2% est le bon seuil, pas 5% ou 0,5%, requiert une vraie profondeur.

Ce n'est pas la même chose que l'ancien apprentissage. Mais je pense que ça peut fonctionner.

Les trajectoires de carrière

Chacune des trois fonctions que j'ai décrites est aussi une trajectoire de développement, pas une étiquette sans issue :

  • AI Auditor → évolue vers le leadership de compte, parce que la personne qui comprend en profondeur ce qui rend un output bon ou mauvais est celle qui peut piloter les relations clients
  • Signal Architect → évolue vers le leadership de la mesure, parce que la connaissance de l'infrastructure de données est l'un des ensembles de compétences les plus précieux et les plus rares
  • Memory Curator → évolue vers la stratégie senior, parce que la personne qui structure la connaissance devient progressivement celle qui façonne la manière dont l'organisation pense

Si vous êtes en début de carrière et que vous lisez ça, la question n'est pas « y aura-t-il un rôle pour moi ? » La question est « dans laquelle de ces fonctions suis-je en train de construire de la profondeur ? » C'est le choix de carrière qui génère des intérêts composés.


Ce que la couche AI gère

Si l'équipe humaine est organisée autour de ces fonctions, la couche AI gère une grande partie du travail de production — premiers jets, synthèse de recherche, structures de reporting, documentation, réutilisation de contenu.

Mais je ne confondrais pas une forte activité AI avec un modèle opérationnel complet.

Quelqu'un doit toujours définir ce qu'on fait confiance, ce qu'on revoit et ce que signifie la qualité. C'est là que je trouve que beaucoup de conversations « AI-first » restent encore un peu superficielles. Elles s'arrêtent à la génération. Le vrai levier est dans l'orchestration et l'évaluation.


Le cadrage par l'empowerment

Un dernier point, parce que je pense que c'est important pour la façon dont les équipes adoptent réellement tout ça.

La différence entre une équipe qui résiste à l'AI et une qui l'adopte est souvent le cadrage.

Si le message est « l'AI remplace votre travail » ou « on automatise pour l'efficacité », la réaction est résistance, anxiété, désengagement silencieux.

Si le message est « l'AI gère le travail répétitif pour que vous puissiez vous concentrer sur les parties qui requièrent du jugement », la réaction est généralement curiosité et appropriation.

J'ai vu ça se produire. Le parallèle avec le programmatic est utile ici. Quand les ordres d'insertion manuels ont disparu, les personnes qui se sont adaptées sont devenues des stratèges programmatiques — des rôles plus qualifiés, mieux rémunérés. La transition était inconfortable. Le résultat a été la croissance.

Je pense qu'on est à un point d'inflexion similaire. La forme du travail change. La valeur des personnes qui font le travail augmente, pas diminue — si l'équipe est conçue pour leur permettre de se développer.


Où ça me mène

Je pense toujours que le mix spécifique variera selon le business. Certaines équipes ont besoin d'un éditeur créatif comme fonction centrale. Certaines ont besoin d'un spécialiste canal. Certaines ont besoin de deux Signal Architects et d'aucun Memory Curator dédié.

Mais le schéma sous-jacent auquel je reviens toujours :

  • Définir des fonctions, pas des effectifs
  • Les trois fonctions opérationnelles (validation, infrastructure, mémoire) ne sont pas négociables
  • Inclure des postes de développement, pas seulement des recrutements seniors
  • Investir dans l'apprentissage profondeur d'abord
  • Laisser la couche AI gérer la production pour que la couche humaine puisse se concentrer sur le jugement

C'est la direction dans laquelle j'avance — à la fois dans ma réflexion sur les équipes et dans la façon dont j'ai construit mon propre modèle opérationnel cette dernière année.

C'est tout de mon côté.

Si vous êtes en train de redessiner une équipe en ce moment, j'aimerais sincèrement savoir laquelle de ces fonctions est la plus facile à établir et laquelle n'arrête pas de casser. Et si vous êtes en début de carrière, dans quelle fonction construisez-vous de la profondeur ?

Cheers, Chandler

Continuer la lecture

Produits
Account
Mon parcours
Me suivre
Langue
Preferences