Skip to content
··6 min de lecture

Ce que l'IA fait encore mal en media operations sans jugement expérimenté

L'IA peut désormais produire des plans média, des synthèses de performance, des frameworks de mesure et des setups de campagne à une vitesse impressionnante. Le problème n'est pas que l'output soit clairement mauvais. Le problème est qu'il est souvent assez bon pour passer une relecture superficielle tout en ratant le contexte business qui compte vraiment.

Ces derniers mois, pendant que je construisais mon cours sur les AI-native media operations, je reviens sans cesse à la même pensée inconfortable.

L'IA devient assez bonne pour être dangereuse d'une manière très spécifique.

Pas dangereuse parce qu'elle a évidemment tort. Dangereuse parce qu'elle est souvent plausiblement juste.

C'est un mode d'échec très différent.

Si un modèle d'AI te donne une réponse ridicule, la plupart des gens s'en rendent compte. Tu rigoles, tu fais peut-être un screenshot, tu postes peut-être quelque chose sur LinkedIn, et tu passes à autre chose.

Mais si l'IA te donne un plan de campagne correct à 80%, un framework de mesure qui sonne complet, une narration de reporting qui paraît soignée, ou une recommandation de canal qui a l'air stratégiquement cohérente — alors l'échec est beaucoup plus subtil.

Quelqu'un doit quand même demander :

  • Est-ce que c'est ancré dans le business réel ?
  • Est-ce que ça correspond au contexte client ?
  • Est-ce que ça reflète comment la plateforme fonctionne dans la vraie vie ?
  • Est-ce que ça crée les bons trade-offs, et pas juste la réponse la plus propre ?

C'est là que le jugement expérimenté compte encore. Beaucoup.


Le problème n'est pas "l'IA est mauvaise en média"

Pour être clair, je ne pense plus que l'IA soit mauvaise en media operations.

En fait, cet argument faiblit chaque mois.

L'IA est déjà utile pour :

  • les premiers jets de plans média
  • les hypothèses d'audience
  • les synthèses de reporting
  • les frameworks de test créatif
  • les scans concurrentiels
  • les checklists de QA pour les campagnes
  • la documentation de mesure

Si quelqu'un dit encore "l'IA n'est qu'un jouet," je pense qu'il sous-estime ce qui est en train de se passer.

Ma préoccupation va presque dans le sens inverse.

L'IA est devenue assez forte pour que beaucoup d'équipes lui fassent confiance avant d'avoir construit la couche de jugement nécessaire pour bien la superviser.

Et d'après mon expérience, les media operations sont pleines de décisions de jugement qui n'apparaissent pas proprement dans la documentation.


Cinq choses que l'IA fait encore mal

Ce sont les patterns que je continue à observer.

1. Elle optimise pour la métrique visible, pas pour l'objectif business réel

L'IA est très bonne pour suivre l'objectif qu'on lui a donné.

Ça semble évident. Mais en média, l'objectif déclaré et l'objectif réel ne sont souvent pas les mêmes.

Peut-être que le KPI dit leads, mais le business a vraiment besoin de pipeline qualifié. Peut-être que le brief dit reach, mais le client a en réalité besoin de confiance politique interne. Peut-être que le dashboard dit efficience, mais la marque essaie discrètement de protéger son positionnement premium.

L'IA optimise généralement ce qui est lisible.

Le jugement expérimenté, c'est ce qui demande si l'objectif lisible est le bon en premier lieu.

2. Elle traite les guidelines de plateforme comme la réalité

Les bonnes pratiques de plateforme sont utiles. J'ai passé une grande partie de ma carrière à travailler avec.

Mais quiconque a réellement piloté des campagnes pendant des années connaît l'écart entre les guidelines de plateforme et la réalité opérationnelle désordonnée.

Ce qui marche dans le centre d'aide n'est pas toujours ce qui marche pour ce client, ce budget, cette catégorie, ce marché, cette maturité data ou ce deadline.

L'IA va souvent produire la réponse du manuel. L'opérateur expérimenté sait quand la réponse du manuel se brise au contact du monde réel.

3. Elle rate la politique des stakeholders

C'est le tueur silencieux.

Un plan média peut être mathématiquement correct et quand même échouer parce qu'il ne correspond pas aux attentes des stakeholders.

Peut-être que le client a besoin d'un investissement de marque visible dans un canal parce que la direction y croit. Peut-être que l'équipe régionale a besoin de flexibilité locale. Peut-être que l'organisation commerciale se méfie de l'attribution black-box. Peut-être que les achats se soucient moins de l'élégance que de la consolidation des fournisseurs.

Ça ne veut pas dire qu'on devrait abandonner la stratégie à la politique. Ce n'est pas ce que je dis.

Ce que je dis, c'est que les media operations existent au sein des organisations, pas au sein de diagrammes propres.

Les gens expérimentés savent généralement où sont les fils-pièges invisibles.

4. Elle lisse les exceptions

L'IA aime les systèmes propres.

Les vraies media operations ne sont pas propres.

Il y a des exceptions partout :

  • un client avec des circuits d'approbation inhabituels
  • un marché avec des restrictions de plateforme
  • un stack de mesure avec des angles morts connus
  • des contraintes juridiques
  • des problèmes de taxonomie héritée
  • des dépendances créatives qui ralentissent tout

La machine a tendance à te donner un modèle opérationnel cohérent. L'humain doit repérer l'exception moche qui fait tout tomber.

5. Elle confond complétude et état de préparation

Ce point me semble particulièrement pertinent parce que je vois le même pattern en programmation.

L'IA est fantastique pour produire des choses qui ont l'air finies.

Le deck a des sections. Le rapport a des bullet points. Le framework a des catégories. La recommandation a de la logique.

Et pourtant, quand tu essaies de l'utiliser en environnement réel, quelque chose cloche.

Le séquençage est mauvais. Le risque est sous-estimé. L'étape de validation manque. La recommandation suppose des capacités que l'équipe n'a pas.

Ce dernier pas de "complet" à "prêt" est encore très humain.


Jugement expérimenté ne veut pas dire ancienneté seule

Je devrais ajouter une nuance importante ici.

Quand je dis "jugement expérimenté," je ne veux pas dire que le titre le plus senior dans la pièce a automatiquement la meilleure réponse.

En fait, l'une des réalités inconfortables des agences média, c'est que le VP stratégie n'a peut-être pas touché la plateforme en profondeur depuis des années. Le directeur de planning ne connaît peut-être pas les dernières particularités d'implémentation. La personne la plus proche de la vérité est peut-être un opérateur plus junior qui travaille encore dans les systèmes tous les jours.

Donc je ne pense pas que la réponse soit :

"Laisse l'IA faire le travail, puis demande à un cadre senior de le valider."

Je pense que la réponse est plus proche de :

L'IA produit le premier jet. Les praticiens profonds valident la vérité opérationnelle. Les personnes expérimentées ajoutent le jugement business, le jugement de trade-off et le jugement organisationnel.

C'est un modèle opérationnel très différent de l'ancienne hiérarchie d'agence comme de la version paresseuse de "l'IA remplace le travail junior."


La couche d'évaluation est le vrai travail

J'ai écrit récemment sur le fait que la profondeur devient le différenciateur quand l'IA relève le plancher.

Je pense que l'expression opérationnelle de ça, ce sont les evals.

Pas seulement au sens machine learning. Au sens pratique d'équipe.

Qu'est-ce qui définit un bon setup de campagne ? Qu'est-ce qui définit un rapport digne de confiance ? Quel seuil de divergence est acceptable ? Qu'est-ce qui compte comme prêt pour le lancement ? Qu'est-ce qui devrait déclencher une deuxième revue ?

Ces définitions ne sont pas de l'overhead administratif. C'est la couche de jugement.

Et les équipes qui construiront bien cette couche tireront beaucoup plus de valeur de l'IA que celles qui s'arrêtent aux bibliothèques de prompts et à l'automatisation générique.


Ce que ça implique pour les équipes

Je ne pense pas que la conclusion soit "ayez peur de l'IA."

La conclusion est plus exigeante que ça.

Utilise l'IA de manière agressive. Laisse-la faire les 75-80%. Mais sois extrêmement clair sur le moment où le jugement humain entre en jeu :

  • définition des objectifs
  • validation
  • exceptions
  • trade-offs
  • gestion des stakeholders
  • standards de qualité

Ce n'est pas anti-IA. C'est à quoi ressemble un modèle opérationnel d'IA sérieux.

C'est aussi la raison pour laquelle j'ai construit le Module 1 du cours comme je l'ai fait. Je voulais que le module gratuit montre le cycle complet d'une campagne, oui, mais aussi le point plus large en dessous : l'IA peut intervenir à chaque phase. Ça n'élimine pas le besoin de jugement expérimenté. Ça change l'endroit où ce jugement compte le plus.

C'est tout pour moi.

J'aimerais sincèrement savoir comment d'autres personnes gèrent ça en pratique. Si tu diriges déjà des équipes média, où vois-tu l'IA produire les réponses fausses les plus convaincantes ? Et si tu es plus tôt dans ta carrière, est-ce que tu as l'impression que la barre du jugement devient plus claire ou plus floue ?

Cheers, Chandler

Continuer la lecture

Produits
Account
Mon parcours
Me suivre
Langue
Preferences