Skip to content
··5 Min. Lesezeit

Was KI in Media Operations ohne erfahrenes Urteilsvermögen immer noch falsch macht

KI kann inzwischen Mediapläne, Performance-Zusammenfassungen, Measurement-Frameworks und Kampagnen-Setups in beeindruckendem Tempo produzieren. Das Problem ist nicht, dass der Output offensichtlich schlecht ist. Das Problem ist, dass er oft gut genug ist, um eine flüchtige Prüfung zu bestehen, während er den Geschäftskontext verfehlt, der tatsächlich zählt.

In den letzten Monaten, während ich meinen Kurs über AI-native Media Operations aufgebaut habe, komme ich immer wieder auf denselben unbehaglichen Gedanken zurück.

KI wird auf eine sehr spezifische Art gut genug, um gefährlich zu sein.

Nicht gefährlich, weil sie offensichtlich falsch liegt. Gefährlich, weil sie oft plausibel richtig ist.

Das ist ein ganz anderer Fehlermodus.

Wenn ein AI-Modell dir eine lächerliche Antwort gibt, fällt es den meisten auf. Du lachst, machst vielleicht einen Screenshot, postest vielleicht darüber auf LinkedIn und gehst weiter.

Aber wenn KI dir einen Kampagnenplan gibt, der zu 80% stimmt, ein Measurement-Framework, das vollständig klingt, eine Reporting-Erzählung, die sich poliert anfühlt, oder eine Kanalempfehlung, die strategisch kohärent aussieht — dann ist das Scheitern viel subtiler.

Jemand muss trotzdem fragen:

  • Ist das im tatsächlichen Geschäft verankert?
  • Passt das zum Kundenkontext?
  • Spiegelt das wider, wie die Plattform im echten Leben funktioniert?
  • Schafft das die richtigen Trade-offs, nicht nur die sauberste Antwort?

Genau da ist erfahrenes Urteilsvermögen immer noch entscheidend. Und zwar sehr.


Das Problem ist nicht "KI ist schlecht in Media"

Um das klarzustellen: Ich glaube nicht, dass KI schlecht in Media Operations ist. Nicht mehr.

Tatsächlich wird dieses Argument jeden Monat schwächer.

KI ist bereits nützlich für:

  • erste Entwürfe von Mediaplänen
  • Zielgruppen-Hypothesen
  • Reporting-Zusammenfassungen
  • Frameworks für Creative-Tests
  • Wettbewerbsanalysen
  • QA-Checklisten für Kampagnen
  • Measurement-Dokumentation

Wenn jemand immer noch sagt "KI ist nur ein Spielzeug," dann unterschätzt er meiner Meinung nach, was gerade passiert.

Mein Bedenken geht fast in die entgegengesetzte Richtung.

KI ist stark genug geworden, dass viele Teams ihr vertrauen, bevor sie die Urteils-Ebene aufgebaut haben, die nötig ist, um sie gut zu beaufsichtigen.

Und aus meiner Erfahrung steckt Media Operations voller Urteilsentscheidungen, die nicht sauber in der Dokumentation auftauchen.


Fünf Dinge, die KI immer noch falsch macht

Das sind die Muster, die ich immer wieder sehe.

1. Sie optimiert auf die sichtbare Metrik, nicht auf das echte Geschäftsziel

KI ist sehr gut darin, dem Ziel zu folgen, das ihr gegeben wurde.

Das klingt offensichtlich. Aber in Media sind das erklärte Ziel und das echte Ziel oft nicht dasselbe.

Vielleicht sagt der KPI Leads, aber das Geschäft braucht eigentlich qualifizierte Pipeline. Vielleicht sagt das Briefing Reichweite, aber der Kunde braucht eigentlich internes politisches Vertrauen. Vielleicht sagt das Dashboard Effizienz, aber die Marke versucht leise, Premium-Positionierung zu schützen.

KI optimiert normalerweise das, was lesbar ist.

Erfahrenes Urteilsvermögen fragt, ob das lesbare Ziel überhaupt das richtige ist.

2. Sie behandelt Plattform-Richtlinien als Realität

Plattform-Best-Practices sind nützlich. Ich habe einen großen Teil meiner Karriere damit verbracht, mit ihnen zu arbeiten.

Aber jeder, der tatsächlich jahrelang Kampagnen gefahren hat, kennt die Lücke zwischen Plattform-Richtlinien und chaotischer operativer Realität.

Was im Help Center funktioniert, ist nicht immer das, was für diesen Kunden, dieses Budget, diese Kategorie, diesen Markt, diese Datenreife oder diese Deadline funktioniert.

KI liefert oft die Lehrbuch-Antwort. Der erfahrene Operator weiß, wann die Lehrbuch-Antwort beim Kontakt mit der echten Welt scheitert.

3. Sie übersieht Stakeholder-Politik

Das ist der stille Killer.

Ein Mediaplan kann mathematisch einwandfrei sein und trotzdem scheitern, weil er nicht zu den Erwartungen der Stakeholder passt.

Vielleicht braucht der Kunde sichtbare Markeninvestition in einem bestimmten Kanal, weil die Führungsebene daran glaubt. Vielleicht braucht das regionale Team lokale Flexibilität. Vielleicht misstraut die Vertriebsorganisation Black-Box-Attribution. Vielleicht kümmert sich der Einkauf weniger um Eleganz als um Anbieterkonsolidierung.

Das heißt nicht, dass wir Strategie an Politik aufgeben sollten. Das sage ich nicht.

Ich sage, Media Operations existiert innerhalb von Organisationen, nicht innerhalb sauberer Diagramme.

Erfahrene Leute wissen normalerweise, wo die unsichtbaren Stolperdrähte liegen.

4. Sie glättet Ausnahmen weg

KI mag saubere Systeme.

Echte Media Operations ist nicht sauber.

Es gibt überall Ausnahmen:

  • ein Kunde mit ungewöhnlichen Freigabe-Prozessen
  • ein Markt mit Plattform-Einschränkungen
  • ein Measurement-Stack mit bekannten blinden Flecken
  • rechtliche Einschränkungen
  • Legacy-Taxonomie-Probleme
  • Creative-Abhängigkeiten, die alles verlangsamen

Die Maschine gibt dir tendenziell ein kohärentes Betriebsmodell. Der Mensch muss die eine hässliche Ausnahme bemerken, die das Ganze zum Kippen bringt.

5. Sie verwechselt Vollständigkeit mit Einsatzbereitschaft

Dieser Punkt fühlt sich für mich besonders relevant an, weil ich dasselbe Muster beim Programmieren sehe.

KI ist fantastisch darin, Dinge zu produzieren, die fertig aussehen.

Das Deck hat Abschnitte. Der Bericht hat Bullet Points. Das Framework hat Kategorien. Die Empfehlung hat Logik.

Und doch, wenn du es in einer Live-Umgebung einsetzen willst, stimmt etwas nicht.

Die Reihenfolge ist falsch. Das Risiko wird untertrieben. Der Validierungsschritt fehlt. Die Empfehlung setzt Fähigkeiten voraus, die das Team nicht hat.

Dieser letzte Schritt von "vollständig" zu "einsatzbereit" ist immer noch sehr menschlich.


Erfahrenes Urteilsvermögen heißt nicht nur Seniorität

Ich sollte hier eine wichtige Nuance anfügen.

Wenn ich "erfahrenes Urteilsvermögen" sage, meine ich nicht, dass der höchste Titel im Raum automatisch die beste Antwort hat.

Tatsächlich ist eine der unbequemen Realitäten von Media-Agenturen, dass der VP Strategy die Plattform seit Jahren nicht mehr tiefgehend berührt haben könnte. Der Planning Director kennt möglicherweise nicht die neuesten Eigenheiten in der Umsetzung. Die Person, die der Wahrheit am nächsten ist, könnte ein eher junger Operator sein, der noch jeden Tag in den Systemen arbeitet.

Ich glaube also nicht, dass die Antwort lautet:

"Lass die KI die Arbeit machen, dann bitte eine:n Senior Executive, sie abzusegnen."

Ich glaube, die Antwort ist eher:

KI produziert den ersten Entwurf. Tiefe Praktiker validieren die operative Wahrheit. Erfahrene Leute fügen Geschäftsurteil, Trade-off-Urteil und organisatorisches Urteil hinzu.

Das ist ein ganz anderes Betriebsmodell als sowohl die alte Agenturhierarchie als auch die bequeme Version von "KI ersetzt die Junior-Arbeit."


Die Eval-Ebene ist die eigentliche Arbeit

Ich habe kürzlich darüber geschrieben, dass Tiefe zum Differenzierungsfaktor wird, wenn KI den Mindeststandard anhebt.

Ich glaube, der operative Ausdruck davon sind Evals.

Nicht nur im Machine-Learning-Sinne. Im praktischen Team-Sinne.

Was definiert ein gutes Kampagnen-Setup? Was definiert einen vertrauenswürdigen Bericht? Welche Diskrepanz-Schwelle ist akzeptabel? Was zählt als launch-bereit? Was sollte eine zweite Prüfung auslösen?

Diese Definitionen sind kein administrativer Overhead. Sie sind die Urteils-Ebene.

Und die Teams, die diese Ebene gut aufbauen, werden viel mehr Wert aus KI ziehen als die Teams, die bei Prompt-Bibliotheken und generischer Automatisierung aufhören.


Was das für Teams bedeutet

Ich glaube nicht, dass die Schlussfolgerung "hab Angst vor KI" lautet.

Die Schlussfolgerung ist anspruchsvoller als das.

Nutze KI aggressiv. Lass sie die 75-80% machen. Aber sei extrem klar darüber, wo menschliches Urteilsvermögen einsetzt:

  • Zielsetzung
  • Validierung
  • Ausnahmen
  • Trade-offs
  • Stakeholder-Management
  • Qualitätsstandards

Das ist nicht anti-KI. So sieht ein ernsthaftes KI-Betriebsmodell aus.

Das ist auch der Grund, warum ich Modul 1 des Kurses so aufgebaut habe, wie ich es getan habe. Ich wollte, dass das kostenlose Modul den gesamten Kampagnen-Lebenszyklus zeigt, ja, aber auch den größeren Punkt dahinter: KI kann jede Phase berühren. Das beseitigt nicht die Notwendigkeit von erfahrenem Urteilsvermögen. Es verändert, wo dieses Urteilsvermögen am meisten zählt.

Das war's von mir.

Ich würde mich wirklich freuen zu hören, wie andere das in der Praxis handhaben. Wenn du bereits Media-Teams leitest, wo siehst du, dass KI die überzeugendsten falschen Antworten produziert? Und wenn du noch am Anfang deiner Karriere stehst, wird die Urteilsvermögen-Messlatte für dich klarer oder verschwommener?

Cheers, Chandler

Weiterlesen

Produkte
Account
Mein Weg
Vernetzen
Sprache
Einstellungen