Welche Rollen ein AI-natives Marketing-Team 2026 wirklich braucht
Die meisten Gespräche über AI und Teamgestaltung beginnen mit der Mitarbeiterzahl. Ich denke, das ist der falsche Ausgangspunkt. Die bessere Frage ist, welche Funktionen ein Team braucht — und die sind erstaunlicherweise dieselben, egal ob vier oder vierzig Leute im Team sind.
Ich höre immer wieder das gleiche Gespräch in verschiedenen Variationen.
Jemand fragt: „Wie viele Leute brauchen wir im Team, jetzt wo wir AI haben?"
Die Zahl ändert sich. Manchmal sind es vier. Manchmal zehn. Manchmal heißt es „wir können dieses Team wahrscheinlich halbieren."
Ich verstehe, warum man sich an der Mitarbeiterzahl festklammert. Sie ist konkret. Sie passt in eine Budgetzeile. Es ist die Frage, die ein CFO stellt.
Aber nach meiner Erfahrung ist es der falsche Ausgangspunkt.
Die bessere Frage ist: Welche Funktionen braucht das Team?
Denn die Funktionen sind letztlich dieselben — egal ob es sich um ein vierköpfiges Agentur-Pod handelt, ein vierzigköpfiges Inhouse-Team oder etwas dazwischen. Das Organigramm ist flexibel. Die Funktionen sind es nicht.
Ich habe im letzten Jahr viel darüber nachgedacht und möchte teilen, wo ich gelandet bin. Bei manchen Details könnte ich falsch liegen. Aber das zugrundeliegende Muster fühlt sich richtig an.
Erstens: Warum nicht mit der Mitarbeiterzahl anfangen?
Weil die Antwort sich je nach Kontext ändert — und der Kontext enorm variiert.
Eine mittelständische Agentur, die von Grund auf aufbaut, sieht völlig anders aus als ein Enterprise-Team, das AI in bestehende Workflows integriert. Ein achtköpfiges Inhouse-Team hat andere Rahmenbedingungen als ein Agentur-Pod, das einen einzelnen großen Kunden betreut.
Wenn man mit „Wie viele Leute?" beginnt, bekommt man eine Zahl, die präzise wirkt, aber nur auf ein Szenario passt.
Wenn man mit „Welche Funktionen?" beginnt, bekommt man etwas Übertragbares.
Drei operative Funktionen (plus eine strategische Leitung)
Nachdem ich AI-Systeme für Marketing-Teams aufgebaut und durchgearbeitet habe, wie sich das Operating Model tatsächlich verändert, komme ich immer wieder auf drei Funktionen zurück, die existieren müssen — unabhängig von der Teamgröße.
1. Output-Validierung
Jemand muss prüfen, was die AI produziert.
Nicht nur „Sieht das richtig aus?" — sondern konkret:
- Stimmt das mit dem überein, was die Plattform tatsächlich anzeigt?
- Entspricht das unseren Markenrichtlinien und Kampagnenregeln?
- Sind die Daten korrekt, oder hat die AI etwas Wichtiges geglättet?
- Würde das die Prüfung unseres anspruchsvollsten Stakeholders bestehen?
Ich habe angefangen, das die AI-Auditor-Funktion zu nennen. Die Person (oder Personen), die AI-Output über Plattformen, Kreation und Daten hinweg validiert.
Das Interessante an dieser Funktion: Sie braucht nicht unbedingt eine Senior-Person. Was sie braucht, ist jemand mit aktueller Plattformtiefe — jemand, der kürzlich genug in den Tools war, um zu erkennen, wenn die AI selbstbewusst etwas Falsches produziert. Darüber habe ich in AI hebt den Boden an geschrieben — die Leute, die den Plattformen am nächsten sind, sind oft die besten Validatoren, unabhängig vom Titel.
Ein Senior-Stratege, der seit drei Jahren nicht mehr in der Werbeplattform war, kann das wahrscheinlich nicht gut. Ein Mid-Level-Operator, der täglich in der Plattform lebt, könnte hervorragend darin sein.
Das ist relevant für die Art, wie man einstellt und Leute entwickelt.
2. Daten- und Messinfrastruktur
AI-Systeme sind nur so gut wie die Daten, die in sie fließen. Jemand muss verantworten:
- Tracking-Implementierung und -Genauigkeit
- Conversion-Event-Definitionen
- Data-Warehouse-Hygiene
- Plattformübergreifende Datenverbindungen
- Die Grundwahrheit für Messung — was korrektes Tracking ausmacht, akzeptable Abweichungsschwellen, korrekte Attributionslogik
Ich sehe das als die Signal-Architect-Funktion. Sie ist meiner Erfahrung nach die am schwierigsten zu besetzende Funktion auf jedem Senioritätslevel. Die Leute, die das gut können, sind selten, und interne Entwicklung dieser Tiefe könnte die einzige realistische Option sein.
Wenn eine AI einen Messplan erstellt oder eine Performance-Anomalie flaggt, bestimmt die Infrastruktur des Signal Architects, ob diese Analyse überhaupt auf vertrauenswürdigen Daten basiert. Ohne diese Funktion baut man auf Sand.
3. Strukturiertes Wissen und Gedächtnis
Das ist die Funktion, über die ich zuletzt am meisten geschrieben habe, und ich denke, sie ist die am meisten unterschätzte.
Jemand muss die strukturierte Wissensbasis pflegen, die alles andere funktionsfähig macht:
- Kunden- oder Markenkontext (langfristig: Positionierung, Tonalität, Wettbewerbslandschaft, saisonale Muster)
- Operatives Wissen (kurzfristig: Pacing dieser Woche, laufende Experimente, aktuelle Ergebnisse, offene Themen)
- Bewertungsstandards (wie „gut" aussieht, was abgelehnt wurde und warum, welche Benchmarks zählen)
Ich nenne das die Memory-Curator-Funktion. Die Person, die sicherstellt, dass AI-Systeme für jedes Arbeitsstück aktuellen, korrekten Kontext haben.
Langfristiges Gedächtnis wird quartalsweise aktualisiert. Kurzfristiges Gedächtnis wird jeden Zyklus aktualisiert. Beide Typen müssen strukturiert und bewusst gepflegt werden. Ohne das bekommt man das Problem, das ich immer wieder sehe: AI, die polierten Output produziert, der den Geschäftskontext komplett verfehlt.
Die gute Nachricht: Diese Funktion profitiert von Erfahrung, aber die Kernkompetenz ist erlernbar. Es ist einer der zugänglichsten Einstiegspunkte für jemanden, der sich in eine strategische Rolle entwickelt.
Plus: Eine strategische oder Account-Leitung
Diese drei Funktionen brauchen jemanden, der die Gesamtrichtung steuert — Prioritäten setzt, Stakeholder managt, die Trade-offs trifft, die bestimmen, woran das Team arbeitet und warum. Nennen wir es Account Lead, Marketing Director, Head of Growth — was auch immer zur Organisation passt.
Der Punkt ist: Die drei oben genannten Funktionen — Validierung, Infrastruktur, Gedächtnis — sind die operative Ebene. Die strategische Leitung ist die richtungsgebende Ebene. Man braucht beides.
Wie das an einem Montagmorgen aussieht
Lassen Sie mich das konkret machen.
Eine mittelständische Hautpflegemarke bereitet den Launch einer Q2-Kampagne vor. Die AI hat über Nacht einen ersten Mediaplan, ein Creative-Briefing und ein Measurement-Framework generiert.
Das passiert, bevor irgendetwas live geht:
Der AI Auditor öffnet den Mediaplan und gleicht ihn mit den Plattformen ab. Die AI empfahl einen 60/40-Split zwischen Meta und TikTok — aber der Auditor weiß, dass die TikTok-Shop-Integration der Marke letzten Monat kaputt ging und noch nicht repariert wurde. Die AI weiß das nicht. Der Auditor flaggt es, bevor Budget committet wird.
Der Signal Architect schaut sich das Measurement-Framework an. Die AI schlug Tracking basierend auf dem Pixel-Setup des letzten Quartals vor. Aber der Architect weiß, dass das Team vor zwei Wochen auf Server-side Tracking migriert hat und die alten Pixel-Events jetzt Conversions duplizieren. Die Attributionszahlen würden großartig aussehen und komplett falsch sein. Der Architect korrigiert die Event-Definitionen, bevor das Dashboard gebaut wird.
Der Memory Curator prüft das Creative-Briefing. Die AI hat etwas Poliertes produziert — professioneller Ton, starker CTA, sauberer Text. Aber das strukturierte Gedächtnis des Curators zeigt, dass der CEO dieses Kunden letztes Quartal alles mit „Sale"-Framing abgelehnt hat und das Compliance-Team spezifische Formulierungen bei Inhaltsstoff-Claims verlangt. Der Curator fügt diese Einschränkungen hinzu, bevor das Briefing das Kreativteam erreicht.
Der Account Lead schaut sich alle drei Outputs an — validiert und korrigiert — und trifft die strategische Entscheidung: den Launch um eine Woche verschieben, weil ein Wettbewerber gerade ein ähnliches Produkt angekündigt hat und die Marke zuerst einen Differenzierungsansatz braucht.
Keiner dieser Catches ist glamourös. Alle hätten einem Team entgangen, das dem AI-Output einfach vertraut hätte. Ich habe über dieses Muster in Warum die meisten AI-Marketing-Tools schnell wirken, aber das Teamurteil schwächen geschrieben — die Geschwindigkeit ist real, aber ohne die Validierungsebene beschleunigt Geschwindigkeit einen nur in Richtung einer schlechteren Entscheidung.
Wie sich die Form je nach Kontext ändert
Hier wird das Gespräch meiner Meinung nach nützlicher als eine feste Mitarbeiterzahl.
Ein kleines Agentur-Pod oder Startup-Team (3-5 Personen): Eine Person hält zwei oder sogar alle drei Funktionen. Die strategische Leitung kuratiert auch das Gedächtnis. Der Channel-Spezialist auditiert auch AI-Output. Das funktioniert, wenn das Team klein genug ist, dass der Kontext sich natürlich teilt.
Ein mittelständisches Agentur-Team (6-12 Personen): Jede Funktion bekommt eine dedizierte Person. Hier beginnt das Operating Model sich aufzuzinsen — das strukturierte Wissen des Memory Curators macht jede andere Funktion über die Zeit effektiver. Nach meiner Beobachtung ist der Mittelstand aktuell die interessanteste Disruption-Zone, weil die Lücke zwischen dem, was diese Kunden derzeit erhalten, und dem, was ein AI-verstärktes Team leisten kann, hier am größten ist.
Ein Enterprise- oder Inhouse-Team (15-40+ Personen): Jede Funktion könnte ein ganzes Team hinter sich haben. Die AI-Auditor-Funktion wird zu einer Qualitätsebene über mehrere Kanäle. Die Signal-Architect-Funktion wird zu einer Data-Engineering-Fähigkeit. Die Memory-Curator-Funktion wird zu einer institutionellen Wissenspraxis.
Der Schlüssel: Die Funktionen sind nicht verhandelbar. Die Organigramm-Labels und die Anzahl der Personen pro Funktion sind völlig flexibel.
Deshalb denke ich, dass „Wie viele Leute?" die falsche Frage ist. Die bessere Frage ist: „Existieren diese drei Funktionen in unserem Team, und wer ist dafür verantwortlich?"
Wo Junior-Leute reinpassen — und warum das wichtig ist
Ich möchte etwas direkt ansprechen, weil ich es für wichtig halte.
Viele Gespräche über AI und Teams klingen so: kleinere Teams, mehr Hebel, weniger Einstellungen. Und wenn man am Anfang der Karriere steht, kann das klingen wie: weniger Möglichkeiten für mich.
Ich denke nicht, dass das stimmt. Aber ich denke auch nicht, dass der alte Weg noch funktioniert, und ich möchte ehrlich darüber sein.
Das alte Apprenticeship-Modell funktionierte durch Wiederholung. Junior-Leute lernten, indem sie Aufgaben manuell erledigten — Berichte erstellen, Kampagnen aufsetzen, Daten ziehen, Decks formatieren — oft genug, dass sie das Urteilsvermögen hinter der Arbeit verinnerlichten.
Wenn AI jetzt viel von dieser First-Pass-Produktion übernimmt, schrumpfen die Wiederholungen. Die Frage wird: Wenn AI die ganze Junior-Arbeit macht, wie wird dann jemand Senior?
Ich denke, das ist eines der schwierigsten ungelösten Probleme der Branche gerade.
Hier bin ich gelandet, und ich halte das bewusst locker:
Das 2+2 Entwicklungsmodell
Wenn ich über Teamaufbau nachdenke, gehe ich nicht davon aus, dass alle Rollen durch erfahrene externe Einstellungen besetzt werden müssen.
Was ich für besser halte, ist in etwa: 2 erfahrene Leute + 2 Leute in gezielten Depth-first-Entwicklungsprogrammen.
Die erfahrenen Einstellungen bringen Urteilsvermögen und Kontext. Die Entwicklungsplätze bringen aktuelle Plattformtiefe, Energie und — entscheidend — einen Grund, in Talententwicklung zu investieren statt Talent nur zu extrahieren.
Depth-first, nicht Rotation-first
Das alte Karrieremodell war: erst breit aufstellen, später spezialisieren. Durch Kanäle rotieren, von allem ein bisschen lernen.
Ich denke, das AI-native Modell kehrt das um. Erst tief gehen, dann breiter werden.
Sechs Monate fokussiert tief in einer Disziplin baut haltbarere Expertise auf als sechs Monate Rotation durch vier Bereiche. Die Tiefe ist es, die einen AI-Output validieren lässt. Die Breite kommt später durch Rotation.
Evaluierung erstellen als Lernmethode
Einer der wirkungsvollsten Lernmechanismen, die ich gerade sehe, ist, Leute zu bitten zu definieren, wie „korrekt" aussieht.
Nicht nur die Aufgabe ausführen. Die Bewertungskriterien definieren:
- Wie sieht ein gutes Kampagnen-Setup aus?
- Was sollte eine Zweitprüfung auslösen?
- Welche Abweichungsschwelle ist akzeptabel?
- Was darf niemals ohne menschliche Prüfung passieren?
Diese Übung erzwingt das tiefe Verständnis, das früher durch die manuelle Arbeit entstand. Die Person, die die Pre-Launch-Checkliste schreibt, muss die Disziplin tief genug verstehen, um Expertenurteil in ein System zu codieren.
Zum Beispiel: „Conversion-Tracking muss innerhalb von 2% der plattform-berichteten Zahlen feuern, bevor eine Kampagne live geht." Diese Regel zu schreiben klingt einfach. Zu wissen, warum 2% die richtige Schwelle ist — nicht 5% oder 0,5% — erfordert echte Tiefe.
Es ist nicht dasselbe wie das alte Apprenticeship-Modell. Aber ich denke, es kann funktionieren.
Die Karrierepfade
Jede der drei Funktionen, die ich beschrieben habe, ist auch ein Entwicklungspfad, kein Sackgassen-Label:
- AI Auditor → wächst in Account-Leadership hinein, weil die Person, die tief versteht, was Output gut oder schlecht macht, die Person ist, die Kundenbeziehungen steuern kann
- Signal Architect → wächst in Measurement-Leadership hinein, weil Dateninfrastruktur-Wissen eines der wertvollsten und seltensten Skill-Sets ist
- Memory Curator → wächst in Senior Strategy hinein, weil die Person, die Wissen strukturiert, irgendwann die Person wird, die prägt, wie die Organisation denkt
Wenn du am Anfang deiner Karriere stehst und das hier liest: Die Frage ist nicht „Wird es eine Rolle für mich geben?" Die Frage ist „In welcher dieser Funktionen baue ich Tiefe auf?" Das ist der Karrierezug, der sich aufzinst.
Was die AI-Ebene übernimmt
Wenn das menschliche Team um diese Funktionen organisiert ist, übernimmt die AI-Ebene einen großen Teil der Produktionsarbeit — erste Entwürfe, Recherche-Synthese, Reporting-Gerüste, Dokumentation, Content-Umwidmung.
Aber ich würde hohe AI-Aktivität nicht mit einem vollständigen Operating Model verwechseln.
Jemand muss trotzdem definieren, was vertraut wird, was geprüft wird und was Qualität bedeutet. Das ist der Punkt, an dem viele „AI-first"-Gespräche meiner Meinung nach noch etwas oberflächlich wirken. Sie hören bei der Generierung auf. Der echte Hebel liegt in Orchestrierung und Evaluierung.
Das Empowerment-Framing
Noch etwas, weil ich denke, das ist wichtig dafür, wie Teams das tatsächlich annehmen.
Der Unterschied zwischen einem Team, das AI widersteht, und einem, das es annimmt, ist oft das Framing.
Wenn die Botschaft lautet „AI ersetzt deinen Job" oder „wir automatisieren für Effizienz", ist die Reaktion Widerstand, Angst, stilles Rückzug.
Wenn die Botschaft lautet „AI übernimmt die repetitive Arbeit, damit ihr euch auf die Teile konzentrieren könnt, die Urteilsvermögen erfordern", ist die Reaktion meistens Neugier und Ownership.
Ich habe das miterlebt. Die Parallele zur Programmatic-Welt ist hier nützlich. Als manuelle Insertion Orders verschwanden, wurden die Leute, die sich anpassten, zu programmatischen Strategen — höher qualifizierte, besser bezahlte Rollen. Der Übergang war unbequem. Das Ergebnis war Wachstum.
Ich denke, wir stehen an einem ähnlichen Wendepunkt. Die Form der Arbeit ändert sich. Der Wert der Menschen, die die Arbeit machen, steigt, nicht sinkt — wenn das Team so gestaltet ist, dass es ihre Entwicklung ermöglicht.
Wo mich das hinführt
Ich denke nach wie vor, dass die spezifische Mischung je nach Unternehmen variiert. Manche Teams brauchen einen Creative Editor als Kernfunktion. Manche brauchen einen Channel-Spezialisten. Manche brauchen zwei Signal Architects und keinen dedizierten Memory Curator.
Aber das zugrundeliegende Muster, zu dem ich immer zurückkehre:
- Funktionen definieren, nicht Mitarbeiterzahlen
- Die drei operativen Funktionen (Validierung, Infrastruktur, Gedächtnis) sind nicht verhandelbar
- Entwicklungsplätze einplanen, nicht nur Senior-Einstellungen
- In Depth-first-Apprenticeship investieren
- Die AI-Ebene die Produktion übernehmen lassen, damit die menschliche Ebene sich auf Urteilsvermögen konzentrieren kann
Das ist die Richtung, in die ich mich bewegt habe — sowohl in meinem Denken über Teams als auch in dem, wie ich mein eigenes Operating Model im letzten Jahr aufgebaut habe.
Das war's von meiner Seite.
Wenn du gerade ein Team umbaust, würde mich ehrlich interessieren, welche dieser Funktionen am leichtesten zu etablieren ist und welche immer wieder bricht. Und wenn du am Anfang deiner Karriere stehst — in welcher Funktion baust du Tiefe auf?
Cheers, Chandler





