Skip to content
··阅读时间1分钟

没有资深判断力,AI在媒体运营中依然会犯的错

AI现在可以以惊人的速度产出媒体计划、绩效总结、测量框架和广告活动设置。问题不在于产出明显很差,而在于它往往"够好"到能通过一次随意的审查,同时遗漏了真正重要的业务背景。

过去几个月,在制作AI-Native媒体运营课程的过程中,我不断回到同一个令人不安的想法。

AI正在以一种非常特殊的方式变得"危险地优秀"。

不是因为它明显错了而危险。危险的是,它经常看起来很对

这是一种完全不同的失败模式。

如果一个AI模型给你一个荒谬的答案,大多数人都能看出来。笑一笑,截个图,也许发到LinkedIn上,然后继续。

但如果AI给你一个80%正确的广告活动方案、一个听起来完整的测量框架、一份打磨得很精致的报告叙述、或者一个看起来战略一致的渠道推荐——那么失败就微妙得多了。

仍然需要有人来问:

  • 这是否建立在真实的业务基础上?
  • 这是否符合客户的具体情况?
  • 这是否反映了平台在现实中的实际表现?
  • 这是否在做正确的取舍,而不仅仅是看起来最干净的答案?

这就是资深判断力仍然非常重要的地方。


问题不是"AI不擅长媒体"

先说清楚,我已经不认为AI不擅长媒体运营了。

事实上,这个论点每个月都在变弱。

AI已经在这些方面很有用了:

  • 媒体计划初稿
  • 受众假设
  • 报告摘要
  • 创意测试框架
  • 竞品扫描
  • 广告活动QA清单
  • 测量文档

如果还有人说"AI只是个玩具",我觉得他们低估了正在发生的事情。

我的担忧几乎是相反的。

AI已经足够强大,以至于很多团队会在建立好监督所需的判断层之前就信任它了。

而根据我的经验,媒体运营充满了不会整齐地出现在文档里的判断。


AI仍然会犯错的五件事

这些是我反复看到的模式。

1. 优化的是可见指标,而非真正的业务目标

AI非常擅长跟着给定的目标走。

这听起来理所当然。但在媒体行业,声明的目标和真正的目标往往不是同一个。

也许KPI写的是线索,但业务真正需要的是合格管线。也许Brief写的是触达,但客户真正需要的是内部的政治信心。也许仪表盘显示的是效率,但品牌暗中想要保护的是高端定位。

AI通常会优化那些可读取的东西。

资深判断力,是去追问那个可读取的目标本身是否正确。

2. 把平台指南当成现实

平台最佳实践是有用的。我职业生涯的大部分时间都在和它们打交道。

但真正跑过多年广告的人都知道,平台指南和混乱的运营现实之间有多大的差距。

帮助中心里有效的东西,未必对这个客户、这个预算、这个品类、这个市场、这个数据成熟度、这个截止日期同样有效。

AI往往会给你教科书式的答案。资深运营者知道,教科书式的答案在什么时候会在现实面前碎裂。

3. 忽略利益相关者的政治

这是无声的杀手。

一个媒体计划可以在数学上完美无缺,但如果不符合利益相关者的期望,照样会失败。

也许客户的领导层相信某个渠道,需要在那里看到明显的品牌投入。 也许区域团队需要本地化的灵活性。 也许销售组织不信任黑箱归因。 也许采购部门不在乎方案是否优雅,只在乎供应商整合。

我不是说应该把战略交给政治。我不是那个意思。

我是说,媒体运营存在于组织之中,而不是存在于整洁的示意图里。

资深的人通常知道那些看不见的地雷在哪里。

4. 把例外抹平了

AI喜欢干净的系统。

真实的媒体运营并不干净。

到处都有例外:

  • 有特殊审批流程的客户
  • 有平台限制的市场
  • 有已知盲区的测量栈
  • 法律限制
  • 遗留分类体系问题
  • 拖慢一切的创意依赖

机器倾向于给你一个连贯的运营模型。人类要做的是,发现那一个能搞砸全局的丑陋例外。

5. 把完成误认为就绪

这一条对我来说感触特别深,因为在写代码时我也看到了同样的模式。

AI非常擅长做出看起来完成了的东西。

Deck有章节了。 报告有要点了。 框架有分类了。 推荐有逻辑了。

然而,当你试着在真实环境中使用它时,总有什么不对。

顺序不对。 风险被低估了。 验证步骤缺失了。 推荐假设了团队并不具备的能力。

从"完成"到"就绪"的最后一步,仍然非常依赖人。


资深判断力不等于资历

这里我应该加一个重要的细微之处。

当我说"资深判断力"时,并不是说房间里头衔最高的人自动拥有最好的答案。

事实上,媒体代理商一个令人不适的现实是,战略VP可能已经好几年没有深入接触过平台了。策划总监可能不了解最新的实施细节。离真相最近的人,可能是一个更初级的运营者,他每天还在系统里面工作。

所以我认为答案不是:

"让AI干活,然后请一位资深高管签字认可。"

我认为答案更接近:

AI产出初稿。深度实操者验证运营真相。资深的人加入业务判断、取舍判断和组织判断。

这是一个和旧式代理商层级完全不同的运营模型,也和"AI取代初级工作"的懒惰版本完全不同。


评估层才是真正的工作

我最近写过,当AI抬高了底线,深度就成了差异化因素。

我认为它在运营层面的体现就是评估(evals)。

不仅仅是机器学习意义上的评估,而是实际团队运作意义上的。

什么定义了一个好的广告活动设置? 什么定义了一份可信赖的报告? 可接受的偏差阈值是多少? 什么算作可以上线? 什么情况下应该触发二次审查?

这些定义不是行政开销。它们就是判断层本身。

而把这个层建好的团队,会从AI中获得比那些止步于提示词库和通用自动化的团队大得多的价值。


这对团队意味着什么

我不认为结论是"要害怕AI"。

结论比那更苛刻。

积极地使用AI。让它承担75-80%的工作。但要极其清楚地知道人类判断在哪里介入:

  • 目标设定
  • 验证
  • 例外处理
  • 取舍
  • 利益相关者管理
  • 质量标准

这不是反AI。这才是一个认真的AI运营模型该有的样子。

这也是我把课程模块1设计成那样的原因。我希望免费模块能展示完整的广告活动生命周期,是的,但更想传达底下那个更大的观点:AI可以触及每一个阶段。但这并不会消除对经验判断力的需求。它改变的是,那种判断力在哪里最为关键。

就说到这里吧。

我真的很想听听其他人在实践中是怎么处理这个问题的。如果你已经在带媒体团队,你觉得AI在哪里产出的"看起来最有说服力的错误答案"最多?如果你还在职业生涯早期,你觉得判断的标准是变得更清晰了,还是更模糊了?

Cheers, Chandler

继续阅读

产品
Account
我的旅程
联系
语言
偏好设置