Skip to content
··10 min de leitura

Dois anos depois dos meus 7 cursos com Andrew Ng: o caminho de 2026 que eu realmente seguiria

As pessoas ainda me mandam mensagem perguntando se os 7 cursos do Andrew Ng que recomendei em 2023 continuam sendo o caminho certo hoje. Resposta curta: a maioria deles, sim, mas com um roadmap diferente por volta. Aqui vai minha atualização de 2026, com veredictos curso a curso e um caminho que se bifurca entre builders e operadores.

As pessoas ainda me mandam mensagem sobre o post de 2023. A pergunta mais comum, quase palavra por palavra: "esse ainda é o caminho certo em 2026?"

Preciso admitir que venho adiando uma resposta completa, porque a resposta honesta tem camadas. A maior parte dos cursos do Andrew Ng ainda se sustenta. O roadmap que eu construí em volta deles, não. Este post é a atualização que eu devo a você.

Se você está começando do zero hoje, como eu em 2023, a parte da fundação deste roadmap ainda se aplica a você. Só que você precisa de menos do que eu precisei, por motivos que eu vou entrar daqui a pouco.

Um aviso antes de começarmos: eu posso errar em alguns destes veredictos, e eu realmente gostaria de ouvir de volta se a sua experiência discordar da minha. Eu ainda sou um estudante desse assunto. Só acontece que passei os últimos dois anos tentando shippar coisas com o que aprendi.

1. O que esses 7 cursos me deram de verdade

Olhando para trás com mais dois anos de contexto, acho que os cursos de 2023 me deram duas coisas muito claramente, e me deixaram sem uma terceira.

Eles me deram vocabulário. Prompt engineering, retrieval-augmented generation, embeddings, function calling, chain-of-thought reasoning. Esses ainda são os termos que eu uso em quase toda conversa técnica que tenho. Quando estou explicando um bug complicado para um colega que é mais novo em AI, a gente compartilha uma linguagem. Essa linguagem veio do Andrew.

Eles me deram confiança. Eu venho de uma trajetória não técnica. Sem a estrutura desses cursos, eu não sei se teria tido coragem para começar a construir. Um bom curso consegue fazer isso. Não te ensinar tudo, mas te convencer de que o próximo passo é alcançável.

O que eles não conseguiram me dar foi paladar: o senso de quando um prompt vai ser frágil, quando uma avaliação está de fato medindo aquilo que te importa, quando um padrão de custo está prestes a explodir na sua mão em produção. Isso só veio de quebrar coisas na frente de usuários reais. Escrevi sobre o primeiro ano dessa experiência neste post de 2024 — três meses dentro e ainda travando. Dois anos depois, eu trava em coisas diferentes, mas continuo travando.

Os cursos me levaram até "eu consigo ler a documentação sem entrar em pânico." Tudo depois disso veio de shippar.

2. Por que o roadmap antigo envelhece mais rápido agora

Aqui está a parte do post de 2023 que eu mais gostaria de reescrever.

Eu enquadrei os sete cursos como uma porta de entrada completa. Eles não são, e nunca foram. Eles são uma camada de fundação. O roadmap em volta deles mudou mais nos últimos dois anos do que os próprios cursos mudaram.

Minha tese curta: o pair programming com AI comprimiu a execução mais rápido do que comprimiu o julgamento. É por isso que os cursos de fundação ainda ensinam coisas boas (julgamento envelhece devagar) e por que quase nada mais na minha stack de aprendizado se parece com o que era em 2023.

Aqui está a minha própria linha do tempo, em linguagem simples:

Cada passo dessa lista foi uma mudança de workflow, não um curso que eu fiz. A coisa que você não consegue tirar de uma aula no navegador é a experiência de ver um assistente de AI refatorando o seu próprio repositório enquanto você está lendo a sugestão. Isso está mais próximo de um code review sob pressão do que de programação, e é onde boa parte do aprendizado de 2026 de fato acontece.

Vale dizer que eu também fiz o lado da construção. Entre o post de 2023 e agora, shippei três coisas: DIALOGUE, um gerador de podcast com AI; STRATUM, uma plataforma de marketing com 9 agentes; e a plataforma de curso neste site. Também fui fazendo um curso aqui e ali, quase sempre fundações, tipo o Google IT Automation with Python e o Google Cybersecurity Specialization. Os cursos me mantiveram alfabetizado. Os produtos me tornaram competente.

Uma implicação prática disso tudo: para onde o seu dinheiro de aprendizado vai é diferente agora. Em 2023, você pagava por aulas estruturadas e construía em cima do plano gratuito de um punhado de APIs. Em 2026, as aulas são uma pequena parte da conta; as ferramentas com as quais você escreve código são um custo recorrente maior. Se você está planejando o orçamento para aprender AI agora, inclua as ferramentas também, não só os cursos.

Se você não é um builder, se você é um líder de marketing ou um operador que nunca vai rodar o Claude Code pessoalmente, a implicação é a mesma dita de outra forma: o que você está de fato comprando de um caminho de aprendizado de 2026 é julgamento sobre as ferramentas, não fluência em nenhuma ferramenta específica. As ferramentas vão rodar. O julgamento sobre quando confiar nelas, quando questionar o output delas e quando colocar um humano no loop é a parte durável.

3. O veredicto curso a curso em 2026

Esta é a seção que eu acho que vai ser mais útil para você, então vou ser direto, com os veredictos suavizados quando a resposta honesta depende de quem você é.

Para quem isto é: qualquer um decidindo o que fazer hoje. Seja você um operador de marketing que precisa de AI literacy suficiente para liderar um time, seja um builder querendo shippar, os veredictos abaixo distinguem os dois onde isso importa.

Curso de 2023Veredicto de 2026Por quê
Machine Learning SpecializationTime-box: 1–2 semanas, passar os olhos na matemáticaVocabulário, para a maioria dos leitores. As derivações pesadas de matemática valem a pena se você está indo para pesquisa. Caso contrário, passe os olhos.
Generative AI for EveryoneAinda vale fazer, para qualquer pessoaO melhor enquadramento não técnico de AI generativa que eu já vi. Envelhece bem. Dá de presente para o seu CEO mesmo.
ChatGPT Prompt Engineering for DevelopersAinda vale fazer, mas combine com os cookbooksOs padrões centrais continuam válidos. Combine com os cookbooks da Anthropic e da OpenAI para as APIs da era 2026.
Building Systems with the ChatGPT APIFaça pelo modelo mental; não confie nos detalhes específicos da APIModeração, chain-of-thought, prompts encadeados, checagens de output. Ainda é correto. A superfície específica da API mudou mais de uma vez.
Neural Networks and Deep LearningPule, a não ser que esteja indo para pesquisaEu já sinalizei a redundância com o ML Specialization lá em 2023, e sinalizaria com mais força agora, tanto para builders quanto para operadores.
Functions, Tools, and Agents with LangChainVeja o estado atual antes de se comprometerQuando construí uma plataforma de 9 agentes em 2025, eu não usei LangChain. Antes naquele ano, tentei um agente em LangGraph e bati em tetos de performance que me empurraram para uma orquestração mais simples. Os padrões agentic são a lição real; a escolha do framework específico é sua, e o campo andou desde a minha experiência em 2025. Eu não descartaria o LangChain de volta sem fazer uma nova análise.
Vector Databases: from Embeddings to ApplicationsAinda vale fazer, mas mantenha curtoEsses são os padrões que rodam a busca neste site agora mesmo. Pule os capítulos específicos de provider que já envelheceram.

Leve isso como a visão de um builder, não como um ranking universal. Se você está chegando com um objetivo diferente (pesquisa, uma stack muito específica), a sua tabela pode ficar diferente.

4. O que eu adicionaria agora, e como o caminho se bifurca

A partir daqui o caminho se bifurca. Um operador e um builder precisam de segundas camadas diferentes.

Se você é um líder de marketing ou operador

Camada 1. Faça as linhas "Ainda vale fazer" da tabela acima. Foque em Generative AI for Everyone e Prompt Engineering for Developers. Você está comprando vocabulário e instinto.

Camada 2. Aprenda o suficiente sobre evals (uma forma de medir se um output de AI é de fato bom, não só plausível) e design de agentes (como costurar várias etapas de AI em um workflow confiável) para tomar decisões de time. Você não precisa construir isso você mesmo. Você precisa saber quais perguntas fazer. O que exatamente estamos medindo? Como é que a falha se parece? Onde os traces ficam? Com que frequência estamos revisando outputs reais? Se ninguém no seu time consegue responder isso claramente, você provavelmente está olhando para uma demo, não para um sistema durável. E se alguém te diz "a AI vai descobrir sozinha," pergunte com que matéria-prima ela está sendo grounded. Um modelo forte pode ajudar a transformar traces reais, outputs aceitos, casos de falha e documentos internos em critérios de eval em rascunho e em um dataset inicial. Isso é útil. Ainda precisa de um humano para revisar o rubric e calibrar o padrão.

Camada 3. Redesenhe um workflow. Pegue a menor coisa real da semana do seu time, um relatório semanal, um briefing de entrada, um QA review, e reconstrua com AI no loop. Volto ao jeito como eu enquadraria essa reconstrução no final do post, mas o trabalho em si é seu de qualquer maneira.

Se você é um builder

Camada 1. Mesmos cursos de fundação da tabela acima.

Camada 2.

Comece construindo, não estudando. Crie uma conta gratuita no GitHub e crie o seu primeiro repository. Aprenda Git o suficiente para fazer commits pequenos e fazer rollback limpo quando você quebrar alguma coisa. Depois comece a construir em um projeto real com um dos principais coding assistants. Eu usei os dois: Claude Code com Opus 4.7 e OpenAI Codex com GPT-5.4. O passo a passo é o trabalho, e se você esperar se sentir pronto antes de começar, você não vai começar. Leia os docs da ferramenta na sua frente quando travar, e não transforme "estudar a stack" em mais uma desculpa para adiar.

Quando algo estiver rodando, comece a aprender evals do jeito prático. Salve inputs e outputs reais. Junte algum material de ground truth. Decida como é que o bom e o ruim se parecem para cada etapa do workflow. Depois use um coding assistant forte, Claude Code com Opus 4.7 em xhigh thinking, ou Codex com GPT-5.4 em xhigh thinking, para te ajudar a fazer o scaffold do framework de eval, propor critérios e gerar um dataset inicial grounded nesses materiais. A AI consegue fazer bastante desse setup. O que ela não deveria fazer é definir silenciosamente o seu padrão por você. Revise o rubric você mesmo.

Depois aprenda o básico de MCP, o Model Context Protocol: a camada que permite que uma ferramenta como o Codex converse diretamente com o resto da sua stack. No meu próprio workflow neste repo, isso hoje significa Chrome DevTools, Playwright, Supabase, GitHub, Stripe, Resend e Cloudflare. MCP não existia em 2023, e agora é parte de como eu construo.

Camada 3. Construa alguma coisa que outra pessoa use. Não um tutorial. Não uma cópia de uma demo. Algo com um usuário real, mesmo que esse usuário seja uma pessoa do seu próprio time.

Os dois caminhos compartilham uma regra: você não terminou enquanto alguma coisa real não estiver rodando.

Uma nota prática, porque dinheiro importa: se US$20 por mês em um coding assistant está fora do seu alcance agora, pule a camada de tooling por enquanto. Os cursos de fundação com chaves de API no plano gratuito ainda funcionam. Foi assim que eu comecei em 2023, e ainda é um caminho real.

5. O que eu pularia ou colocaria em time-box agora

Três armadilhas, todas fáceis de cair porque parecem progresso.

  1. Colecionar certificados como procrastinação. Eu já fiz isso. Parece produtivo. Não é substituto para shippar. Tire os certificados de fundação e pare de contar.
  2. Cursos de framework-do-mês. Se um curso está fortemente preso a um framework específico com menos de dois anos de idade, tome cuidado. Leia os próprios docs do framework, e volte aos cursos quando o campo tiver se acomodado.
  3. Teoria de deep learning pesada em matemática, a não ser que você esteja indo para pesquisa. Um builder não precisa derivar backpropagation. Um líder também não precisa.

6. O curso que eu acabei construindo

Depois dos cursos de fundação, a lacuna em que eu continuava batendo não era técnica. Era julgamento no nível de operador. Como redesenhar um time de marketing em torno de AI, em vez de só chamar algumas APIs? Como decidir o que humanos ainda deveriam fazer, e o que a máquina finalmente conquistou o direito de fazer? Ninguém estava ensinando isso de um jeito que batesse com o que eu via no trabalho.

Então construí o curso que eu queria ter podido fazer depois dos sete do Andrew Ng. Ele se chama AI-Native Media Operations, e vive neste site. 7 módulos, 16 templates, cerca de 3 horas de vídeo, é seu para ficar. É o framework para o qual eu aponto a trilha de operador, porque eu acredito nele.

Um link, um pitch. Se os sete cursos do Andrew Ng cumpriram seu papel com você, e os veredictos acima te ajudaram a enxugar o roadmap, o próximo degrau é trabalho real, fazendo o meu curso ou não.


Se você fez a lista de 2023, eu realmente queria saber qual deles compensou mais para você e qual você gostaria de ter pulado. Se você está começando hoje, o que está te fazendo hesitar?

É isso, pessoal.

Abraços, Chandler

Continuar lendo