SEO técnico é infraestrutura tanto para o Googlebot como para assistentes de IA.

Prompts aleatórios não vão resolver crawl waste nem falhas de schema.

Neste guia vai aprender um sistema estruturado de prompts para discovery, diagnóstico, especificação, QA e monitoring, ligado a dados reais (logs, crawls, CWV, citações IA).

Mantenha isto alinhado com o nosso pilar de prompt engineering em Prompt Engineering SEO para que as equipas entreguem outputs seguros e verificáveis.

Visão geral do sistema de prompts

  • Inputs primeiro: exports de crawl, Search Console, GA4, logs, CWV, validação de schema, logs de citações IA.

  • Etapas: discovery → clustering → priorização → specification → QA → monitoring.

  • Guardrails: nada de deploys de código sem revisão humana; proibir PII; nunca inventar dados.

  • Outputs: tabelas com issues, severidade, impacto e próximos passos; specs formatadas para tickets.

  • Owners: definir quem revê quais prompts/outputs (SEO lead, dev, legal) e em que momento.

Guardrails a incluir em todos os prompts técnicos

  • “Não inventes URLs, dados ou código; usa apenas os inputs fornecidos.”

  • “Assinala PII; não exponhas dados de utilizadores; anonimiza se existir.”

  • “Recomenda passos de validação (Rich Results Test, Lighthouse, Playwright, crawlers).”

  • “Fornece estimativas de risco, esforço e impacto; não prometas rankings.”

  • “Formata para tickets: issue, evidence, recommendation, validation, owner.”

Prompts de discovery (inputs: crawl / SC / logs)

  • “Com base neste export de crawl, lista principais problemas por número e templates afetados; inclui sample URLs e severidade.”

  • “Agrupa estas queries/URLs de GSC por template e intenção; destaca páginas com muitas impressões e CTR baixo.”

  • “A partir desta amostra de logs, identifica crawl waste (4xx/chains de redireções/parâmetros) e propõe fixes em robots/canonicals.”

  • “Lista riscos de JS rendering com base neste render-depth report; assinala conteúdo ou schema ausente após render.”

Prompts de Core Web Vitals (inputs: CWV / CrUX / Lighthouse)

  • “Resume problemas de CWV por template/device; lista elementos LCP e offenders de INP; sugere correções com esforço estimado.”

  • “Dado este relatório Lighthouse, escreve um resumo pronto para ticket com ações para reduzir INP e CLS.”

  • “Propõe passos de otimização de imagem com base nesta lista de assets (formato, tamanho, candidatos a preload).”

  • “Com estes dados de CWV por template, prioriza fixes por tráfego x severidade; devolve resumos prontos para tickets.”

  • “Identifica scripts/styles que bloqueiam render neste waterfall; sugere defer ou remoção.”

Prompts de schema e entidades (inputs: dumps/validadores)

  • “Revê esta amostra de JSON-LD; lista erros, campos obrigatórios em falta e conflitos de @id; fornece snippet corrigido.”

  • “Alinha about/mentions de schema com estas entidades: [lista]; propõe updates para Article + Person + Organization.”

  • “Sugere adições de Speakable/FAQ/HowTo para este template; inclui passos de validação e segurança YMYL.”

  • “Gera uma checklist de rollout de schema por template com campos obrigatórios, plano de @id e parity checks.”

  • “Mapeia updates de sameAs para Organization/Person quando há novo PR; garante @id estável e URLs canónicas.”

  • “Assinala duplicações de schema vindas de plugins; recomenda plano de consolidação.”

Prompts de internal linking e crawlability

  • “Com base neste crawl, lista páginas órfãs e páginas a mais de 3 cliques; sugere links pilar/suporte e âncoras.”

  • “Analisa anchor text interno para [pilar]; propõe 10 variantes de âncora e placements de links nos principais suportes.”

  • “Recomenda regras de robots/meta/canonical para estas URLs com parâmetros; inclui exemplos.”

  • “Desenha prioridades de sitemap: que sitemaps dividir/juntar; frequência de atualização por template.”

  • “Deteta crawl traps infinitos em navegação facetada; sugere regras noindex/robots/canonical.”

  • “Sugere melhorias de TOC e breadcrumbs para este template; define targets de âncoras.”

Prompts de análise de logs

  • “Identifica bots que gastam >X % dos hits em URLs não indexáveis; propõe mitigação.”

  • “Encontra cadeias longas de redireção nos logs; lista fontes e destinos; propõe fixes.”

  • “Deteta spikes de 5xx/4xx; sugere hipóteses de root cause e passos de monitoring.”

  • “Deteta padrões de resposta lenta por path; recomenda caching ou fixes de infra.”

  • “Lista top 100 404s pedidas e melhores targets de redirect; evita loops.”

Prompts para edge e headless

  • “Propõe regras de CDN/worker para cache de HTML de [templates] respeitando auth e cookies.”

  • “Escreve regras de headers para canonicals/hreflang/segurança num setup headless.”

  • “Sugere opções de pre-render/SSR para estas páginas muito JS; lista passos de validação.”

  • “Gera regras de transformação para reescrita de links em edge para corrigir legacy links; inclui testes.”

  • “Recomenda CSP e security headers; assinala impacto em scripts de terceiros.”

Prompts international e multi-domínio

  • “Audita hreflang com base neste export; lista pares inválidos/em falta e canonicals; propõe correções.”

  • “Para setup multi-domínio, sugere estratégias de canonical e hreflang; inclui regras de edge se necessário.”

  • “Localiza robots e sitemaps para estes markets; garante que não há cross-blocking.”

  • “Deteta páginas com mistura de idiomas e snippets na língua errada; propõe fixes em meta, hreflang e schema.”

  • “Cria plano de redirects e canonicals para migrações de locale (ccTLD → subfolder).”

Prompts para pesquisa IA e answer engines

  • “Com base neste log de citações IA, lista páginas citadas vs ignoradas; propõe fixes técnicos (schema, render, âncoras) para aumentar citações.”

  • “Escreve checklist para garantir que páginas são extractáveis para AI Overviews: LCP/INP rápidos, respostas claras, schema estável.”

  • “Recomenda telemetria para acompanhar tráfego de respostas IA (logs, prompt tests, screenshots).”

  • “Sugere mudanças para tornar featured answers mais extractáveis (parágrafos curtos, listas, legendas).”

  • “Mapeia entidades em falta nas citações IA; propõe updates de about/mentions e de âncoras.”

Prompts para escrever specs (tickets prontos)

  • “Cria um ticket JIRA-ready para corrigir [issue] com secções: Summary, Evidence (URLs/dados), Recommendation, Risks, Validation steps, Owner, Estimate.”

  • “Escreve acceptance criteria para rollout de schema em [template], incluindo validação renderizada.”

  • “Redige plano de testes para alteração de robots.txt; inclui testes em staging, passos de rollback e monitoring.”

  • “Cria checklist de migração para [mudança] com checks pré/pós, redirects e triggers de rollback.”

Prompts de QA

  • “Dado este change deployado, confirma se schema renderiza via Playwright; lista campos em falta.”

  • “Compara produção vs staging para [lista de URLs]; assinala diferenças em canonicals/hreflang/meta robots.”

  • “Valida internal links após migração; lista links quebrados/redirecionados e páginas com <3 links internos.”

  • “Resume CWV antes/depois da mudança; nota melhorias ou regressões.”

  • “Verifica contagem de sitemap vs páginas indexadas; destaca gaps.”

  • “Corre spot checks de acessibilidade (ordem de headings, alt text) após alterações de template.”

Prompts de monitoring

  • “Define checks semanais: frescura de sitemaps, crawl errors, picos de 5xx, erros de schema, variações de citações IA; devolve como checklist.”

  • “Desenha outline de dashboard combinando GSC, logs, CWV e citações IA; lista gráficos e thresholds.”

  • “Sugere regras de alerting para regressões de LCP/INP e quebras de citações IA em clusters críticos.”

  • “Cria prompt que faça resumo semanal de anomalias de logs com contagens e owners sugeridos.”

  • “Gera template de health report mensal com secções para crawl, CWV, schema, citações IA e incidentes.”

Workflows programáticos

  • “Dadas colunas CSV [URL, template, issue, evidence], gera resumos agrupados e action items.”

  • “Cria regex ou regras de pattern para limpar URLs com tracking params; propõe regras de canonical/robots.”

  • “Gera sugestões de internal links em escala com base neste entity/tag map; devolve âncoras e target URLs.”

  • “Redige regras de edge para redirects de idioma/device com base neste mapping; inclui testes.”

  • “Resume crawl de 10k linhas em top 10 issues com contagens, sample URLs e notas de impacto.”

Prompts de segurança e compliance

  • “Garante que prompts nunca devolvem PII; se detetado, redige e sinaliza.”

  • “Lista implicações de GDPR/consent para novos scripts de tracking/render; propõe alternativas compliant.”

  • “Para YMYL, reforça linguagem neutra e inclui requisitos de revisor nas specs.”

  • “Assinala scripts de terceiros que colocam cookies sem consentimento; propõe mitigação.”

  • “Destaca prompts que peçam credenciais ou dados sensíveis; bloqueia e faz log.”

Case snippets

  • Ecommerce: clustering de crawls guiado por prompts reduziu crawl waste 35 % e melhorou LCP/INP com specs prontas para tickets; citações IA subiram em páginas de comparação.

  • SaaS: prompts de schema corrigiram conflitos de @id e adicionaram Speakable/FAQ; citações em AI Overviews aumentaram e CTR subiu 8 %.

  • News: prompts de hreflang e QA de render reduziram snippets na língua errada; citações IA estabilizaram entre mercados.

  • Marketplace: prompts de logs identificaram crawl traps; robots/canonicals reduziram hits desperdiçados e melhoraram eficiência de crawl em 25 %.

  • Serviços locais: prompts de internal linking corrigiram problemas de profundidade; respostas IA começaram a citar as páginas locais certas.

Plano 30–60–90 dias

  • 30 dias: construir biblioteca de prompts por tarefa/fonte de dados; pilotar num template; montar logging e guardrails.

  • 60 dias: adicionar prompts de specs e QA; integrar com tickets; validar outputs com crawlers/validadores; começar tracking de citações IA.

  • 90 dias: escalar para todos os templates, adicionar prompts para logs/edge, automatizar logs de prompts e incorporar prompts em SOPs.

  • Trimestral: fazer regression tests dos prompts core após alterações de modelos; atualizar guardrails e formação.

Tool stack

  • Crawlers (Screaming Frog/Sitebulb) para exports, profundidade e extração de schema.

  • Ferramentas de amostragem de logs; BigQuery ou data warehouse para juntar logs, GSC e CWV.

  • Testes de render (Playwright) para JS e presença de schema; Lighthouse para CWV.

  • Validadores: Schema Markup Validator, Rich Results Test.

  • Dashboards: Looker Studio/Power BI com GSC, GA4, CWV, logs e dados de citações IA.

  • Ticketing: JIRA/Asana com specs ligadas a prompts; CI para linting de schema/templates.

Cadência de operações

  • Semanal: revisão de logs e crawls; resumos guiados por prompts; verificação de alertas de CWV, 5xx, erros de schema.

  • Quinzenal: lançar fixes priorizados; validar renders; atualizar biblioteca de prompts com learnings.

  • Mensal: revisão de citações IA, audits de hreflang e sitemaps, revisão de tendências CWV.

  • Trimestral: audits mais profundos, revisão de edge/CDN, dry runs de migrações e regression tests de modelos/prompts.

KPIs e diagnósticos

  • % de crawl waste (hits não indexáveis), profundidade média, número de páginas órfãs.

  • Taxas de aprovação de CWV por template; tendências de LCP/INP/CLS.

  • Taxa de validação de schema e contagem de @id duplicados.

  • AI citation share por cluster; problemas de extractability sinalizados por prompts.

  • Time-to-ticket e time-to-fix para principais issues; taxa de falha QA pós-release.

  • Sucesso de migração: taxa de redirects corretos, deltas de 404/5xx e retenção de tráfego.

  • Incidentes por trimestre e tempo até deteção; número de updates de guardrails.

Biblioteca de prompts e governação

  • Guardar prompts com campos: tarefa, fonte de dados, formato de input, guardrails, modelo/versão, exemplos de inputs/outputs, owner, nível de risco, passos de validação.

  • Manter prompts red flag (alucinações, maus conselhos) bloqueados; documentar motivo.

  • Versionar prompts após mudanças de modelos; retestar prompts “gold” trimestralmente.

  • Atribuir owners por domínio (logs, CWV, schema, international, edge) para manter bibliotecas atualizadas.

  • Ligar prompts a SOPs e templates de ticket para que outputs encaixem no workflow.

Uso por função

  • SEO lead: prompts de discovery, priorização, análise de citações IA e specification.

  • Developer/engineer: prompts de edge/headers, SSR/JS e prompts de validação.

  • Analyst: prompts de clustering de logs/crawls; prompts para outlines de dashboards.

  • Localization lead: prompts de hreflang e deteção de mistura de idiomas.

  • Product/PM: resumos para tickets, prompts de impacto/esforço e checklists de rollout.

Exemplo de SOP

  • Passo 1: correr prompts de crawl/logs; colar exports.

  • Passo 2: correr prompt de clustering; capturar principais issues com contagens.

  • Passo 3: correr prompt de spec para top 3 issues; colar em tickets com passos de validação.

  • Passo 4: após release, correr prompts de QA (render, schema, links, CWV) e registar resultados.

  • Passo 5: atualizar prompts de monitoring e dashboards; registar outcomes e learnings.

Cadência de reporting

  • Semanal: health snapshot (erros de crawl, 5xx, CWV, erros de schema, citações IA) com top 5 ações.

  • Mensal: deep dive por clusters/templates; listar fixes entregues e mudanças de performance.

  • Trimestral: revisão estratégica de crawl budget, performance de render, internacional e extractability IA; refresh da biblioteca de prompts.

Erros comuns a evitar

  • Dar aos modelos dados incompletos; outputs tornam-se adivinhação.

  • Sair da validação; confiar em código/snippets IA sem testes.

  • Ignorar PII em logs; risco de incumprimento.

  • Over-automating de internal links ou canonicals sem revisão humana; causa caos.

  • Usar o mesmo @id em entidades diferentes; fragmenta schema e confunde IA.

  • Não seguir versões de modelo; regressões passam despercebidas.

Como a AISO Hub pode ajudar

  • AISO Audit: revemos stack, dados e prompts e entregamos biblioteca de prompts priorizada.

  • AISO Foundation: construímos sistemas de prompts, guardrails e workflows de validação para que cada recomendação chegue limpa à equipa técnica.

  • AISO Optimize: usamos prompts para diagnostics, specs e QA para melhorar crawlability, CWV e visibilidade em IA.

  • AISO Monitor: acompanhamos schema, CWV, logs e citações IA, com alertas antes de a dívida técnica se acumular.

Conclusão: faça dos prompts o seu playbook técnico

Technical SEO prompts funcionam quando começam em dados reais, incluem guardrails e terminam em validação.

Use este sistema para descobrir, especificar e monitorizar mudanças que ajudam Google e assistentes IA a interpretar o seu site.

Mantenha a biblioteca atualizada e ligada ao pilar Prompt Engineering SEO: Prompt Engineering SEO para lançar rápido sem perder confiança.

Registe ganhos e incidentes e continue a refinar prompts à medida que a sua stack e os modelos evoluem.