Los Answer Engines — Perplexity, ChatGPT con búsqueda, Claude con web, Google AI Overview — no muestran "10 enlaces azules". Muestran una respuesta con citas. Si quieres aparecer en esas respuestas, hay que escribir y estructurar diferente. Aquí va el manual práctico.
¿Qué es un Answer Engine?
Un Answer Engine es un sistema que combina un LLM con un crawler en tiempo real. El flujo es:
- El usuario pregunta algo.
- El motor genera una query de búsqueda (a veces varias).
- Recupera 5–20 páginas y extrae los párrafos relevantes.
- Pasa esos fragmentos al LLM como contexto.
- El LLM genera una respuesta y cita las fuentes.
Tu trabajo en cada paso es distinto. Veámoslo.
Paso 1–2: que tu URL gane la query
Aquí compite el SEO clásico:
- Title y H1 con la keyword exacta.
- URL semántica (
/blog/llm-seo-guia, no/post?id=42). - Backlinks de calidad — los Answer Engines confían en sitios con autoridad de dominio alta.
Paso 3: que tu párrafo gane la extracción
Esta es la parte que el SEO tradicional olvida. El motor no te pasa entero al LLM — extrae chunks de 200–500 tokens. Para ganar:
Fragmentos auto-contenidos
Cada bloque debe tener sentido leído fuera de contexto. Mal:
"Como dijimos antes, esto requiere las tres fases anteriores."
Bien:
"Implementar LLM SEO requiere tres fases: auditoría técnica, estructura de contenido y monitorización de citas."
Definiciones tipo Wikipedia
Empieza cada concepto con una frase de definición:
"El crawl budget es el número de URLs que Googlebot rastrea en tu sitio en un periodo dado, determinado por la salud técnica y la autoridad del dominio."
Frases así son lo que un LLM cita literalmente.
Datos numéricos con contexto
"La conversión sube" no se cita. "En un test A/B sobre 12.000 sesiones, el CTA en posición sticky aumentó la conversión un 18%" sí se cita.
Paso 4: que el modelo te elija como cita
Cuando el LLM tiene 10 fragmentos para responder, prefiere los que son:
- Específicos — un dato concreto pesa más que una afirmación general.
- Atribuibles — autor identificable, fecha visible, fuente clara.
- Recientes — el modelo penaliza fechas viejas en temas que evolucionan.
- Originales — si tu fragmento es idéntico a otros 50, no destaca.
Schemas que mueven la aguja
Los Answer Engines leen JSON-LD para entender de qué va tu página antes incluso de leer el HTML.
FAQPage — el favorito de los Answer Engines
{
"@context": "https://schema.org",
"@type": "FAQPage",
"mainEntity": [{
"@type": "Question",
"name": "¿Qué es LLM SEO?",
"acceptedAnswer": {
"@type": "Answer",
"text": "LLM SEO es el conjunto de prácticas para que tu marca aparezca citada en respuestas de motores como ChatGPT, Claude o Perplexity."
}
}]
}
HowTo — para tutoriales
Si tu artículo enseña a hacer algo, márcalo como HowTo con pasos numerados. Los Answer Engines los reformatean tal cual.
Article + Person
Article con author de tipo Person, con su propia página /about/autor con knowsAbout. Esto es autoridad estructurada.
E-E-A-T en clave de IA
Los modelos modernos tienen filtros internos que penalizan contenido sin señales de confianza. Para sumar:
- Experience — habla de casos que tu equipo ha hecho, no abstracciones.
- Expertise — autores con bio, credenciales, años de experiencia.
- Authoritativeness — apariciones en medios, ponencias, papers, GitHub público.
- Trust — HTTPS, dirección física, política de privacidad, contacto real.
Cómo medir si apareces
No hay "Search Console para LLMs" todavía. Las herramientas que funcionan:
- Profound, Otterly.ai, Peec.ai — monitorizan menciones en ChatGPT, Perplexity, Claude.
- Prompts manuales mensuales — lista 20 preguntas clave de tu sector y comprueba si te citan.
- Logs de servidor — busca user-agents
GPTBot,ClaudeBot,PerplexityBoten tu access log. Si no aparecen, no te están leyendo.
Errores típicos
- Bloquear crawlers de IA por miedo — luego te quejas de no aparecer.
- Texto en imágenes — los Answer Engines no leen pixeles bien. Todo en HTML.
- Enterrar la respuesta en el párrafo 7 después de SEO-fluff. La respuesta arriba.
- Sin fechas en los artículos. Sin
datePublishednidateModified. - Generar contenido con IA y publicarlo sin editar — los modelos detectan llm-slop y lo desprecian.
Conclusión
Los Answer Engines premian la respuesta clara, atribuible y reciente. Si escribes para ser citable — bloques auto-contenidos, definiciones tipo Wikipedia, datos con contexto, schemas limpios — apareces. Si escribes "para SEO" repitiendo keywords sin sustancia, te ignoran. La buena noticia: los dos universos (SEO clásico y LLM SEO) se solapan al 80%. El 20% extra es lo que separa a quien aparece en ChatGPT de quien no.