SEO fundamentel
SEO (Search Engine Optimization)
Definición: El SEO (Optimización para Motores de Búsqueda) es el conjunto de técnicas, estrategias y mejoras aplicadas a un sitio web para aumentar su visibilidad en los resultados orgánicos (no pagados) de motores de búsqueda como Google. Se estructura en tres pilares fundamentales: SEO On-Page (optimización de contenido y elementos técnicos internos), SEO Off-Page (autoridad construida mediante enlaces externos) y SEO Técnico (arquitectura, velocidad, rastreabilidad).
Por qué importa: El SEO es la única estrategia de marketing que sigue trabajando 24/7 sin coste marginal una vez implementada. A diferencia de la publicidad (pagas → tráfico viene, dejas de pagar → tráfico desaparece), el posicionamiento orgánico construye activos digitales que generan tráfico cualificado perpetuamente. El 53% del tráfico web viene de búsqueda orgánica (BrightEdge, 2024) y el 75% de usuarios nunca pasan de la primera página de resultados. Sin SEO, tu web es invisible.
Ejemplo práctico: Una empresa de reformas en Sevilla invierte €3,000 mensuales en Google Ads captando ~120 clics/día (CPC €2.50). En paralelo, invierte €5,000 en crear contenido SEO optimizado durante 6 meses. Resultado tras 12 meses: el contenido posicionado genera 180 visitas orgánicas diarias (€0 por visita) y seguirá haciéndolo durante años. ROI acumulado del SEO supera al SEM en mes 18 y la brecha se amplía exponencialmente.
Conceptos relacionados: SEM, SERP, Algoritmo de Google, Posicionamiento orgánico, Tráfico orgánico
SEM (Search Engine Marketing)
Definición: El SEM (Marketing en Motores de Búsqueda) es el término paraguas que incluye todas las estrategias para ganar visibilidad en buscadores, tanto orgánicas (SEO) como de pago (PPC/Google Ads). En la práctica, SEM se usa frecuentemente como sinónimo de publicidad de pago en buscadores (Google Ads, Bing Ads), aunque técnicamente SEO también forma parte del SEM.
Por qué importa: El SEM permite aparecer en Google de dos formas: orgánica (SEO, gratis pero lento) o pagada (Ads, inmediato pero costoso). La estrategia óptima combina ambos: SEM de pago genera resultados inmediatos mientras construyes SEO para reducir dependencia publicitaria a largo plazo. Empresas maduras obtienen 60-70% de tráfico de búsqueda vía SEO, reservando SEM pagado para keywords ultra-competitivas o estacionalidad.
Ejemplo práctico – Estrategia integrada SEO + SEM: Keyword: «abogado divorcio Madrid» (CPC €12, altísima competencia)
- Corto plazo (SEM pagado): Lanzar Google Ads inmediatamente, pagar CPC €12, generar casos ahora
- Largo plazo (SEO): Crear contenido optimizado (guías divorcio, casos de éxito, FAQs), construir backlinks, posicionar orgánicamente en 8-12 meses
- Resultado año 2: Posición orgánica #3 genera 40% del tráfico (€0 por clic), Google Ads cubre el 60% restante. Dependencia publicitaria reducida, CAC baja 35%.
Conceptos relacionados: SEO, Google Ads, PPC, SERP, Paid search
SERP (Search Engine Results Page)
Definición: La SERP (Página de Resultados del Motor de Búsqueda) es la página que Google muestra después de realizar una búsqueda. Incluye: resultados orgánicos (posiciones 1-10), anuncios de pago (Google Ads arriba y abajo), featured snippets (caja de respuesta destacada), People Also Ask (preguntas relacionadas), Local Pack (mapa + 3 negocios locales), imágenes, videos, noticias y otros elementos SERP features.
Por qué importa: Entender la anatomía de la SERP es crítico porque determina dónde debes posicionarte para captar clics. La posición #1 orgánica obtiene ~28% de clics, la #2 ~15%, la #3 ~11% (CTR decreciente exponencialmente). Pero si existe featured snippet, este roba clics de la posición #1. Si hay 4 anuncios arriba, los resultados orgánicos quedan «below the fold» (debajo del pliegue) en móvil. El objetivo no es solo rankear, es conquistar las SERP features que maximizan visibilidad.
Ejemplo práctico – Anatomía SERP «mejor CRM para pymes»:
- Google Ads (4 anuncios): HubSpot, Salesforce, Zoho, Pipedrive (pagan €15-25 por clic)
- Featured Snippet: Artículo comparativa de blog tech (posición 0, captura 8% clics totales)
- People Also Ask: «¿Cuánto cuesta un CRM?», «¿Qué CRM es gratis?», etc.
- Resultados orgánicos:
- #1: Capterra «Los 10 mejores CRM» (28% clics)
- #2: Forbes «CRM para pequeñas empresas» (15% clics)
- #3-10: Otras comparativas y reviews
- Imágenes: Capturas de pantalla CRMs
- Videos: Reviews YouTube
Estrategia: Optimizar para featured snippet (formato lista/tabla), crear contenido que alimente «People Also Ask», conseguir reviews/menciones para aparecer en comparativas.
Conceptos relacionados: SEO, Featured snippet, SERP features, CTR orgánico, Posicionamiento
Algoritmo de Google
Definición: El algoritmo de Google es el sistema complejo de cálculos, machine learning y señales de ranking (200+ factores) que determina qué páginas web aparecen en los resultados de búsqueda y en qué orden. Aunque secreto, sabemos que evalúa: relevancia del contenido, autoridad del dominio (backlinks), experiencia de usuario (Core Web Vitals), EEAT, frescura, intención de búsqueda y cientos de señales más. Google actualiza su algoritmo ~500-600 veces al año.
Por qué importa: El algoritmo es el árbitro definitivo del tráfico orgánico: entenderlo es entender qué optimizar. Actualizaciones mayores (Panda, Penguin, BERT, Helpful Content Update) han destruido negocios enteros que dependían de tácticas manipulativas (keyword stuffing, link farms, contenido generado masivamente sin valor). El algoritmo evoluciona hacia priorizar genuinamente contenido útil, experiencia de usuario excepcional y autoridad real sobre trucos técnicos.
Ejemplo práctico – Impacto de Helpful Content Update (2022-2024): Antes del update: Sitios con contenido masivo generado por IA sin expertise, optimizado solo para keywords, dominaban SERPs en nichos informativos.
Post-update: Google penalizó webs donde detectó:
- Contenido creado principalmente para rankear, no para ayudar usuarios
- Escritores sin expertise real en el tema
- Contenido superficial que reformula información existente sin aportar valor nuevo
Resultado: Webs afiliadas sin expertise perdieron 60-90% tráfico. Webs con autores reales, experiencia demostrable y contenido profundo ganaron posiciones. El algoritmo premia cada vez más EEAT (Experience, Expertise, Authoritativeness, Trust).
Conceptos relacionados: EEAT, Factores de ranking, Actualizaciones algorítmicas, Core Web Vitals, Relevancia
Indexación
Definición: La indexación es el proceso mediante el cual Google añade una página web a su índice (base de datos masiva de páginas rastreadas). Solo las páginas indexadas pueden aparecer en resultados de búsqueda. Google rastrea (crawling) la página, analiza su contenido, la categoriza según keywords y temática, y decide si merece estar en el índice. Puedes verificar indexación buscando site:tudominio.com en Google.
Por qué importa: Si tu página no está indexada, no existe para Google. Problemas comunes que bloquean indexación: robots.txt bloqueando Googlebot, meta tag noindex, contenido duplicado, baja calidad, servidor inaccesible, falta de enlaces internos. Monitorizar indexación (Google Search Console) es crítico: descubrir que tu página de servicio principal no está indexada explica por qué no aparece en búsquedas.
Ejemplo práctico – Diagnóstico de indexación: Problema: Cliente reporta «mi web no aparece en Google»
Diagnóstico:
- Búsqueda site:cliente.com → Solo 8 páginas indexadas de 50 totales
- Google Search Console → «Excluidas por robots.txt»: 35 páginas
- Revisión robots.txt → Disallow: / (bloqueando TODO el sitio)
- Causa: Desarrollador dejó robots.txt de staging (bloqueo total) en producción
Solución: Corregir robots.txt, solicitar reindexación en GSC. En 48h, 42 páginas indexadas. Tráfico orgánico pasa de 0 a 150 visitas/día.
Problema invisible (robots.txt mal configurado) generaba invisibilidad total.
Conceptos relacionados: Crawling, Googlebot, Robots.txt, Google Search Console, Rastreabilidad
Crawling (Rastreo)
Definición: El crawling (rastreo) es el proceso mediante el cual Googlebot (el robot de Google) descubre y visita páginas web siguiendo enlaces, analizando contenido y actualizando el índice. Google asigna un «presupuesto de rastreo» (crawl budget) limitado a cada web: cuántas páginas rastreará en un período. Páginas importantes deben rastrearse frecuentemente; páginas irrelevantes desperdiciar crawl budget.
Por qué importa: El crawling determina qué tan rápido Google descubre contenido nuevo o cambios. En webs grandes (miles de URLs), optimizar rastreabilidad es crítico: si Googlebot desperdicia crawl budget en páginas inútiles (filtros infinitos, parámetros duplicados), puede no llegar a contenido valioso. Problemas de rastreo (server errors 5xx, timeouts, bloqueados por robots.txt) retrasan indexación y perjudican SEO.
Ejemplo práctico – Optimización de crawl budget en ecommerce: Problema: Ecommerce con 50,000 URLs (productos + filtros + variantes). Google solo rastrea 500 URLs/día, tardando 100 días en recorrer todo el sitio. Productos nuevos tardan semanas en indexarse.
Optimización:
- Robots.txt: Bloquear URLs inútiles (filtros infinitos: /precio-min=X&precio-max=Y)
- Canonical tags: Consolidar variantes (talla/color) en URL principal del producto
- Sitemap XML: Priorizar URLs importantes (productos en stock, categorías principales)
- Mejora velocidad servidor: Reducir tiempo respuesta de 800ms a 200ms (Googlebot rastrea más rápido)
Resultado: Crawl budget optimizado. Google rastrea 1,200 URLs/día (productos prioritarios). Nuevos productos indexados en 24-48h vs semanas. Tráfico orgánico +35% en 3 meses.
Conceptos relacionados: Googlebot, Indexación, Crawl budget, Robots.txt, Sitemap XML
Googlebot
Definición: Googlebot es el robot rastreador (crawler/spider) de Google que visita páginas web automáticamente para descubrir contenido, seguir enlaces, analizar HTML y enviar información al sistema de indexación. Existen dos versiones principales: Googlebot Desktop (simula navegador de escritorio) y Googlebot Smartphone (simula móvil). Desde 2019, Google usa mobile-first indexing (prioriza versión móvil).
Por qué importa: Googlebot determina qué ve Google de tu web. Si bloqueas Googlebot (robots.txt, server denying user-agent), tu web no se indexa. Si tu web carga lento o tiene JavaScript que Googlebot no puede ejecutar, el contenido no se rastrea correctamente. Optimizar para Googlebot significa: servidor rápido, HTML limpio, JavaScript renderizable, recursos (CSS/JS/imágenes) accesibles.
Ejemplo práctico – Problema de renderizado JavaScript: Situación: Web React/Angular donde todo el contenido carga vía JavaScript client-side.
Problema: Googlebot visita la página, recibe HTML casi vacío:
<div id=»root»></div>
<script src=»app.js»></script>
Googlebot ejecuta JavaScript pero con limitaciones. Contenido crítico no se renderiza a tiempo → no se indexa.
Síntomas en GSC: «Rastreado – actualmente no indexado», contenido ausente en versión caché de Google.
Solución: Implementar Server-Side Rendering (SSR) o Pre-rendering. Googlebot recibe HTML completo con contenido. Indexación exitosa.
Conceptos relacionados: Crawling, Indexación, JavaScript SEO, Mobile-first indexing, Renderizado
PageRank
Definición: PageRank es el algoritmo original de Google (Larry Page, 1996) que evalúa la autoridad de una página web basándose en la cantidad y calidad de enlaces entrantes (backlinks). La lógica: un enlace es un «voto de confianza»; enlaces de páginas con alto PageRank transfieren más autoridad (linkjuice) que enlaces de páginas débiles. Aunque Google ya no muestra PageRank públicamente (descontinuado en 2016), sigue siendo factor interno de ranking.
Por qué importa: PageRank sentó las bases del link building: conseguir enlaces de sitios autoritarios (El País, universidades, webs .gov) impulsa tu SEO más que 100 enlaces de directorios spam. Aunque PageRank evolucionó (ahora integrado en sistemas más complejos), el principio permanece: la autoridad se construye mediante enlaces de calidad, no cantidad. Sin backlinks, incluso contenido excepcional no rankeará en keywords competitivas.
Ejemplo práctico – Transferencia de autoridad vía PageRank: Escenario: Artículo sobre «cambio climático» recibe enlace de:
- Opción A: Wikipedia (DA 95, millones de backlinks) → Transferencia de autoridad ALTA
- Opción B: Blog personal (DA 15, pocos backlinks) → Transferencia BAJA
El enlace de Wikipedia vale exponencialmente más: impulsa ranking de la página, aumenta crawl frequency y mejora autoridad de todo el dominio (link juice distribuido internamente). PageRank fluye como «jugo»: cuanto más autoritaria la fuente, más «jugo» transfiere.
Conceptos relacionados: Backlinks, Link building, Autoridad de dominio, Linkjuice, SEO Off-Page
Autoridad de dominio (Domain Authority)
Definición: La Autoridad de Dominio (Domain Authority o DA) es una métrica predictiva desarrollada por Moz (escala 1-100) que estima qué tan bien un dominio completo rankeará en Google. Se calcula analizando: cantidad y calidad de backlinks al dominio, diversidad de dominios referentes, perfil de enlaces, edad del dominio, señales de confianza. DA 90+ (Wikipedia, BBC) indica autoridad masiva; DA <20 es débil.
Por qué importa: Aunque DA no es un factor directo de ranking de Google (es métrica de Moz, no de Google), correlaciona fuertemente con performance SEO. Dominios con DA alta rankean más fácilmente en keywords competitivas, nuevas páginas indexan más rápido y resisten mejor actualizaciones algorítmicas. Construir DA requiere años de link building consistente, contenido de calidad y presencia sostenida. Compradores de dominios pagan premiums por DA alto.
Ejemplo práctico – Ventaja competitiva de DA alto: Keyword competitiva: «mejor portátil 2024»
Competidor A (TechRadar, DA 91):
- Publica artículo mediocre
- Rankea posición #3 en semanas (DA alto compensa calidad media)
Competidor B (blog tech nuevo, DA 18):
- Publica artículo excepcional, mejor contenido objetivamente
- Rankea posición #25 después de meses (DA bajo requiere contenido 10x mejor para competir)
La autoridad acumulada de TechRadar (década de backlinks, menciones, tráfico) le da ventaja masiva. El blog nuevo necesita multiplicar esfuerzos en link building para cerrar la brecha.
Conceptos relacionados: PageRank, Backlinks, Autoridad de página, Domain Rating, Link building
Autoridad de página (Page Authority)
Definición: La Autoridad de Página (Page Authority o PA) es la métrica de Moz (escala 1-100) que predice qué tan bien una página específica (no todo el dominio) rankeará en Google. Se calcula similar a DA pero enfocada en una URL individual: backlinks a esa página exacta, calidad de enlaces, relevancia, factores on-page. Una página puede tener PA 60 en un dominio DA 40 si recibió enlaces masivos (ej: artículo viral).
Por qué importa: PA explica por qué algunas páginas individuales rankean excepcionalmente en dominios mediocres: concentraron enlaces específicos. En estrategia SEO, puedes elegir: construir DA general (beneficia todo el sitio pero lento) o construir PA de páginas clave (enfoque táctico, resultados más rápidos). Artículos de blog con PA alto son candidatos ideales para enlazar internamente a páginas comerciales (money pages).
Ejemplo práctico – Construcción estratégica de PA: Objetivo: Rankear página de servicio «Diseño web Sevilla»
Estrategia:
- Crear artículo educativo: «Guía completa diseño web en 2024» (contenido linkeable)
- Promoción agresiva: Guest posts, outreach, distribución en redes → Artículo recibe 50 backlinks de DA 30-60
- PA del artículo sube a 45 (vs PA promedio del sitio: 20)
- Enlace interno potente: Desde artículo (PA 45) a página servicio «Diseño web Sevilla» con anchor text relevante
- Resultado: Página servicio hereda autoridad, sube de posición #18 a #6 en 2 meses
El artículo actúa como «activo de enlazado» que impulsa páginas comerciales.
Conceptos relacionados: Domain Authority, Backlinks, Enlaces internos, Link juice, SEO On-Page
Relevancia
Definición: La relevancia mide qué tan bien el contenido de una página responde a la intención de búsqueda específica del usuario. Google evalúa relevancia mediante: análisis semántico de keywords (principales y relacionadas), estructura del contenido, profundidad de cobertura del tema, contexto de enlaces internos/externos, comportamiento de usuario (CTR, tiempo en página, pogo-sticking). Relevancia perfecta = respuesta completa a la query.
Por qué importa: Autoridad sin relevancia no rankea: un dominio DA 90 no rankeará para «reparación iPhone Madrid» si habla de nutrición. Google prioriza páginas que mejor satisfacen intención de búsqueda. La relevancia determina si apareces en la conversación. Post-BERT (2019), Google entiende lenguaje natural: no necesitas repetir keyword exacta 20 veces, necesitas cubrir el tema comprehensivamente usando vocabulario natural y sinónimos.
Ejemplo práctico – Relevancia vs keyword stuffing: Query: «cómo plantar tomates en huerto urbano»
Página A (relevancia alta):
- Cubre: preparación tierra, cuándo plantar, riego, luz necesaria, plagas comunes, cosecha
- Usa sinónimos naturales: cultivar, sembrar, huerto en casa, balcón, terraza
- Profundidad: 2,000 palabras, imágenes paso a paso, FAQ
- Resultado: Google identifica alta relevancia → Posición #2
Página B (keyword stuffing, baja relevancia):
- Repite «plantar tomates huerto urbano» 30 veces
- Contenido superficial: 400 palabras genéricas
- No cubre proceso completo, sin información útil
- Resultado: Penalización por sobre-optimización → Posición #45
Relevancia genuina (responder completamente la query) supera tácticas manipulativas.
Conceptos relacionados: Intención de búsqueda, LSI keywords, Semántica, Contenido de calidad, BERT
Core Web Vitals
Definición: Los Core Web Vitals son tres métricas de experiencia de usuario que Google usa como factores de ranking desde 2021: LCP (Largest Contentful Paint) mide velocidad de carga del contenido principal (ideal <2.5s), FID (First Input Delay) mide interactividad/respuesta a primera interacción (ideal <100ms), CLS (Cumulative Layout Shift) mide estabilidad visual/saltos de layout inesperados (ideal <0.1).
Por qué importa: Los Core Web Vitals cuantifican si tu web es frustrante o placentera de usar. Webs lentas (LCP >4s), que no responden a clics (FID >300ms) o donde el contenido salta mientras cargas (CLS >0.25) generan abandonos masivos y Google las penaliza. Mejorar Core Web Vitals puede ser la diferencia entre posición #8 y #3 en keywords competitivas. Son especialmente críticas en mobile (donde conexiones son más lentas).
Ejemplo práctico – Impacto de optimizar Core Web Vitals: Antes (web ecommerce):
- LCP: 4.2s (lento, imagen hero sin optimizar)
- FID: 250ms (JavaScript bloqueante)
- CLS: 0.35 (anuncios sin espacio reservado, causan saltos)
- Bounce rate: 68%
- Posición promedio keywords: #9
Optimizaciones:
- LCP: Lazy load imágenes, CDN, formato WebP, compresión
- FID: Diferir JavaScript no crítico, code splitting
- CLS: Reservar espacio para ads, dimensiones explícitas en imágenes
Después:
- LCP: 2.1s, FID: 80ms, CLS: 0.08 (todos en verde)
- Bounce rate: 52% (-16pp)
- Posición promedio: #5 (+4 posiciones)
- Conversión: +22% (usuarios no abandonan por frustración)
Core Web Vitals impactaron ranking Y conversión. Doble beneficio.
Conceptos relacionados: Page Speed, UX, Mobile-first indexing, Velocidad de carga, Page Experience
EEAT (Experience, Expertise, Authoritativeness, Trustworthiness)
Definición: EEAT (anteriormente EAT, añadieron «Experience» en 2022) son los criterios que Google usa para evaluar calidad de contenido, especialmente en temas YMYL (Your Money Your Life): salud, finanzas, legal. Experience = autor tiene experiencia práctica real, Expertise = conocimiento profundo demostrable, Authoritativeness = reconocimiento como autoridad por pares/industria, Trustworthiness = información precisa, transparente, segura.
Por qué importa: EEAT es el antídoto de Google contra desinformación y contenido superficial generado masivamente. En nichos YMYL, Google prioriza radicalmente contenido creado por profesionales verificables (médicos para salud, CPA para impuestos). Post-Helpful Content Update, EEAT se expandió a casi todos los nichos: Google quiere humanos con experiencia real, no granjas de contenido SEO sin valor. Demostrar EEAT requiere: biografías de autores, credenciales visibles, menciones externas, reputación online.
Ejemplo práctico – EEAT en contenido médico: Query: «síntomas diabetes tipo 2»
Resultado #1 (EEAT alto):
- Autor: Dra. María García, endocrinóloga colegiada 15+ años
- Biografía completa: formación, publicaciones, afiliaciones hospitalarias
- Contenido: profundo, referencias a estudios, lenguaje preciso
- Dominio: Clínica reconocida, DA 65, backlinks de instituciones médicas
Resultado #25 (EEAT bajo):
- Autor: «Equipo editorial» (anónimo, sin credenciales)
- Contenido: genérico, reformulado de otras fuentes
- Dominio: Blog salud genérico, DA 30, sin autoridad médica real
Google prioriza masivamente el primero: YMYL exige EEAT verificable. Contenido sin autor identificable o expertise demostrable no rankea en salud/finanzas.
Conceptos relacionados: Calidad de contenido, YMYL, Authorship, Reputación, Helpful Content Update
Posicionamiento orgánico
Definición: El posicionamiento orgánico es la ubicación que ocupa una página web en los resultados naturales (no pagados) de los motores de búsqueda para una keyword determinada. Se mide en posiciones absolutas (posición #1, #5, #23) o por páginas (primera página = posiciones 1-10, segunda página = 11-20). El posicionamiento orgánico resulta exclusivamente de la evaluación algorítmica de Google sobre relevancia, autoridad y experiencia de usuario, sin intervención de pago directo.
Por qué importa: El posicionamiento orgánico determina la visibilidad y tráfico que recibes de Google sin coste por clic. La distribución de clics es exponencial: posición #1 captura ~28% de clics, #2 captura ~15%, #3 captura ~11%, mientras posición #11 (segunda página) recibe <1%. Pasar de posición #6 a #3 puede triplicar tu tráfico orgánico. A diferencia de anuncios pagados (desaparecen al detener presupuesto), el posicionamiento orgánico construye activos duraderos: una vez alcanzada posición top 3, se mantiene con esfuerzo moderado durante meses/años.
Conceptos relacionados: SEO, SERP, Ranking, CTR orgánico, Tráfico orgánico, Google Ads
Tráfico orgánico
Definición: El tráfico orgánico es el conjunto de visitantes que llegan a un sitio web desde resultados no pagados de motores de búsqueda (Google, Bing, etc.). Se origina cuando usuarios realizan búsquedas, encuentran tu sitio en posiciones orgánicas y hacen clic. A diferencia del tráfico de pago (Google Ads, display, social ads), el tráfico directo (URL directa) o el referral (enlaces desde otros sitios), el tráfico orgánico resulta exclusivamente del posicionamiento SEO.
Por qué importa: El tráfico orgánico es la fuente más valiosa y sostenible de visitantes para la mayoría de negocios online. Representa el 53% del tráfico web total globalmente (BrightEdge, 2024) y tiene características únicas: alta intención (usuarios buscan activamente solución), coste marginal cero (no pagas por clic), escalabilidad (una página bien posicionada genera tráfico perpetuamente), credibilidad (usuarios confían más en resultados orgánicos vs anuncios). Empresas que dominan tráfico orgánico reducen dependencia de publicidad pagada, mejoran márgenes y construyen activos digitales valiosos.
Por qué importa (análisis económico): El tráfico orgánico es el único canal de marketing con coste marginal decreciente: inviertes upfront en SEO (contenido, optimización, link building), pero cada visitante adicional cuesta €0. Esto contrasta radicalmente con canales pagados donde coste aumenta linealmente con volumen:
Conceptos relacionados: SEO, Posicionamiento orgánico, SERP, Google Analytics, Canales de adquisición, Tráfico de pago
SEO On-Page
SEO On-Page
Definición: El SEO On-Page es el conjunto de optimizaciones aplicadas directamente dentro de tu sitio web para mejorar posicionamiento: contenido de calidad, keywords estratégicas, title tags optimizados, meta descriptions persuasivas, estructura de encabezados (H1-H6), URLs amigables, enlaces internos, imágenes con alt text, schema markup, velocidad de carga y experiencia de usuario. Todo lo que controlas dentro de tu dominio.
Por qué importa: El On-Page es la base del SEO: sin optimización interna, ni los mejores backlinks te salvarán. Google necesita entender de qué trata tu página (keywords, semántica, estructura) y los usuarios necesitan experiencia satisfactoria (contenido útil, navegación clara, carga rápida). El On-Page es donde tienes control total: puedes optimizar hoy y ver mejoras en semanas. Es prerequisito para link building efectivo (nadie enlaza a contenido pobre).
Ejemplo práctico – Transformación On-Page: Antes (página de servicio):
- Title: «Inicio – Reformas García»
- H1: «Bienvenido»
- Contenido: 150 palabras genéricas
- URL: reformasgarcia.com/page1.php?id=234
- Sin enlaces internos, sin imágenes alt text
Después de optimización On-Page:
- Title: «Reformas Integrales en Sevilla | Presupuesto Gratis 24h – García»
- H1: «Reformas integrales en Sevilla con garantía y experiencia»
- Contenido: 1,500 palabras (tipos reforma, proceso, casos éxito, FAQ)
- URL: reformasgarcia.com/reformas-integrales-sevilla
- 8 enlaces internos a servicios específicos, 12 imágenes con alt text descriptivo
- Schema LocalBusiness implementado
Resultado: Posición para «reformas Sevilla» sube de #34 a #8 en 6 semanas. CTR orgánico +180%. Sin link building nuevo, solo optimización interna.
Conceptos relacionados: Keywords, Title tag, Meta description, H1-H6, Enlaces internos, Contenido de calidad
Palabra clave (Keyword)
Definición: Una palabra clave (keyword) es el término o frase que los usuarios escriben en motores de búsqueda para encontrar información. Las keywords se clasifican por: longitud (short tail: 1-2 palabras vs long tail: 3+ palabras), intención (informacional, navegacional, transaccional, comercial), volumen de búsqueda (alto: >10K búsquedas/mes vs bajo: <100) y dificultad (competitividad para rankear).
Por qué importa: Las keywords son el puente entre lo que tu audiencia busca y el contenido que creas. Elegir keywords correctas determina si captas tráfico cualificado o desperdicias esfuerzo en términos irrelevantes. El error común: perseguir keywords de volumen masivo (alta competencia, imposibles de rankear) ignorando long tails de bajo volumen pero alta conversión. La estrategia ganadora: mapear keywords a intención de búsqueda y etapa del funnel.
Ejemplo práctico – Estrategia de keywords por funnel: TOFU (Awareness – keywords informacionales):
- «qué es un CRM» (30K búsquedas/mes, dificultad baja)
- «cómo mejorar gestión clientes» (5K búsquedas/mes)
MOFU (Consideración – keywords comerciales):
- «mejor CRM para pymes» (8K búsquedas/mes, dificultad media)
- «CRM vs Excel ventajas» (1.2K búsquedas/mes)
BOFU (Decisión – keywords transaccionales):
- «precio HubSpot CRM» (6K búsquedas/mes, dificultad alta)
- «demo gratuita CRM» (2K búsquedas/mes)
Contenido para TOFU educa y atrae volumen. Contenido para BOFU convierte (menor volumen pero intención de compra alta). Necesitas cobertura completa del funnel.
Conceptos relacionados: Long tail, Keyword research, Intención de búsqueda, Volumen de búsqueda, Dificultad de keyword
Palabra clave (Keyword)
Definición: Una palabra clave (keyword) es el término o frase que los usuarios escriben en motores de búsqueda para encontrar información. Las keywords se clasifican por: longitud (short tail: 1-2 palabras vs long tail: 3+ palabras), intención (informacional, navegacional, transaccional, comercial), volumen de búsqueda (alto: >10K búsquedas/mes vs bajo: <100) y dificultad (competitividad para rankear).
Por qué importa: Las keywords son el puente entre lo que tu audiencia busca y el contenido que creas. Elegir keywords correctas determina si captas tráfico cualificado o desperdicias esfuerzo en términos irrelevantes. El error común: perseguir keywords de volumen masivo (alta competencia, imposibles de rankear) ignorando long tails de bajo volumen pero alta conversión. La estrategia ganadora: mapear keywords a intención de búsqueda y etapa del funnel.
Ejemplo práctico – Estrategia de keywords por funnel: TOFU (Awareness – keywords informacionales):
- «qué es un CRM» (30K búsquedas/mes, dificultad baja)
- «cómo mejorar gestión clientes» (5K búsquedas/mes)
MOFU (Consideración – keywords comerciales):
- «mejor CRM para pymes» (8K búsquedas/mes, dificultad media)
- «CRM vs Excel ventajas» (1.2K búsquedas/mes)
BOFU (Decisión – keywords transaccionales):
- «precio HubSpot CRM» (6K búsquedas/mes, dificultad alta)
- «demo gratuita CRM» (2K búsquedas/mes)
Contenido para TOFU educa y atrae volumen. Contenido para BOFU convierte (menor volumen pero intención de compra alta). Necesitas cobertura completa del funnel.
Conceptos relacionados: Long tail, Keyword research, Intención de búsqueda, Volumen de búsqueda, Dificultad de keyword
Long tail keyword
Definición: Las long tail keywords (keywords de cola larga) son frases de búsqueda específicas de 3+ palabras con volumen de búsqueda bajo-medio pero alta intención y baja competencia. Ejemplos: «zapatillas running pronador mujer Asics» vs keyword genérica «zapatillas running» (short tail). Las long tails representan ~70% de todas las búsquedas en Google.
Por qué importa: Las long tails son oro para SEO: tienen menos competencia (más fácil rankear), atraen tráfico ultra-cualificado (intención específica = mayor conversión) y suman volumen (100 long tails de 50 búsquedas/mes = 5,000 búsquedas totales). Mientras todos compiten por «seguro coche» (imposible rankear), tú dominas «seguro coche clásico Sevilla menores 30 años» (zero competencia, conversión 10x superior).
Ejemplo práctico – ROI de long tail vs short tail: Short tail: «abogado»
- Volumen: 50K búsquedas/mes
- Dificultad: 95/100 (imposible rankear sin DA 80+)
- Intención: Vaga (abogado para qué?)
- Conversión estimada: 0.5% (tráfico frío)
Long tail: «abogado despido improcedente Málaga urgente»
- Volumen: 120 búsquedas/mes
- Dificultad: 20/100 (rankeable con contenido específico)
- Intención: Claríssima (necesidad inmediata, ubicación, tipo caso)
- Conversión estimada: 8% (tráfico caliente, listo para contratar)
Con 50 long tails similares (120 búsquedas/mes cada una), capturas 6,000 búsquedas mensuales cualificadas vs 0 de «abogado» (nunca rankearás). Conversión total muy superior.
Conceptos relacionados: Keyword, Intención de búsqueda, SEO nicho, Conversión, Keyword research
Keyword research
Definición: El keyword research (investigación de palabras clave) es el proceso sistemático de descubrir, analizar y seleccionar las keywords más valiosas para tu estrategia SEO. Involucra: identificar términos relevantes a tu negocio, analizar volumen de búsqueda, evaluar dificultad competitiva, entender intención de usuario, mapear keywords a contenido específico. Herramientas: Ahrefs, SEMrush, Google Keyword Planner, Ubersuggest.
Por qué importa: El keyword research precede a toda creación de contenido SEO: sin investigación previa, creas contenido que nadie busca o persigues keywords imposibles de rankear. El research revela oportunidades no obvias (gaps de competencia, long tails infraexplotadas) y previene desperdicios (keywords con volumen pero cero conversión). 1 hora de research ahorra 20 horas de contenido inútil.
Ejemplo práctico – Proceso de keyword research para blog inmobiliario: Paso 1: Seed keywords (ideas iniciales)
- «comprar piso Sevilla», «vender casa», «hipoteca»
Paso 2: Expansión (herramientas)
- Ahrefs Keywords Explorer: 1,200 keywords relacionadas
- Filtros: volumen >100/mes, dificultad <40
Paso 3: Análisis intención
- Informacional: «documentos necesarios vender piso» (400 búsquedas/mes)
- Comercial: «mejor zona comprar Sevilla» (650 búsquedas/mes)
- Transaccional: «tasación piso online gratis» (1.2K búsquedas/mes)
Paso 4: Análisis SERP
- Revisar qué tipo contenido rankea (guías, listados, videos)
- Identificar gaps: nadie cubre «vender piso heredado trámites Andalucía» (220 búsquedas, dificultad 18)
Paso 5: Priorización
- Seleccionar 20 keywords balanceando: volumen, dificultad, relevancia negocio, intención
- Mapear a calendario editorial
Resultado: Plan de contenido data-driven, no intuición. Cada artículo tiene keyword target clara con demanda validada.
Conceptos relacionados: Keyword, Long tail, Intención de búsqueda, Volumen de búsqueda, Competencia SEO
Intención de búsqueda
Definición: La intención de búsqueda (search intent) es el objetivo subyacente del usuario al realizar una query en Google. Se clasifica en cuatro tipos: Informacional (busca aprender: «qué es SEO»), Navegacional (busca sitio específico: «YouTube»), Comercial/Investigación (compara antes de comprar: «mejor portátil 2024»), Transaccional (listo para comprar/actuar: «comprar iPhone 15 Pro»).
Por qué importa: Google prioriza contenido que satisface la intención, no solo que contenga keywords. Si buscas «Apple» queriendo la empresa tech, Google muestra apple.com, no recetas de tarta de manzana (aunque «apple» significa manzana). Entender intención determina qué tipo de contenido crear: query informacional requiere guía educativa, transaccional requiere página de producto. Desalinear intención con contenido = no rankear aunque tengas la keyword.
Ejemplo práctico – Análisis de intención para crear contenido: Keyword: «CRM»
Análisis de SERP (qué rankea actualmente):
- Posiciones 1-3: Definiciones y guías «qué es un CRM» → Intención: Informacional
- Posiciones 4-6: «Mejores CRM 2024», comparativas → Intención: Comercial
- Anuncios Google: Páginas de registro/demo software CRM → Intención: Transaccional (pero en ads, no orgánico)
Decisión estratégica:
- Para rankear orgánico: Crear contenido informacional profundo «Guía completa CRM: qué es, cómo funciona, beneficios» (2,500+ palabras, ejemplos, FAQ)
- Para conversión directa: Crear landing page «Solicita demo nuestro CRM» y pagar Google Ads (intención transaccional no rankea orgánico)
Crear página de venta para keyword informacional = fracaso. Crear guía educativa = éxito SEO.
Conceptos relacionados: Keyword, SERP, Tipos de contenido, Funnel de marketing, User behavior
Intención de búsqueda
Definición: La intención de búsqueda (search intent) es el objetivo subyacente del usuario al realizar una query en Google. Se clasifica en cuatro tipos: Informacional (busca aprender: «qué es SEO»), Navegacional (busca sitio específico: «YouTube»), Comercial/Investigación (compara antes de comprar: «mejor portátil 2024»), Transaccional (listo para comprar/actuar: «comprar iPhone 15 Pro»).
Por qué importa: Google prioriza contenido que satisface la intención, no solo que contenga keywords. Si buscas «Apple» queriendo la empresa tech, Google muestra apple.com, no recetas de tarta de manzana (aunque «apple» significa manzana). Entender intención determina qué tipo de contenido crear: query informacional requiere guía educativa, transaccional requiere página de producto. Desalinear intención con contenido = no rankear aunque tengas la keyword.
Ejemplo práctico – Análisis de intención para crear contenido: Keyword: «CRM»
Análisis de SERP (qué rankea actualmente):
- Posiciones 1-3: Definiciones y guías «qué es un CRM» → Intención: Informacional
- Posiciones 4-6: «Mejores CRM 2024», comparativas → Intención: Comercial
- Anuncios Google: Páginas de registro/demo software CRM → Intención: Transaccional (pero en ads, no orgánico)
Decisión estratégica:
- Para rankear orgánico: Crear contenido informacional profundo «Guía completa CRM: qué es, cómo funciona, beneficios» (2,500+ palabras, ejemplos, FAQ)
- Para conversión directa: Crear landing page «Solicita demo nuestro CRM» y pagar Google Ads (intención transaccional no rankea orgánico)
Crear página de venta para keyword informacional = fracaso. Crear guía educativa = éxito SEO.
Conceptos relacionados: Keyword, SERP, Tipos de contenido, Funnel de marketing, User behavior
Densidad de palabras clave
Definición: La densidad de palabras clave (keyword density) es el porcentaje de veces que una keyword aparece en un texto en relación al total de palabras. Fórmula: (Repeticiones de keyword / Total palabras) × 100. Ejemplo: keyword aparece 10 veces en texto de 1,000 palabras = 1% densidad. Históricamente, SEOs perseguían densidades «óptimas» (2-3%), práctica obsoleta hoy.
Por qué importa: La densidad de keywords es métrica legacy casi irrelevante en SEO moderno. Google (post-BERT/RankBrain) entiende contexto semántico: no necesita ver «abogado Madrid» 20 veces para entender el tema. De hecho, sobre-optimizar (keyword stuffing: densidad >5%) activa penalizaciones. El enfoque actual: mencionar keyword naturalmente en lugares estratégicos (title, H1, primeros 100 palabras) y usar sinónimos/variaciones (LSI keywords) para cubrir el tema comprehensivamente.
Ejemplo práctico – Keyword stuffing vs escritura natural: Texto sobre-optimizado (densidad 8%, penalizado): «Nuestro servicio de fontanero Madrid ofrece fontanero Madrid 24 horas. Si necesitas fontanero Madrid urgente, nuestro fontanero Madrid profesional está disponible. Fontanero Madrid económico y rápido…»
Resultado: Lectura horrible, penalización por spam, usuarios abandonan.
Texto natural optimizado (densidad 1.5%, rankea): «Como fontaneros profesionales en Madrid, ofrecemos servicio de urgencia 24/7. Tanto si necesitas reparación de fugas, desatascos o instalación de calderas, nuestro equipo responde en menos de 60 minutos. Zona de cobertura: centro, norte y sur de la capital.»
Resultado: Menciona keyword 2 veces naturalmente (title + primer párrafo), usa sinónimos (profesionales, servicio, equipo, capital), cubre tema completamente. Rankea mejor Y convierte.
Conceptos relacionados: Keyword stuffing, LSI keywords, Semántica, Contenido natural, Penalizaciones Google
Title tag (Etiqueta de título)
Definición: El title tag es el elemento HTML (<title>) que define el título de una página web, visible en la pestaña del navegador y como headline clicable en los resultados de búsqueda (SERP). Es uno de los factores on-page más importantes: Google lo usa para entender el tema de la página y los usuarios lo leen para decidir si hacer clic. Límite óptimo: 50-60 caracteres (más largo se trunca en SERPs).
Por qué importa: El title tag influye en dos métricas críticas: ranking (señal fuerte de relevancia para Google) y CTR (título persuasivo multiplica clics desde SERP). Un title mal optimizado (genérico: «Inicio», o sobre-optimizado: «Abogados Madrid | Abogado Madrid | Abogados en Madrid Baratos») desperdicia oportunidad. El title ideal: keyword principal al inicio, beneficio/diferenciador, brand al final, bajo 60 caracteres.
Ejemplo práctico – Optimización de title tag: Antes (malo):
<title>Bienvenido a Nuestra Web</title>
Problemas: No incluye keyword, no indica qué hace la empresa, no persuade
Después (optimizado):
<title>Abogados Laboralistas Madrid | Consulta Gratis 24h – Bufete López</title>
Mejoras:
- Keyword principal inicio: «Abogados Laboralistas Madrid»
- Diferenciador: «Consulta Gratis 24h» (incentivo de clic)
- Brand final: «Bufete López»
- 58 caracteres (visible completo en SERP)
Resultado: CTR orgánico sube de 1.8% a 4.2% (+133%) en posición promedio #6. Más clics = mejor ranking (Google interpreta CTR alto como señal de relevancia).
Conceptos relacionados: Meta description, H1, CTR orgánico, SEO On-Page, SERP
Meta description
Definición: La meta description es el elemento HTML (<meta name=»description»>) que proporciona un resumen breve (150-160 caracteres) del contenido de la página. Aunque Google no la usa directamente para ranking, aparece frecuentemente como snippet descriptivo bajo el title en SERPs, influyendo en CTR. Google puede reescribir la meta description si considera que no responde bien a la query específica.
Por qué importa: La meta description es tu «copy publicitario» en búsqueda orgánica: no pagas por el clic, pero necesitas persuadir para ganarlo. Una meta description mediocre («En esta página encontrarás información sobre…») pierde contra competidores que incluyen beneficios claros, llamadas a acción y USP. Aunque no impacta ranking directamente, CTR alto sí mejora posiciones (Google premia contenido que los usuarios eligen).
Ejemplo práctico – Meta descriptions que convierten: Malo (genérico, sin gancho):
<meta name=»description» content=»Información sobre servicios de diseño web. Ofrecemos varios paquetes para empresas.»>
CTR estimado desde posición #4: 3%
Bueno (específico, beneficios, CTA):
<meta name=»description» content=»Diseño web profesional desde €1,200. Responsive, SEO optimizado, entrega en 15 días. Portfolio de 50+ clientes. Presupuesto gratis en 24h ⚡»>
Mejoras:
- Precio específico (reduce fricción)
- Beneficios tangibles (responsive, SEO, plazo)
- Prueba social (50+ clientes)
- CTA clara (presupuesto gratis)
- Emoji (destaca visualmente en SERP)
CTR estimado desde posición #4: 6.5% (+116%). Más clics sin cambiar posición = más tráfico.
Conceptos relacionados: Title tag, CTR orgánico, SERP, Snippet, Copywriting
Encabezados (H1, H2, H3...)
Definición: Los encabezados (heading tags H1-H6) son etiquetas HTML que estructuran jerárquicamente el contenido de una página. H1 es el título principal (debe haber solo uno), H2 son secciones principales, H3 subsecciones dentro de H2, y así sucesivamente. Los encabezados ayudan a Google entender la estructura temática y a usuarios escanear contenido rápidamente.
Por qué importa: Los encabezados funcionan como mapa de contenido: señalan a Google y usuarios qué temas cubre la página y su importancia relativa. H1 debe contener keyword principal, H2 pueden incluir variaciones y subtemas relacionados. Páginas sin estructura de encabezados (bloques de texto sin jerarquía) confunden a Google y generan bounce alto (usuarios no encuentran información). Los encabezados también son candidatos frecuentes para featured snippets.
Ejemplo práctico – Estructura de encabezados optimizada: Artículo: «Cómo crear un blog en WordPress»
<h1>Cómo Crear un Blog en WordPress en 2024: Guía Paso a Paso</h1>
<h2>1. Elegir Hosting y Dominio para WordPress</h2>
<h3>Mejores proveedores de hosting WordPress</h3>
<h3>Cómo registrar un dominio efectivo</h3>
<h2>2. Instalar WordPress en tu Hosting</h2>
<h3>Instalación con un clic vs instalación manual</h3>
<h3>Configuración inicial post-instalación</h3>
<h2>3. Elegir y Personalizar Tema WordPress</h2>
<h3>Temas gratuitos vs premium: pros y contras</h3>
<h3>Customización de tema sin código</h3>
<h2>4. Plugins Esenciales para tu Blog</h2>
<h3>Yoast SEO: Optimiza para buscadores</h3>
<h3>Akismet: Protección contra spam</h3>
<h2>5. Escribir y Publicar tu Primer Post</h2>
Beneficios:
- SEO: H2 cubren subtemas relacionados (hosting, instalación, temas, plugins)
- UX: Usuarios escanean estructura, saltan a sección relevante
- Featured snippet: Estructura clara es candidata a «cómo crear blog wordpress» (snippet tipo lista)
Conceptos relacionados: H1, Estructura de contenido, SEO On-Page, Featured snippet, User experience
Encabezados (H1, H2, H3...)
Definición: Los encabezados (heading tags H1-H6) son etiquetas HTML que estructuran jerárquicamente el contenido de una página. H1 es el título principal (debe haber solo uno), H2 son secciones principales, H3 subsecciones dentro de H2, y así sucesivamente. Los encabezados ayudan a Google entender la estructura temática y a usuarios escanear contenido rápidamente.
Por qué importa: Los encabezados funcionan como mapa de contenido: señalan a Google y usuarios qué temas cubre la página y su importancia relativa. H1 debe contener keyword principal, H2 pueden incluir variaciones y subtemas relacionados. Páginas sin estructura de encabezados (bloques de texto sin jerarquía) confunden a Google y generan bounce alto (usuarios no encuentran información). Los encabezados también son candidatos frecuentes para featured snippets.
Ejemplo práctico – Estructura de encabezados optimizada: Artículo: «Cómo crear un blog en WordPress»
<h1>Cómo Crear un Blog en WordPress en 2024: Guía Paso a Paso</h1>
<h2>1. Elegir Hosting y Dominio para WordPress</h2>
<h3>Mejores proveedores de hosting WordPress</h3>
<h3>Cómo registrar un dominio efectivo</h3>
<h2>2. Instalar WordPress en tu Hosting</h2>
<h3>Instalación con un clic vs instalación manual</h3>
<h3>Configuración inicial post-instalación</h3>
<h2>3. Elegir y Personalizar Tema WordPress</h2>
<h3>Temas gratuitos vs premium: pros y contras</h3>
<h3>Customización de tema sin código</h3>
<h2>4. Plugins Esenciales para tu Blog</h2>
<h3>Yoast SEO: Optimiza para buscadores</h3>
<h3>Akismet: Protección contra spam</h3>
<h2>5. Escribir y Publicar tu Primer Post</h2>
Beneficios:
- SEO: H2 cubren subtemas relacionados (hosting, instalación, temas, plugins)
- UX: Usuarios escanean estructura, saltan a sección relevante
- Featured snippet: Estructura clara es candidata a «cómo crear blog wordpress» (snippet tipo lista)
Conceptos relacionados: H1, Estructura de contenido, SEO On-Page, Featured snippet, User experience
URL amigable
Definición: Una URL amigable (SEO-friendly URL) es una dirección web corta, descriptiva, legible por humanos y que incluye keywords relevantes separadas por guiones. Ejemplo amigable: leovel.com/seo-local-sevilla vs URL no amigable: leovel.com/index.php?page=servicios&id=234&cat=seo. Las URLs amigables eliminan parámetros dinámicos, números sin sentido y caracteres especiales.
Por qué importa: Las URLs son factor menor de ranking pero impactan significativamente CTR y UX. Los usuarios confían más en URLs descriptivas que revelan el contenido (/guia-completa-seo) vs URLs crípticas (/p?=9847xkj). Google usa la URL como señal de relevancia: keyword en URL refuerza el tema. URLs limpias también facilitan enlazado (anchor text natural) y son más compartibles en redes sociales.
Ejemplo práctico – Transformación de URLs: Antes (URLs dinámicas generadas automáticamente):
- tienda.com/producto.php?categoria=14&subcategoria=89&item=3421
- blog.com/post.asp?year=2024&month=03&id=98745
Problemas:
- Incomprensibles para humanos
- No incluyen keywords
- Parámetros duplican contenido (mismo producto accesible desde múltiples URLs)
- Baja confianza (parecen spam o temporales)
Después (URLs amigables):
- tienda.com/zapatillas-running-asics-gel-nimbus-25
- blog.com/guia-marketing-contenidos-2024
Mejoras:
- Descriptivas (usuario sabe qué encontrará)
- Keywords integradas naturalmente
- Estructura jerárquica clara
- Confianza (parecen contenido permanente de calidad)
Resultado: CTR desde SERP +15%, reducción de bounce (usuarios llegan a contenido esperado), mejor indexación (Google entiende tema sin abrir página).
Conceptos relacionados: Estructura de URL, Slug, Permalink, SEO técnico, UX
Estructura de URL
Definición: La estructura de URL es la arquitectura jerárquica que organiza las direcciones de tu sitio web, reflejando la organización de contenido mediante carpetas lógicas. Estructura semántica: dominio.com/categoria/subcategoria/pagina facilita navegación, distribución de link juice y comprensión de jerarquía tanto para usuarios como para Googlebot.
Por qué importa: Una estructura de URL coherente mejora rastreabilidad (Googlebot entiende relaciones entre páginas), facilita arquitectura de información (usuarios navegan intuitivamente) y distribuye autoridad eficientemente (páginas importantes en niveles altos reciben más link juice). Estructura caótica (todos los posts en raíz, sin categorización) dificulta escalar el SEO y genera problemas de canibalización.
Ejemplo práctico – Estructuras comparadas: Estructura plana (mala para sitios grandes):
leovel.com/seo-local
leovel.com/seo-tecnico
leovel.com/link-building
leovel.com/auditoria-seo
leovel.com/que-es-seo
leovel.com/marketing-digital
leovel.com/sem-google-ads
Problema: Todo en mismo nivel, sin jerarquía. Imposible distinguir servicio de artículo blog, categoría principal de subcategoría.
Estructura jerárquica (óptima):
leovel.com/servicios/seo-local-sevilla
leovel.com/servicios/auditoria-seo
leovel.com/blog/que-es-seo-guia-completa
leovel.com/blog/link-building-estrategias
leovel.com/recursos/herramientas-seo
Beneficios:
- Jerarquía clara: /servicios (comercial) vs /blog (educativo)
- Escalabilidad: añadir contenido sin caos
- Breadcrumbs naturales: Inicio > Blog > Link building
- Link juice fluye lógicamente: homepage → categorías → páginas individuales
Conceptos relacionados: URL amigable, Arquitectura web, Breadcrumbs, Silos de contenido, Navegación
Enlace interno (Internal link)
Definición: Un enlace interno es un hipervínculo que apunta de una página a otra dentro del mismo dominio. Los enlaces internos sirven tres propósitos: navegación (usuarios descubren contenido relacionado), jerarquía (distribuyen autoridad/link juice entre páginas) y rastreabilidad (Googlebot descubre páginas nuevas siguiendo enlaces).
Por qué importa: Los enlaces internos son la herramienta más infrautilizada del SEO: controlas completamente cuántos enlaces recibe cada página, qué anchor text usas y cómo distribuyes autoridad. Páginas huérfanas (sin enlaces internos) pueden no indexarse nunca. Páginas importantes (servicios, money pages) deben recibir enlaces desde múltiples páginas de alta autoridad. Una estrategia de enlazado interno sólida puede mejorar ranking sin conseguir un solo backlink nuevo.
Ejemplo práctico – Estrategia de enlazado interno piramidal: Objetivo: Posicionar página de servicio «SEO Local Sevilla»
Estructura:
- Homepage (PA 55, mayor autoridad del sitio) → enlaza a página servicio con anchor «SEO local Sevilla»
- 10 artículos blog relacionados (PA 25-35) sobre SEO local, Google My Business, reseñas, citas locales → cada uno enlaza a página servicio con variaciones de anchor text
- Página servicio recibe 11 enlaces internos de calidad (1 homepage + 10 blog)
- Resultado: Autoridad de página servicio aumenta, posición para «SEO local Sevilla» sube de #14 a #6 en 8 semanas
Clave: Los artículos blog posicionan para long tails relacionadas («cómo optimizar Google My Business») y transfieren autoridad vía enlace interno a la página comercial objetivo.
Conceptos relacionados: Anchor text, Link juice, Arquitectura web, PageRank interno, SEO On-Page
Anchor text (Texto ancla)
Definición: El anchor text (texto ancla) es el texto visible y clicable de un hipervínculo. Ejemplo: en <a href=»leovel.com/seo»>posicionamiento web</a>, «posicionamiento web» es el anchor text. Google usa el anchor text como señal de relevancia: si 100 webs enlazan a tu página con anchor «diseño web Sevilla», Google entiende que tu página trata sobre ese tema.
Por qué importa: El anchor text es factor de ranking potente pero riesgoso. Sobre-optimización (100% de backlinks con anchor exacto «préstamos rápidos») puede activar penalizaciones por manipulación (Penguin update). La distribución ideal de anchor text combina: exact match (15-20%: keyword exacta), partial match (30-40%: keyword + modificadores), branded (20-30%: nombre marca), genéricos (10-15%: «clic aquí», «leer más»), URL desnuda (5-10%: leovel.com).
Ejemplo práctico – Distribución de anchor text natural: Página objetivo: Rankear para «abogado laboral Madrid»
Perfil de anchor text natural (100 backlinks):
- 18 × «abogado laboral Madrid» (exact match: 18%)
- 25 × «despacho abogados laborales en Madrid», «abogados especialistas derecho laboral Madrid» (partial: 25%)
- 30 × «Bufete García», «García Abogados» (branded: 30%)
- 12 × «aquí», «más información», «visitar web» (genéricos: 12%)
- 8 × «bufetegarcia.com», «www.bufetegarcia.com» (URL: 8%)
- 7 × «este artículo», «fuente», «según expertos» (misc: 7%)
Resultado: Perfil diverso y natural. Google no detecta manipulación. Ranking sube sin penalizaciones.
Perfil sobre-optimizado (penalizable):
- 95 × «abogado laboral Madrid» (exact match: 95%)
- 5 × variaciones
Red flag masiva. Penguin penalty inevitable.
Conceptos relacionados: Backlinks, Link building, Penguin update, SEO Off-Page, Perfil de enlaces
Alt text (Texto alternativo)
Definición: El alt text (texto alternativo) es el atributo HTML que describe el contenido de una imagen (<img src=»foto.jpg» alt=»descripción de la imagen»>). Tiene dos funciones: accesibilidad (lectores de pantalla leen el alt text a usuarios con discapacidad visual) y SEO (Google no «ve» imágenes, usa alt text para entender qué muestran).
Por qué importa: El alt text permite que tus imágenes rankeen en Google Images (fuente significativa de tráfico en nichos visuales: recetas, decoración, moda) y refuerza relevancia temática de la página. Además, si la imagen no carga (conexión lenta, error servidor), el alt text se muestra como placeholder. Omitir alt text desperdicia oportunidad SEO y perjudica accesibilidad. Sobre-optimizar (keyword stuffing en alt text) es contraproducente.
Ejemplo práctico – Alt text optimizado vs mal optimizado: Imagen: Foto de cocina moderna con isla central
Mal (keyword stuffing):
<img src=»cocina.jpg» alt=»cocina reformas cocinas Madrid reformar cocina precio cocinas modernas»>
Problema: Spam, no describe la imagen, mala experiencia para usuarios con lectores de pantalla
Bueno (descriptivo + keyword natural):
<img src=»cocina.jpg» alt=»Cocina moderna con isla central y encimera de cuarzo negro»>
Mejoras: Describe realmente la imagen, incluye detalles útiles (isla, cuarzo negro), puede incluir keyword si es natural
Óptimo (contexto + keyword + especificidad):
<img src=»cocina.jpg» alt=»Reforma de cocina integral en Madrid: diseño moderno con isla central de 2 metros»>
Perfecto: Contexto (reforma Madrid), descripción específica, keyword integrada naturalmente, útil para accesibilidad Y SEO
Resultado: Imagen rankea en Google Images para «reformas cocinas Madrid isla central», tráfico adicional +12% desde búsqueda de imágenes.
Conceptos relacionados: SEO On-Page, Accesibilidad web, Google Images, Optimización de imágenes
Schema markup
Definición: Schema markup (también llamado datos estructurados) es código adicional (formato JSON-LD, Microdata o RDFa) que añades al HTML de tu web para ayudar a Google entender mejor el contenido y mostrarlo de forma enriquecida en SERPs. Tipos comunes: LocalBusiness (negocios locales), Product (productos ecommerce), Recipe (recetas), Article (artículos), Event (eventos), FAQ, Review, BreadcrumbList.
Por qué importa: Schema markup no mejora ranking directamente pero multiplica CTR mediante rich snippets (estrellas de valoración, precio de producto, tiempo de cocción, FAQ expandibles en SERP). Estos elementos hacen tu resultado más visible, confiable y clicable vs competidores sin schema. Además, schema es prerequisito para features avanzadas como Google Merchant Center (Shopping), Knowledge Panels y vocal search.
Ejemplo práctico – Impacto de schema en CTR: Sin schema markup: Resultado en SERP muestra solo: title, URL, meta description CTR desde posición #4: 4.5%
Con schema Product + Review:
{
«@context»: «https://schema.org/»,
«@type»: «Product»,
«name»: «Zapatillas Running Asics Gel-Nimbus 25»,
«offers»: {
«@type»: «Offer»,
«price»: «159.99»,
«priceCurrency»: «EUR»
},
«aggregateRating»: {
«@type»: «AggregateRating»,
«ratingValue»: «4.7»,
«reviewCount»: «342»
}
}
Resultado en SERP muestra:
- Title + URL + Meta description
- ⭐⭐⭐⭐⭐ 4.7 estrellas (342 valoraciones)
- €159.99
- Disponibilidad: En stock
CTR desde posición #4: 8.2% (+82% vs sin schema)
El resultado ocupa más espacio visual, transmite confianza (reviews) y muestra precio (reduce fricción). Más clics sin mejorar posición.
Conceptos relacionados: Rich snippets, Datos estructurados, JSON-LD, Featured snippet, SERP features
Datos estructurados
Definición: Los datos estructurados son el término genérico para cualquier formato estandarizado de organizar información que permite a máquinas (como Googlebot) entenderla inequívocamente. Schema markup es la implementación más común de datos estructurados. Mientras HTML es para humanos (título, párrafo, imagen), datos estructurados son para máquinas (este elemento ES un producto, este número ES el precio).
Por qué importa: Los datos estructurados convierten HTML ambiguo en información procesable. Google puede extraer automáticamente: precio de productos, fecha de eventos, ingredientes de recetas, puntuación de reviews, datos de contacto empresas. Esto alimenta Knowledge Graph, rich snippets, Google Shopping, assistant vocal y features SERP. Webs sin datos estructurados quedan excluidas de estas oportunidades de visibilidad.
Ejemplo práctico – Datos estructurados para artículo de blog: HTML estándar (ambiguo para Google):
<h1>Cómo Plantar Tomates en Huerto Urbano</h1>
<p>Por María García – Publicado 15 marzo 2024</p>
<img src=»tomates.jpg»>
Google adivina: probablemente es artículo, probablemente María García es autor, probablemente 15 marzo 2024 es fecha… pero no tiene certeza.
Con datos estructurados Article:
{
«@context»: «https://schema.org»,
«@type»: «Article»,
«headline»: «Cómo Plantar Tomates en Huerto Urbano»,
«author»: {
«@type»: «Person»,
«name»: «María García»
},
«datePublished»: «2024-03-15»,
«image»: «https://ejemplo.com/tomates.jpg»
}
Google sabe con certeza: esto ES un artículo, María García ES el autor, 15-marzo-2024 ES fecha publicación. Resultado: elegible para Google News, autor puede aparecer en Knowledge Panel, fecha correcta en SERP.
Conceptos relacionados: Schema markup, Rich snippets, JSON-LD, Semantic web, Knowledge Graph
Rich Snippets
Definición: Los Rich Snippets (fragmentos enriquecidos) son resultados de búsqueda mejorados visualmente que muestran información adicional más allá del title/description estándar: estrellas de valoración, precios, imágenes, tiempos de cocción, disponibilidad de eventos, FAQ, etc. Se generan cuando Google interpreta correctamente schema markup implementado en la página.
Por qué importa: Los rich snippets aumentan CTR dramáticamente (30-150% según tipo) porque ocupan más espacio visual en SERP, transmiten información útil instantáneamente (precio, rating) y generan confianza mediante señales sociales (valoraciones). Competir por posición #1 vs competidor con rich snippets es como llevar cuchillo a tiroteo: ellos capturan clics aunque estés por encima.
Ejemplo práctico – Tipos de rich snippets y su impacto: 1. Product Rich Snippet (ecommerce):
- Muestra: ⭐ Rating, precio, disponibilidad
- CTR boost: +50-80%
- Conversión: +25% (usuarios ven precio antes de clic, menos bounce)
- Recipe Rich Snippet:
- Muestra: Foto, tiempo preparación, calorías, rating
- CTR boost: +40-60%
- Posición 0 común: Google muestra receta directamente en SERP
- FAQ Rich Snippet:
- Muestra: Preguntas expandibles en SERP
- CTR boost: +30-50%
- Ocupa espacio masivo (puede desplazar competidores below fold)
- Review Rich Snippet (local):
- Muestra: ⭐⭐⭐⭐⭐ 4.8 (234 reseñas)
- CTR boost: +35% para negocios locales
- Crítico para Local Pack
Comparación real: Posición #3 SIN rich snippets: CTR 11% Posición #5 CON rich snippets: CTR 15%
El #5 con rich snippets captura más tráfico que #3 sin ellos.
Conceptos relacionados: Schema markup, SERP features, Featured snippet, Datos estructurados, CTR
Featured Snippet
Definición: El Featured Snippet (fragmento destacado) es la «posición 0» en Google: una caja de respuesta que aparece encima de los resultados orgánicos tradicionales, extrayendo contenido directamente de una página web para responder la query instantáneamente. Formatos: párrafo (definición), lista numerada (pasos), tabla (comparaciones), video. Se activa especialmente en queries de preguntas (qué, cómo, cuándo, por qué, dónde).
Por qué importa: El Featured Snippet captura ~8-10% de todos los clics en búsquedas donde aparece, robando tráfico de la posición #1 tradicional. Además, domina visibilidad en vocal search (Google Assistant lee el featured snippet como respuesta). Rankear en featured snippet genera autoridad percibida (Google te eligió como mejor respuesta) y puede catapultar tráfico. Pero tiene riesgo: respuestas completas en SERP reducen clics (zero-click search).
Ejemplo práctico – Optimización para featured snippet: Query objetivo: «qué es el ROI en marketing»
Análisis de SERP actual: Featured snippet existente muestra: definición párrafo (80 palabras) extraída de MarketingProfs
Estrategia de optimización:
- Formato: Crear definición concisa (40-60 palabras) en primeros 100 palabras del contenido
- Estructura:
<h2>¿Qué es el ROI en Marketing?</h2>
<p>El ROI (Return on Investment) en marketing mide la rentabilidad
de una inversión comparando los ingresos generados con el coste incurrido.
Fórmula: ROI = (Ingresos – Inversión) / Inversión × 100.
Un ROI del 200% significa que por cada euro invertido,
obtuviste 2 euros de beneficio.</p>
- Contenido adicional: Expandir con ejemplos, calculadora, casos prácticos (contenido profundo aumenta probabilidad)
Resultado: Después de 3 semanas, Google reemplaza featured snippet de MarketingProfs con el tuyo. Tráfico de esa keyword +250% (de posición #4 a posición 0).
Conceptos relacionados: Posición 0, SERP features, Schema markup, Voice search, Zero-click search
Contenido duplicado
Definición: El contenido duplicado ocurre cuando bloques sustanciales de texto idéntico o extremadamente similar aparecen en múltiples URLs, ya sea dentro del mismo dominio (duplicación interna) o entre dominios diferentes (duplicación externa). Ejemplos: páginas de producto con descripciones del fabricante copiadas, mismo artículo publicado en múltiples subdominios, versiones www vs no-www, http vs https sin redirecciones.
Por qué importa: Google filtra contenido duplicado de SERPs para no mostrar resultados redundantes. Cuando detecta duplicación, elige una versión «canónica» para rankear e ignora las demás (o peor, si parece manipulativo, penaliza todo el sitio). Consecuencias: desperdicio de crawl budget, dilución de autoridad (backlinks a 3 versiones de misma página vs concentrados en una), indexación impredecible, posibles penalizaciones.
Ejemplo práctico – Problemas comunes de duplicación: 1. Ecommerce con variantes de producto:
tienda.com/zapatillas-nike-air-max-90-talla-41-negro
tienda.com/zapatillas-nike-air-max-90-talla-42-negro
tienda.com/zapatillas-nike-air-max-90-talla-41-blanco
Problema: 20 URLs (10 tallas × 2 colores) con 95% contenido idéntico (solo cambia talla/color)
Solución: Canonical tag apuntando todas las variantes a URL principal:
<link rel=»canonical» href=»https://tienda.com/zapatillas-nike-air-max-90″ />
- Versiones múltiples del dominio:
http://ejemplo.com
https://ejemplo.com
http://www.ejemplo.com
https://www.ejemplo.com
Problema: 4 versiones accesibles del mismo contenido
Solución: Redirect 301 de todas las versiones a la preferida (https://www.ejemplo.com) + canonical tags
Resultado: Autoridad concentrada en una URL, indexación predecible, crawl budget optimizado.
Conceptos relacionados: Canonical tag, Redirect 301, Crawl budget, Penalizaciones, SEO técnico
Thin content (Contenido delgado)
Definición: Thin content (contenido delgado o pobre) es contenido de baja calidad que aporta poco o ningún valor único al usuario: páginas con <300 palabras, descripciones genéricas, contenido generado automáticamente sin supervisión humana, páginas doorway (diseñadas solo para rankear y redirigir), contenido scraped (copiado de otras webs), páginas con más ads que contenido útil.
Por qué importa: Google (especialmente post-Panda Update 2011 y Helpful Content Update 2022-2024) penaliza agresivamente sitios con thin content masivo. El objetivo: eliminar «granjas de contenido» que generan miles de páginas inútiles solo para captar tráfico y mostrar ads. Sitios penalizados pierden 50-95% de tráfico orgánico. La solución no es más contenido, es mejor contenido: calidad > cantidad siempre.
Ejemplo práctico – Thin content vs contenido de valor: Thin content (penalizable):
Título: Fontanero Sevilla
Contenido: «¿Buscas fontanero en Sevilla? Somos expertos fontaneros
en Sevilla. Llamamos 24 horas. Fontanero Sevilla urgente.
Presupuesto gratis.» (50 palabras, keyword stuffing, zero valor)
Problema: No responde preguntas usuario, no educa, no diferencia, solo keywords repetidas.
Contenido de valor (rankeable):
Título: Fontanero en Sevilla: Guía Completa de Precios y Servicios 2024
Contenido:
– Qué servicios ofrece un fontanero (reparaciones, instalaciones, emergencias)
– Precios promedio en Sevilla por tipo de trabajo (datos reales)
– Cómo identificar fontanero de confianza (certificaciones, seguros)
– Problemas comunes fontanería en Sevilla (agua dura, instalaciones antiguas)
– Cuándo es urgencia vs cuándo puede esperar
– Mantenimiento preventivo consejos
– FAQ: 15 preguntas frecuentes respondidas
– Casos de estudio: reparaciones complejas solucionadas
(2,500+ palabras, imágenes explicativas, testimonios reales)
Resultado: Contenido de valor rankea, convierte, genera backlinks naturales. Thin content no rankea o penaliza.
Conceptos relacionados: Calidad de contenido, Panda Update, Helpful Content Update, Content pruning, EEAT
Canibalización de keywords
Definición: La canibalización de keywords ocurre cuando múltiples páginas del mismo sitio compiten por la misma keyword o conjunto de keywords muy similares. Google no sabe cuál priorizar, divide señales entre las páginas y ambas rankean peor de lo que rankearía una sola página optimizada. Síntoma: múltiples URLs de tu dominio aparecen en posiciones #15-30 para misma keyword, ninguna en top 10.
Por qué importa: La canibalización dispersa autoridad, confunde a Google sobre cuál es tu página prioritaria y diluye potencial de ranking. Es especialmente problemática cuando página menos relevante (ej: post blog antiguo) rankea por encima de página comercial (servicio, producto). Solución: consolidar contenido (fusionar páginas), usar canonicals, o diferenciar claramente intención (informacional vs transaccional) para evitar competencia.
Ejemplo práctico – Diagnóstico y solución de canibalización: Problema detectado en Google Search Console: Keyword: «diseño web Sevilla»
- Página A: /servicios/diseno-web-sevilla → Posición promedio #18 (página comercial prioritaria)
- Página B: /blog/que-es-diseno-web → Posición promedio #22 (artículo informacional)
- Página C: /blog/diseno-web-sevilla-tendencias-2024 → Posición promedio #25
Tres páginas compitiendo, ninguna rankea bien. Tráfico total: 40 clics/mes.
Solución implementada:
- Página B: Optimizar para keyword informacional diferente «qué es diseño web» (intención distinta)
- Página C: Redirect 301 a Página A (consolidar autoridad) O cambiar focus a «tendencias diseño web 2024» (long tail específica)
- Página A: Reforzar con enlazado interno desde B (ahora optimizada para keyword diferente)
- Canonical tags: Asegurar que Página A es versión preferida para «diseño web Sevilla»
Resultado (8 semanas después):
- Página A: Posición #7 (beneficiada por consolidación + enlaces internos)
- Página B: Posición #12 para «qué es diseño web» (keyword diferente, no compite)
- Tráfico total: 180 clics/mes (+350%)
Eliminar canibalización concentró señales en página correcta.
Conceptos relacionados: Keyword research, Canonical tag, Redirect 301, Arquitectura web, Enlaces internos
SEO Off-Page
SEO Off-Page
Definición: El SEO Off-Page engloba todas las acciones de optimización que ocurren fuera de tu sitio web para mejorar su autoridad, relevancia y posicionamiento: construcción de enlaces (link building), menciones de marca, señales sociales, guest posting, relaciones públicas digitales, influencer outreach, directorios de calidad, review management. La métrica central: backlinks de calidad.
Por qué importa: Mientras el On-Page comunica a Google «de qué trata mi página», el Off-Page comunica «por qué mi página merece rankear». Google interpreta enlaces como votos de confianza: si 50 sitios web autoritarios enlazan a tu contenido, es señal de calidad. Sin Off-Page (sin backlinks), incluso contenido excepcional no rankeará en keywords competitivas. El SEO moderno requiere equilibrio: excelente On-Page + construcción sostenida de autoridad Off-Page.
Ejemplo práctico – Impacto aislado de Off-Page: Escenario controlado: Dos páginas idénticas (contenido, estructura, On-Page perfecto)
Página A:
- Backlinks: 0
- Domain Authority: 15 (nuevo)
- Posición keyword competitiva «software gestión proyectos»: #85
Página B:
- Backlinks: 45 enlaces de calidad (DA 40-70: TechCrunch, Product Hunt, blogs industria)
- Domain Authority: 52
- Posición misma keyword: #11
Diferencia: Solo Off-Page (backlinks). Página B rankea 74 posiciones más arriba con contenido idéntico.
Conclusión: On-Page abre la puerta, Off-Page te hace campeón. Ambos esenciales.
Conceptos relacionados: Link building, Backlinks, Domain Authority, PageRank, Autoridad
Link building
Definición: El link building es el proceso estratégico de adquirir hipervínculoss (backlinks) de otros sitios web hacia el tuyo. Tácticas white-hat: crear contenido linkeable (linkbait), guest posting en blogs relevantes, broken link building, digital PR (conseguir menciones en medios), construcción de relaciones con bloggers/periodistas, crear herramientas/recursos útiles que otros enlacen naturalmente.
Por qué importa: El link building es el factor Off-Page más influyente en ranking. Sin backlinks, competir en keywords de dificultad media-alta es imposible. Pero el link building ha evoluado: Google penaliza esquemas manipulativos (compra masiva de enlaces, PBNs, link farms). El enfoque moderno: ganar enlaces mediante contenido excepcional y relaciones genuinas, no comprarlos. Un enlace de The New York Times vale más que 1,000 enlaces de directorios spam.
Ejemplo práctico – Campaña de link building mediante contenido linkeable: Objetivo: Conseguir backlinks para incrementar DA de 28 a 40+
Estrategia:
- Crear activo linkeable: «El Estado del Marketing Digital en España 2024» (estudio original con encuesta a 500 profesionales, datos exclusivos, infografías compartibles)
- Promoción dirigida:
- Outreach a 100 blogs marketing/tech españoles
- Pitch a periodistas tech (El País, Cinco Días, Marketing Directo)
- Compartir en comunidades relevantes (LinkedIn, Twitter)
- Presentar en eventos/webinars
- Resultados (6 meses):
- 68 backlinks conseguidos (DA 35-80)
- Menciones en: Marketing Directo (DA 65), Webempresa (DA 55), 15 blogs industria (DA 30-50)
- DA del sitio: 28 → 43
- Tráfico orgánico: +140%
- Posiciones keywords objetivo: mejora promedio +12 posiciones
Inversión: €8,000 (investigación, diseño infografías, outreach) ROI: Valor de backlinks conseguidos (si se compraran): ~€35K. Autoridad construida dura años.
Conceptos relacionados: Backlinks, Guest posting, Digital PR, Linkbait, Outreach, SEO Off-Page
Backlink (Enlace entrante)
Definición: Un backlink (enlace entrante o inbound link) es un hipervínculo en un sitio web externo que apunta a tu sitio. Es el equivalente digital de una recomendación: cuando TechCrunch enlaza a tu startup, está «votando» por tu credibilidad. Google evalúa backlinks por: autoridad del dominio origen, relevancia temática, posición del enlace en la página, anchor text usado, cantidad de enlaces salientes en misma página.
Por qué importa: Los backlinks son el factor #1 de ranking según estudios de correlación (junto con contenido). Cantidad importa, pero calidad importa exponencialmente más: 1 enlace de BBC.com (DA 95) > 100 enlaces de blogs DA 10. Google detecta patterns manipulativos: adquisición masiva repentina, anchos textos sobre-optimizados, enlaces de sitios irrelevantes. El link building moderno prioriza enlaces editoriales (ganados por mérito) sobre enlaces pagados o intercambiados.
Ejemplo práctico – Análisis de valor de backlink: Backlink A:
- Origen: Wikipedia (DA 95, trust masivo)
- Contexto: Mencionado en artículo «Marketing Digital» como fuente
- Anchor text: «estudio sobre SEO local»
- Posición: Dentro del contenido (no footer/sidebar)
- Enlace tipo: Dofollow
- Valor: Altísimo (impulsa ranking masivamente + tráfico referral significativo)
Backlink B:
- Origen: Directorio web genérico (DA 12, sin tráfico)
- Contexto: Listado en categoría «Empresas – Marketing»
- Anchor text: URL desnuda
- Posición: Footer entre 200 enlaces más
- Enlace tipo: Nofollow
- Valor: Casi nulo (no transfiere autoridad, zero tráfico)
100 backlinks tipo B no equivalen a 1 backlink tipo A. Calidad > cantidad siempre.
Conceptos relacionados: Link building, Domain Authority, PageRank, Anchor text, Dofollow vs Nofollow
Linkjuice
Definición: Linkjuice (jugo de enlace) es el término coloquial para la autoridad y valor SEO que se transfiere de una página a otra mediante un enlace. Cuanta más autoridad tiene la página origen (PageRank alto, DA alto), más linkjuice transfiere. El linkjuice fluye tanto externamente (backlinks de otros sitios) como internamente (enlaces entre páginas de tu sitio).
Por qué importa: Entender el flujo de linkjuice permite optimizar arquitectura web y estrategia de enlazado. Páginas importantes (money pages, servicios) deben recibir máximo linkjuice: desde homepage, desde páginas blog de alto tráfico, desde backlinks externos. El linkjuice se diluye: una página con 100 enlaces salientes transfiere menos jugo por enlace que una con 5. Factores que bloquean linkjuice: enlaces nofollow, JavaScript sin renderizar, canonicals mal implementados.
Ejemplo práctico – Optimización de flujo de linkjuice: Situación inicial:
- Homepage (PA 60, recibe todos los backlinks externos) → Enlaces solo a: Sobre Nosotros, Contacto, Blog
- Página servicio clave «Auditoría SEO» (PA 22) → Solo recibe enlaces desde Blog (PA 15-25)
- Problema: Linkjuice de homepage (máxima autoridad) no llega a página servicio clave
Optimización:
- Homepage: Añadir enlace directo y visible a «Auditoría SEO» en menú principal
- Sidebar blog: Añadir widget «Servicios Destacados» enlazando a Auditoría SEO (aparece en todos los posts)
- 10 artículos blog de mayor PA (35-45): Añadir enlace contextual a Auditoría SEO
- Reducir enlaces salientes homepage: De 45 a 20 (concentra linkjuice)
Resultado:
- PA de «Auditoría SEO»: 22 → 38 (+73%)
- Posición keyword «auditoría seo España»: #18 → #9
- Sin conseguir un solo backlink nuevo (solo redistribución interna de linkjuice)
Conceptos relacionados: PageRank, Enlaces internos, Domain Authority, Arquitectura web, SEO On-Page
Nofollow vs Dofollow
Definición: Dofollow y Nofollow son atributos que indican si un enlace transfiere autoridad (linkjuice). Dofollow (por defecto, no requiere atributo) transfiere autoridad: Google sigue el enlace y cuenta como voto. Nofollow (rel=»nofollow») indica a Google «no sigas este enlace ni transfieras autoridad»: usado en comentarios de usuario, enlaces pagados, contenido no verificado. Desde 2019, Google trata nofollow como «sugerencia» (puede ignorarlo).
Por qué importa: Para link building, enlaces dofollow son el objetivo (transfieren autoridad). Pero perfil de backlinks 100% dofollow parece manipulado: mix natural incluye nofollow (redes sociales, Wikipedia, comentarios, algunos medios). Google penaliza venta de enlaces dofollow sin disclosure, exige nofollow en contenido patrocinado. Estrategia: priorizar dofollow editoriales, no rechazar nofollow (aportan tráfico y diversidad).
Ejemplo práctico – Cuándo usar nofollow: Casos donde usar nofollow (requerido o recomendado):
- Enlaces pagados/patrocinados:
<a href=»producto-patrocinado.com» rel=»nofollow sponsored»>Ver producto</a>
Google exige nofollow/sponsored para no penalizar por venta de enlaces
- Comentarios de usuario (blog, forum):
<a href=»sitio-spam.com» rel=»nofollow ugc»>Enlace de usuario</a>
Previene spam de comentarios para conseguir backlinks
- Enlaces no verificados: Enlazas a fuente que no has validado completamente → nofollow por seguridad
Casos donde mantener dofollow:
- Enlaces editoriales a contenido valioso
- Citas de fuentes
- Guest posts (si es contenido de calidad, no spam)
Perfil natural de backlinks:
- 60-75% dofollow (enlaces editoriales ganados)
- 25-40% nofollow (redes sociales, Wikipedia, algunos medios, comentarios)
Conceptos relacionados: Link building, Backlinks, Linkjuice, Penalizaciones, Link attributes
Guest posting
Definición: Guest posting (publicación como invitado) es la práctica de escribir y publicar contenido en blogs/medios de terceros, incluyendo típicamente una biografía de autor con enlace a tu sitio. Beneficios: backlink de calidad, exposición a nueva audiencia, posicionamiento como experto, tráfico referral. Requiere: contenido excepcional (no aceptan mediocridad), relevancia temática, relación con el blog host.
Por qué importa: El guest posting es táctica de link building de máximo ROI cuando se ejecuta correctamente: 1 artículo guest genera 1 backlink dofollow (valor: €200-2,000 dependiendo DA), tráfico referral cualificado y credibilidad por asociación. Pero Google penaliza guest posting masivo de baja calidad (artículos genéricos con anchor text sobre-optimizado en blogs irrelevantes). La clave: calidad extrema + relevancia temática + relación genuina.
Ejemplo práctico – Guest posting efectivo: Objetivo: Conseguir backlink de blog marketing referente (Marketing Directo, DA 65)
Proceso:
- Research: Identificar gaps contenido (qué temas no han cubierto profundamente)
- Pitch personalizado: «Hola [Editor], soy especialista en SEO local con 8 años experiencia. Noté que no habéis cubierto el impacto de Google’s Vicinity Update en SEO local. Propongo artículo original ‘Cómo el Vicinity Update Cambió el SEO Local en 2024: Análisis con 50 Casos Reales’. Incluiría datos exclusivos de análisis propio de 500 negocios locales.»
- Contenido excepcional: 2,500 palabras, datos originales, 8 gráficos personalizados, casos prácticos, cero promoción de servicios propios
- Bio sutil: «Carlos García es consultor SEO local en Sevilla. Blog: [enlace]»
Resultado:
- Publicado en Marketing Directo (DA 65)
- Backlink dofollow desde artículo
- 450 visitas referral primer mes (tráfico cualificado, 3 leads)
- Recompartido 120 veces en redes
- DA del sitio +2 puntos
Inversión: 12 horas trabajo (investigación, escritura, diseño gráficos) ROI: Backlink DA 65 vale €1,500+ si se comprara, más tráfico y leads
Conceptos relacionados: Link building, Content marketing, Outreach, Backlinks, Digital PR
Link baiting
Definición: Link baiting (cebo de enlaces) es la estrategia de crear contenido tan valioso, original, controversial o útil que otros sitios web lo enlazan espontáneamente sin solicitarlo. Tipos: estudios originales con datos exclusivos, herramientas gratuitas, infografías impactantes, contenido controversial que genera debate, recursos exhaustivos («guía definitiva»), listas curadas de alto valor.
Por qué importa: El link baiting invierte la dinámica de link building: en lugar de perseguir enlaces (outreach manual, guest posting), creas activos que atraen enlaces naturalmente. Es escalable: un estudio viral puede generar 50-200 backlinks sin outreach. Pero requiere inversión significativa upfront (investigación, diseño, promoción) y no hay garantía de éxito (el contenido puede no viralizarse). El ROI puede ser masivo cuando funciona.
Ejemplo práctico – Link bait exitoso: Activo creado: «The State of Remote Work 2024» (estudio sobre trabajo remoto)
Contenido:
- Encuesta a 10,000 trabajadores remotos en 50 países
- 60 data points exclusivos (salarios, productividad, herramientas usadas)
- 25 infografías diseñadas profesionalmente
- Landing page interactiva con filtros por país/industria
- Descarga PDF gratuita (capture de emails)
Promoción:
- Email a 200 periodistas tech/negocios
- Post en Product Hunt, Hacker News, Reddit
- Anuncio pagado inicial en LinkedIn (€2,000)
Resultados (6 meses):
- 340 backlinks ganados (DA 25-85)
- Mencionado en: Forbes, TechCrunch, Business Insider, BBC
- 45,000 visitantes únicos al landing
- 12,000 emails capturados
- Tráfico orgánico sitio +200% (por aumento DA)
Inversión total: €25,000 (investigación, diseño, desarrollo, promoción) Valor backlinks: €120K+ (si se compraran) ROI: 380% en valor directo de backlinks, más branding y leads
Conceptos relacionados: Content marketing, Link building, Viral marketing, Infografías, Digital PR
Perfil de enlaces
Definición: El perfil de enlaces (link profile o backlink profile) es el conjunto completo de todos los backlinks que apuntan a tu dominio, analizado por: cantidad total, diversidad de dominios referentes, distribución de Domain Authority (DA) de sitios origen, diversidad de anchor texts, ratio dofollow/nofollow, relevancia temática, velocidad de adquisición temporal, distribución geográfica.
Por qué importa: Google evalúa perfiles de enlaces para detectar manipulación. Perfiles naturales tienen: crecimiento gradual y constante, diversidad de anchor text, mix de DA alto/medio/bajo, mayoría dofollow pero algo nofollow, links de sitios temáticamente relevantes. Perfiles sospechosos: pico de 500 enlaces en 1 mes, 95% anchor text exacto, todos DA <15, todos de misma IP/red, todos nofollow o todos dofollow. Los perfiles tóxicos se limpian con disavow tool.
Ejemplo práctico – Auditoría de perfil de enlaces: Perfil A (natural, saludable):
- Total backlinks: 450 de 180 dominios únicos
- Crecimiento: +5-10 backlinks/mes constante (36 meses)
- DA distribución: 15% DA 60-90, 40% DA 30-60, 45% DA <30
- Anchor text: 18% exact, 32% partial, 28% branded, 22% genéricos/URL
- Dofollow/Nofollow: 68% / 32%
- Relevancia: 85% de sitios misma temática
- Diagnóstico: Perfil orgánico y saludable
Perfil B (manipulado, riesgo de penalización):
- Total backlinks: 2,400 de 35 dominios únicos
- Crecimiento: 0 enlaces durante 6 meses, luego +2,000 en 2 semanas
- DA distribución: 90% DA <20, 10% DA 20-30
- Anchor text: 87% exact match «préstamos rápidos sin aval»
- Dofollow/Nofollow: 98% / 2%
- Relevancia: 60% de sitios no relacionados (farmacias, juegos, adulto)
- Diagnóstico: Compra masiva de enlaces, PBN o link farm. Penalización inminente
Acción: Disavow enlaces tóxicos, detener adquisición manipulativa, construir enlaces editoriales.
Conceptos relacionados: Backlinks, Link building, Penguin update, Disavow tool, Toxic links
Anchor text diversity
Definición: Anchor text diversity (diversidad de texto ancla) es la variedad de textos ancla usados en los backlinks que apuntan a tu sitio. Un perfil diverso incluye: exact match (keyword exacta), partial match (keyword + modificadores), branded (nombre marca), URL desnuda (dominio.com), genéricos (clic aquí, leer más), imágenes (alt text como anchor), long tail variations. La distribución ideal evita concentración excesiva en un solo tipo.
Por qué importa: Google penaliza sobre-optimización de anchor text (Penguin update): si el 80% de tus backlinks usan «abogado Barcelona» como anchor, es red flag de manipulación (nadie enlaza naturalmente con tanto anchor exacto). La diversidad señala crecimiento orgánico: diferentes personas enlazando en contextos variados usan anchors variados. El balance óptimo maximiza relevancia (algunos exact match) sin activar filtros de spam.
Ejemplo práctico – Distribución de anchor text segura: Para rankear: «consultoría SEO Madrid»
Distribución recomendada (100 backlinks):
- 15-20 exact match: «consultoría SEO Madrid» (15-20%)
- 25-30 partial match: «agencia consultoría SEO en Madrid», «servicios de SEO Madrid», «consultor SEO Madrid» (25-30%)
- 20-25 branded: «Leovel», «Agencia Leovel» (20-25%)
- 10-15 genéricos: «aquí», «más información», «este servicio», «visitar sitio» (10-15%)
- 8-10 URL: «leovel.com», «www.leovel.com/consultoria-seo» (8-10%)
- 5-8 variaciones: «expertos SEO», «posicionamiento web Madrid» (5-8%)
- 5-7 anchor imágenes: Alt text de imágenes clicables (5-7%)
Ventajas:
- Suficiente exact/partial para señalar relevancia
- Diversidad previene penalizaciones
- Branded aporta reconocimiento de marca
- Genéricos/URL añaden naturalidad
Conceptos relacionados: Anchor text, Backlinks, Penguin update, Link building, Perfil de enlaces
Toxic links (Enlaces tóxicos)
Definición: Los toxic links (enlaces tóxicos) son backlinks de sitios spam, penalizados, irrelevantes o con intención manipulativa que pueden perjudicar tu SEO. Señales de toxicidad: sitio origen penalizado por Google, DA < 10, contenido spam/adult/pharma sin relación con tu nicho, PBN (Private Blog Network), granjas de enlaces, directorios de baja calidad, comentarios spam, enlaces desde sitios hackeados.
Por qué importa: Aunque Google afirma ignorar mayormente enlaces malos (no penalizan activamente salvo manipulación flagrante), acumular cientos de toxic links puede: diluir tu perfil de enlaces (ruido vs señal), asociarte con sitios spam (guilt by association), activar revisiones manuales. La solución: auditoría regular de backlinks (Ahrefs, SEMrush), identificar tóxicos y desautorizarlos mediante Google Disavow Tool.
Ejemplo práctico – Limpieza de enlaces tóxicos: Situación: Sitio experimenta caída súbita de tráfico (-40% en 2 semanas)
Auditoría de backlinks (Ahrefs):
- Total backlinks: 1,200
- Identificados como tóxicos: 380 enlaces (32%)
- 150 de directorios spam DA <5
- 80 de comentarios blog spam
- 70 de sitios adulto/farmacia irrelevantes
- 50 de PBN detectado y penalizado
- 30 de sitios hackeados
Proceso de limpieza:
- Intentar eliminar manualmente: Contactar webmasters pidiendo eliminar enlaces (20% responden, 76 eliminados)
- Disavow restantes: Crear archivo disavow con 304 dominios tóxicos restantes, submit a Google Search Console
- Esperar reprocessing: Google tarda 2-8 semanas en procesar disavow
Resultado (10 semanas post-disavow):
- Tráfico recupera: -40% → -12% → +8% (sobre baseline original)
- Posiciones mejoran promedio +6 posiciones en keywords principales
- Perfil limpio: 820 backlinks de calidad vs 1,200 con 32% tóxicos
Conceptos relacionados: Backlinks, Penguin update, Disavow tool, Perfil de enlaces, Link building
Toxic links (Enlaces tóxicos)
Definición: Los toxic links (enlaces tóxicos) son backlinks de sitios spam, penalizados, irrelevantes o con intención manipulativa que pueden perjudicar tu SEO. Señales de toxicidad: sitio origen penalizado por Google, DA < 10, contenido spam/adult/pharma sin relación con tu nicho, PBN (Private Blog Network), granjas de enlaces, directorios de baja calidad, comentarios spam, enlaces desde sitios hackeados.
Por qué importa: Aunque Google afirma ignorar mayormente enlaces malos (no penalizan activamente salvo manipulación flagrante), acumular cientos de toxic links puede: diluir tu perfil de enlaces (ruido vs señal), asociarte con sitios spam (guilt by association), activar revisiones manuales. La solución: auditoría regular de backlinks (Ahrefs, SEMrush), identificar tóxicos y desautorizarlos mediante Google Disavow Tool.
Ejemplo práctico – Limpieza de enlaces tóxicos: Situación: Sitio experimenta caída súbita de tráfico (-40% en 2 semanas)
Auditoría de backlinks (Ahrefs):
- Total backlinks: 1,200
- Identificados como tóxicos: 380 enlaces (32%)
- 150 de directorios spam DA <5
- 80 de comentarios blog spam
- 70 de sitios adulto/farmacia irrelevantes
- 50 de PBN detectado y penalizado
- 30 de sitios hackeados
Proceso de limpieza:
- Intentar eliminar manualmente: Contactar webmasters pidiendo eliminar enlaces (20% responden, 76 eliminados)
- Disavow restantes: Crear archivo disavow con 304 dominios tóxicos restantes, submit a Google Search Console
- Esperar reprocessing: Google tarda 2-8 semanas en procesar disavow
Resultado (10 semanas post-disavow):
- Tráfico recupera: -40% → -12% → +8% (sobre baseline original)
- Posiciones mejoran promedio +6 posiciones en keywords principales
- Perfil limpio: 820 backlinks de calidad vs 1,200 con 32% tóxicos
Conceptos relacionados: Backlinks, Penguin update, Disavow tool, Perfil de enlaces, Link building
SEO técnico
SEO técnico
Definición: El SEO técnico es la optimización de la infraestructura y aspectos técnicos de un sitio web para facilitar el rastreo, indexación y ranking por parte de Google: arquitectura del sitio, velocidad de carga, mobile-friendliness, estructura de URLs, robots.txt, sitemap XML, canonicals, redirects, HTTPS, structured data, JavaScript rendering, Core Web Vitals, servidor/hosting, CDN.
Por qué importa: El SEO técnico es la fundación: sin una base técnica sólida, ni el mejor contenido ni los mejores backlinks funcionarán óptimamente. Problemas técnicos bloquean completamente el SEO: sitio bloqueado por robots.txt (no indexa), servidor caído frecuentemente (Googlebot no accede), JavaScript mal implementado (contenido no se renderiza), velocidad lenta (penalización móvil). Resolver problemas técnicos puede desbloquear tráfico masivo instantáneamente.
Ejemplo práctico – Impacto de auditoría técnica SEO: Situación inicial: Ecommerce con 15,000 URLs, solo 2,300 indexadas, tráfico estancado
Auditoría técnica detecta:
- Crawl budget desperdiciado: 60% del presupuesto en URLs filtro/parámetros inútiles
- Canonicals mal implementados: 4,500 productos con canonical apuntando a páginas inexistentes (404)
- JavaScript bloqueante: Descripciones producto cargadas vía JS que Googlebot no ejecuta
- Redirect chains: Homepage → redirect 302 → redirect 301 → final (pérdida linkjuice)
- Sitemap XML: 8,000 URLs incluidas ya eliminadas (404), sitemap sin actualizar en 2 años
Correcciones implementadas:
- Robots.txt: Bloquear parámetros inútiles
- Canonicals: Corregir 4,500 canonicals apuntando a URLs válidas
- JavaScript: Server-side rendering para descripciones producto
- Redirects: Eliminar chains, consolidar en redirect 301 directo
- Sitemap: Generar automáticamente con solo URLs activas
Resultado (12 semanas):
- Páginas indexadas: 2,300 → 11,800 (+413%)
- Tráfico orgánico: +220%
- Posiciones promedio: +8 posiciones
- Core Web Vitals: LCP 4.2s → 2.1s
Todo mediante mejoras técnicas, sin cambiar contenido ni conseguir nuevos backlinks.
Conceptos relacionados: Crawling, Indexación, Core Web Vitals, Velocidad de carga, Robots.txt
Robots.txt
Definición: El archivo robots.txt es un archivo de texto plano ubicado en la raíz del dominio (dominio.com/robots.txt) que indica a los rastreadores de motores de búsqueda (Googlebot, Bingbot) qué partes del sitio pueden o no pueden rastrear. Usa directivas Allow (permitir) y Disallow (prohibir). También puede especificar ubicación del sitemap XML.
Por qué importa: El robots.txt controla cómo Googlebot gasta su crawl budget: bloqueando secciones inútiles (admin, filtros infinitos, URLs con parámetros duplicados) optimizas para que Google rastree solo contenido valioso. Pero mal configurado, el robots.txt puede destruir tu SEO: bloquear directorio completo por error (ej: Disallow: /) hace tu sitio invisible. Nunca confiar robots.txt generado automáticamente sin revisión manual.
Ejemplo práctico – Robots.txt optimizado para ecommerce:
# Permitir todos los bots por defecto
User-agent: *
# Bloquear áreas administrativas
Disallow: /admin/
Disallow: /checkout/
Disallow: /cart/
Disallow: /mi-cuenta/
# Bloquear parámetros de sesión y filtros que duplican contenido
Disallow: /*?sessionid=
Disallow: /*?sort=
Disallow: /*?filter=
Disallow: /*?color=
Disallow: /*?page=
# Permitir explícitamente categorías importantes
Allow: /categoria-productos/
# Bloquear búsqueda interna (genera URLs únicas por query)
Disallow: /buscar?
# Especificar ubicación sitemap
Sitemap: https://tienda.com/sitemap.xml
# Configuración específica para Googlebot
User-agent: Googlebot
Crawl-delay: 0
Impacto: Crawl budget de 500 URLs/día concentrado en productos (8,000 URLs) vs desperdiciado en filtros/sesiones (potencialmente infinitas URLs). Indexación de productos acelera de semanas a días.
Conceptos relacionados: Crawling, Googlebot, Crawl budget, Indexación, Sitemap XML
Sitemap XML
Definición: El sitemap XML es un archivo XML que lista todas las URLs importantes de tu sitio que quieres que Google indexe, incluyendo metadata: fecha última modificación, frecuencia de cambio, prioridad relativa. Se ubica típicamente en dominio.com/sitemap.xml y se declara en robots.txt y Google Search Console.
Por qué importa: El sitemap XML es mapa de ruta para Googlebot: señala qué páginas existen, cuáles son más importantes y cuáles cambian frecuentemente. En sitios grandes (miles de URLs), páginas profundas sin enlaces internos pueden no descubrirse nunca sin sitemap. Sitios dinámicos (news, ecommerce) usan sitemaps para acelerar indexación de contenido nuevo (publica producto hoy, indexado mañana vs semanas esperando rastreo natural).
Ejemplo práctico – Estructura de sitemap para sitio grande: Sitio con 50,000 URLs:
Problema: Límite sitemap XML es 50,000 URLs o 50MB. Sitio supera límite.
Solución: Índice de sitemaps
<!– sitemap_index.xml –>
<sitemapindex>
<sitemap>
<loc>https://sitio.com/sitemap-posts.xml</loc>
<lastmod>2024-03-15</lastmod>
</sitemap>
<sitemap>
<loc>https://sitio.com/sitemap-products.xml</loc>
<lastmod>2024-03-15</lastmod>
</sitemap>
<sitemap>
<loc>https://sitio.com/sitemap-categories.xml</loc>
<lastmod>2024-02-01</lastmod>
</sitemap>
</sitemapindex>
Cada sitemap específico:
<!– sitemap-products.xml –>
<urlset>
<url>
<loc>https://sitio.com/producto-1</loc>
<lastmod>2024-03-14</lastmod>
<changefreq>weekly</changefreq>
<priority>0.8</priority>
</url>
<!– … hasta 50,000 URLs –>
</urlset>
Beneficios:
- Organización temática (productos, posts, categorías)
- Prioridades diferenciadas (productos: 0.8, categorías: 1.0, posts antiguos: 0.5)
- Actualización independiente (solo regenerar sitemap productos cuando hay nuevos)
Resultado: Productos nuevos indexados en 24-48h vs 2-3 semanas sin sitemap.
Conceptos relacionados: Crawling, Indexación, Robots.txt, Google Search Console, SEO técnico
Velocidad de carga
Definición: La velocidad de carga (page speed) mide cuánto tiempo tarda una página web en cargar completamente y ser interactiva para el usuario. Se mide mediante múltiples métricas: Time to First Byte (TTFB) (respuesta inicial del servidor), First Contentful Paint (FCP) (primer contenido visible), Largest Contentful Paint (LCP) (contenido principal cargado), Time to Interactive (TTI) (página completamente interactiva).
Por qué importa: La velocidad es factor de ranking directo desde 2010 (desktop) y 2018 (mobile). Páginas lentas generan bounce masivo: 53% de usuarios móviles abandonan si carga >3 segundos (Google). Cada segundo adicional de carga reduce conversión ~7%. Amazon calculó que 100ms de latencia cuestan 1% de ventas. Velocidad impacta: ranking, UX, conversión, crawl budget (Googlebot rastrea más páginas rápidas). Core Web Vitals elevaron importancia de velocidad aún más.
Ejemplo práctico – Optimización de velocidad: Antes (página lenta):
- LCP: 5.2 segundos
- FCP: 3.1 segundos
- TTI: 7.8 segundos
- Peso página: 4.2 MB
- 85 requests HTTP
- Bounce rate: 71%
- Conversión: 1.8%
Problemas identificados:
- Imágenes sin comprimir (2.8 MB de 4.2 MB totales)
- Sin lazy loading (carga 60 imágenes inmediatamente)
- JavaScript bloqueante (jQuery + 15 plugins)
- Sin CDN (servidor único en Madrid, usuarios globales)
- Sin compresión gzip/brotli
- 35 requests a fuentes Google Fonts
Optimizaciones implementadas:
- Imágenes: Conversión a WebP, compresión 80%, responsive images (tamaños múltiples)
- Lazy loading: Cargar imágenes solo al hacer scroll (ahorro 70% carga inicial)
- JavaScript: Minificación, code splitting, defer non-critical JS
- CDN: Cloudflare para assets estáticos
- Compresión: Brotli habilitado (reduce HTML/CSS/JS 60%)
- Fonts: Preload fonts críticas, font-display: swap
Después:
- LCP: 1.9 segundos (-63%)
- FCP: 1.1 segundos (-65%)
- TTI: 2.8 segundos (-64%)
- Peso página: 980 KB (-77%)
- 28 requests HTTP (-67%)
- Bounce rate: 48% (-23pp)
- Conversión: 3.1% (+72%)
ROI: Conversión aumenta 72% = +€45K mensuales con mismo tráfico. Inversión optimización: €3,500. ROI primer mes: 1,186%.
Conceptos relacionados: Core Web Vitals, LCP, Mobile-first indexing, UX, Page Experience
Mobile-first indexing
Definición: Mobile-first indexing significa que Google usa predominantemente la versión móvil del contenido de un sitio para indexación y ranking. Desde 2019, Google rastrea, indexa y rankea basándose en cómo se ve tu web en smartphone, no en desktop. Si contenido existe en desktop pero no en móvil, Google puede no indexarlo.
Por qué importa: El 63% de búsquedas Google son desde móvil (2024). Mobile-first invirtió prioridades: antes optimizabas desktop y adaptabas móvil; ahora diseñas mobile-first y escalas a desktop. Sitios con versión móvil inferior (contenido reducido, imágenes bloqueadas, velocidad lenta) sufren pérdidas masivas de ranking. La paridad contenido desktop/móvil es esencial: mismo contenido, mismas imágenes, mismos datos estructurados.
Ejemplo práctico – Problemas de mobile-first: Sitio con versión móvil degradada:
Desktop (lo que veías antes):
- Contenido completo: 2,000 palabras, 15 imágenes, tabla comparativa
- Velocidad: Aceptable (3.2s)
- Structured data: Completo
Mobile (lo que Google indexa ahora):
- Contenido recortado: 800 palabras (60% oculto en accordions colapsados)
- 5 imágenes (10 no cargan en móvil)
- Tabla comparativa reemplazada por texto «Ver en desktop»
- Velocidad: Lenta (6.1s)
- Structured data: Ausente (JavaScript no ejecutado)
Consecuencia: Google indexa versión móvil empobrecida → Rankings caen 40% después de migración a mobile-first.
Solución:
- Paridad de contenido: Mismo contenido exacto en móvil (usar accordions está bien SI contenido está en HTML)
- Imágenes: Todas cargables en móvil, con lazy loading
- Structured data: Presente en versión móvil
- Velocidad móvil: Priorizar optimización móvil
- Testing: Usar Google Mobile-Friendly Test para validar
Resultado post-corrección: Rankings recuperan completamente en 8 semanas.
Conceptos relacionados: Responsive design, Mobile SEO, Core Web Vitals, Page Experience, UX móvil
Responsive design
Definición: Responsive design (diseño responsivo) es el enfoque de diseño web que adapta automáticamente el layout, contenido e imágenes al tamaño de pantalla del dispositivo (desktop, tablet, móvil) usando CSS media queries, grids flexibles e imágenes fluidas. Una sola URL sirve a todos los dispositivos con HTML idéntico pero presentación adaptada.
Por qué importa: Responsive design es la implementación recomendada por Google para mobile-friendliness. Alternativas obsoletas: mobile subdomain (m.sitio.com, requiere canonical/alternate complejo) o dynamic serving (HTML diferente según device, complejo de mantener). Responsive simplifica: una sola codebase, una URL, sin duplicación de contenido, facilita mantenimiento. Con mobile-first indexing, responsive es prácticamente obligatorio.
Ventajas:
- Una URL para todos: ejemplo.com/producto (no m.ejemplo.com/producto)
- Google rastrea una vez, indexa una versión
- Sin canonical/alternate tags complejos
- Backlinks benefician una URL (no dispersos entre desktop/mobile)
- Mantenimiento simple (actualizas una vez)
Resultado Mobile-Friendly Test: «Página compatible con dispositivos móviles» ✓
Conceptos relacionados: Mobile-first indexing, Mobile SEO, UX, CSS media queries, Diseño web
AMP (Accelerated Mobile Pages)
Definición: AMP (Páginas Móviles Aceleradas) es un framework de código abierto desarrollado por Google que crea versiones ultra-rápidas de páginas web para móvil mediante HTML simplificado, JavaScript limitado y caché de Google. Las páginas AMP cargan casi instantáneamente (típicamente <1 segundo) y se identifican con ⚡ en SERPs móviles.
Por qué importa: AMP fue crítico para SEO de noticias/publishers 2016-2021 (requisito para Top Stories carousel). Pero su importancia ha declinado: Google eliminó AMP como requisito para Top Stories (2021), Page Experience/Core Web Vitals priorizan velocidad independiente de tecnología. Hoy, AMP es opcional: útil para publishers que buscan velocidad extrema, pero no obligatorio. Muchos sitios migraron de AMP a páginas rápidas normales.
Ejemplo práctico – Decisión AMP: Publisher de noticias:
Opción A: Implementar AMP
- Pros: Velocidad garantizada (<1s), caché Google gratis, icono ⚡ en SERPs
- Contras: Funcionalidad limitada (JS restringido), monetización reducida (menos ads), mantenimiento dual (versión AMP + normal), Google controla experiencia
Opción B: Optimizar páginas normales (no-AMP)
- Pros: Control total diseño/funcionalidad, monetización completa, una codebase
- Contras: Requiere optimización agresiva para competir con velocidad AMP
Decisión 2024: La mayoría de publishers grandes (The Guardian, NYT) optimizaron versiones normales y descontinuaron AMP. Core Web Vitals reemplazó AMP como señal de velocidad.
Resultado: Con optimización (lazy loading, CDN, código ligero), páginas normales alcanzan LCP <2.5s, competitivo con AMP sin limitaciones.
Conceptos relacionados: Velocidad de carga, Mobile-first indexing, Core Web Vitals, Page Experience
HTTPS
Definición: HTTPS (Hypertext Transfer Protocol Secure) es la versión segura de HTTP que encripta la comunicación entre navegador y servidor web mediante certificado SSL/TLS. URLs HTTPS comienzan con https:// y muestran candado 🔒 en navegador. La encriptación protege datos sensibles (contraseñas, tarjetas crédito, información personal) de interceptación.
Por qué importa: HTTPS es factor de ranking confirmado desde 2014 y señal de confianza crítica. Chrome marca sitios HTTP como «No seguro», asustando usuarios. HTTPS es requisito para: Progressive Web Apps, HTTP/2 (protocolo más rápido), Geolocation API, Service Workers. Desde 2018, Chrome bloquea formularios HTTP. Migrar HTTP → HTTPS es obligatorio, no opcional. Impacto ranking es menor pero conversión/confianza son masivas.
Ejemplo práctico – Migración HTTP a HTTPS: Antes (HTTP):
- URL: http://tienda.com
- Navegador: «No seguro» en rojo
- Conversión checkout: 2.1% (usuarios desconfían introducir tarjeta)
- Ranking: Penalización menor vs competidores HTTPS
Proceso migración:
- Adquirir certificado SSL: Let’s Encrypt (gratis) o comercial (€50-200/año)
- Instalar en servidor: Configurar Apache/Nginx con SSL
- Actualizar URLs internas: Cambiar enlaces internos a HTTPS
- Redirect 301: Toda URL HTTP → HTTPS equivalente
- Update Google Search Console: Añadir propiedad HTTPS, submit sitemap HTTPS
- Canonical tags: Actualizar a HTTPS
- HSTS: Implementar HTTP Strict Transport Security (fuerza HTTPS siempre)
Después (HTTPS):
- URL: https://tienda.com
- Navegador: Candado 🔒 verde «Conexión segura»
- Conversión checkout: 3.4% (+62%, usuarios confían)
- Ranking: Paridad con competidores, ventaja vs HTTP
Inversión: Certificado €0 (Let’s Encrypt), implementación €500 (técnico) ROI: +62% conversión = +€18K/mes, ROI infinito primer mes
Conceptos relacionados: Certificado SSL, Seguridad web, Confianza, Redirect 301, Ranking factors
Certificado SSL
Definición: Un certificado SSL (Secure Sockets Layer, ahora TLS – Transport Layer Security) es un certificado digital que autentica la identidad de un sitio web y encripta información enviada al servidor usando criptografía SSL/TLS. Tipos: Domain Validation (DV) (valida dominio, gratis/barato), Organization Validation (OV) (valida organización), Extended Validation (EV) (máxima validación, muestra nombre empresa en barra navegador).
Por qué importa: El certificado SSL es requisito técnico para HTTPS. Sin certificado válido, navegadores bloquean el sitio o muestran warnings aterradores («Su conexión no es privada», pantalla roja). Certificados expirados = sitio inaccesible hasta renovación. Let’s Encrypt democratizó SSL: certificados DV gratis con renovación automática, eliminando excusas para no usar HTTPS.
Ejemplo práctico – Tipos de certificado: Blog personal:
- Necesidad: Básica (no procesa pagos)
- Certificado: Let’s Encrypt DV (gratis)
- Validación: Automática, renovación cada 90 días
- Navegador muestra: 🔒 Conexión segura
Ecommerce pequeño:
- Necesidad: Media (procesa pagos)
- Certificado: Comodo PositiveSSL (€50/año)
- Validación: Domain Validation
- Navegador muestra: 🔒 Conexión segura
Banco online:
- Necesidad: Máxima (datos financieros sensibles)
- Certificado: DigiCert EV (€300+/año)
- Validación: Extended Validation (verificación legal empresa)
- Navegador muestra: 🔒 [Nombre Banco SA] (nombre empresa visible)
Recomendación 2024: DV de Let’s Encrypt es suficiente para 95% de sitios. EV ya no muestra nombre en barra en Chrome (2019), reduciendo su valor.
Conceptos relacionados: HTTPS, Seguridad web, Encriptación, TLS, Let’s Encrypt
Redirect 301
Definición: Un redirect 301 (redirección permanente) es una instrucción del servidor que indica que una URL se ha movido permanentemente a otra ubicación. Cuando usuario o Googlebot accede a URL antigua, el servidor responde con código HTTP 301 y redirecciona automáticamente a nueva URL. Google transfiere ~90-99% del linkjuice/autoridad a la URL destino.
Por qué importa: Los redirects 301 preservan valor SEO cuando: cambias estructura URLs, migras a nuevo dominio, eliminas páginas (rediriges a alternativa relevante), consolidas contenido duplicado, migras HTTP → HTTPS. Sin redirect 301, URLs antiguas devuelven error 404, pierdes backlinks/autoridad, usuario encuentra página muerta. Redirect 302 (temporal) NO transfiere autoridad completamente, usa 301 para cambios permanentes.
Ejemplo práctico – Casos de uso redirect 301: 1. Cambio estructura URL:
URL antigua: ejemplo.com/producto.php?id=234
URL nueva: ejemplo.com/zapatillas-nike-air-max
Redirect: 301 permanente de antigua → nueva
- Migración de dominio:
Dominio antiguo: tienda-vieja.com
Dominio nuevo: tienda-nueva.com
Acción: 301 de TODAS las URLs antiguas a equivalentes nuevas
tienda-vieja.com/producto-1 → tienda-nueva.com/producto-1
tienda-vieja.com/blog/post-5 → tienda-nueva.com/blog/post-5
- Consolidación contenido duplicado:
5 artículos similares sobre «consejos SEO»:
– ejemplo.com/10-consejos-seo
– ejemplo.com/consejos-seo-basicos
– ejemplo.com/tips-seo
– ejemplo.com/guia-seo-principiantes
– ejemplo.com/seo-para-novatos
Acción: Crear un artículo definitivo, redirect 301 los 5 a este
Resultado: Autoridad de 5 páginas concentrada en 1
Implementación (Apache .htaccess):
Redirect 301 /producto-viejo https://ejemplo.com/producto-nuevo
Redirect 301 /blog/post-antiguo https://ejemplo.com/blog/post-actualizado
Conceptos relacionados: Error 404, Redirect 302, Linkjuice, Migración de sitio, SEO técnico
Error 404
Definición: Un error 404 (Not Found) es el código de estado HTTP que indica que el servidor no encontró la página solicitada. Aparece cuando: URL fue eliminada, URL tiene typo, página nunca existió, archivo movido sin redirect. El servidor responde «404 Not Found» y típicamente muestra página de error personalizable.
Por qué importa: Los errores 404 perjudican UX (usuario frustra, abandona) y desperdicician oportunidades SEO (backlinks a páginas 404 no transfieren valor, Googlebot desperdicia crawl budget rastreando 404s). Algunos 404s son normales (usuario teclea URL inventada), pero páginas con backlinks o tráfico histórico que devuelven 404 necesitan redirect 301 a contenido relevante. Monitorizar 404s en Google Search Console es crítico.
Conceptos relacionados: Redirect 301, Códigos HTTP, Crawl budget, UX, Backlinks
Canonical tag
Definición: El canonical tag es una etiqueta HTML (<link rel=»canonical» href=»URL»>) que indica a Google cuál es la versión preferida (canónica) de una página cuando existen múltiples URLs con contenido idéntico o muy similar. Google concentrará señales de ranking (backlinks, autoridad) en la URL canónica e ignorará duplicados.
Por qué importa: El canonical resuelve duplicación de contenido sin eliminar páginas: ecommerce con variantes (talla/color), contenido accesible vía múltiples URLs (filtros, parámetros, sesiones), versiones AMP/mobile, contenido sindicado. Sin canonicals, Google elige arbitrariamente qué versión rankear (puede elegir la incorrecta) o penaliza por duplicación. Canonicals son autorreferenciales (página apunta a sí misma) y cruzados (página A apunta a B como canónica).
Conceptos relacionados: Contenido duplicado, Redirect 301, Parámetros URL, SEO técnico
Hreflang
Definición: Hreflang es una etiqueta HTML (<link rel=»alternate» hreflang=»x» href=»URL»>) que indica a Google qué versión de una página mostrar según el idioma/ubicación del usuario. Esencial para sitios multiidioma o multirregión: le dice a Google «para usuarios en España, muestra versión ES; para usuarios en México, muestra versión MX; para usuarios angloparlantes, muestra versión EN».
Por qué importa: Sin hreflang, Google adivina qué versión mostrar basándose en IP usuario, configuración navegador, contenido de la página (impreciso). Esto causa: usuarios españoles viendo versión UK, contenido duplicado entre idiomas/regiones sin clara diferenciación, canibalización internacional (versión UK rankeando en España). Hreflang resuelve esto, crítico para ecommerce/empresas multinacionales.
Ejemplo práctico – Implementación hreflang: Sitio global con 3 versiones:
- España (español): ejemplo.com/es/
- México (español): ejemplo.com/mx/
- USA (inglés): ejemplo.com/en/
En página producto España (ejemplo.com/es/zapatillas):
<link rel=»alternate» hreflang=»es-ES» href=»https://ejemplo.com/es/zapatillas» />
<link rel=»alternate» hreflang=»es-MX» href=»https://ejemplo.com/mx/zapatillas» />
<link rel=»alternate» hreflang=»en-US» href=»https://ejemplo.com/en/sneakers» />
<link rel=»alternate» hreflang=»x-default» href=»https://ejemplo.com/en/sneakers» />
En página México (ejemplo.com/mx/zapatillas):
<link rel=»alternate» hreflang=»es-ES» href=»https://ejemplo.com/es/zapatillas» />
<link rel=»alternate» hreflang=»es-MX» href=»https://ejemplo.com/mx/zapatillas» />
<link rel=»alternate» hreflang=»en-US» href=»https://ejemplo.com/en/sneakers» />
<link rel=»alternate» hreflang=»x-default» href=»https://ejemplo.com/en/sneakers» />
Resultado:
- Usuario en España busca «zapatillas» → Google muestra ejemplo.com/es/zapatillas
- Usuario en México busca «zapatillas» → Google muestra ejemplo.com/mx/zapatillas
- Usuario en USA busca «sneakers» → Google muestra ejemplo.com/en/sneakers
- Sin canibalización entre versiones
Conceptos relacionados: Sitios multiidioma, SEO internacional, Contenido duplicado, Targeting geográfico
Renderizado
Definición: El renderizado es el proceso mediante el cual un navegador (o Googlebot) convierte código HTML, CSS y JavaScript en la página visual que ve el usuario. Existen tres tipos: Client-Side Rendering (CSR) (JavaScript ejecutado en navegador construye página), Server-Side Rendering (SSR) (servidor genera HTML completo antes de enviar), Static Site Generation (SSG) (HTML pregenerado en build time).
Por qué importa: Googlebot ejecuta JavaScript pero con limitaciones (timeout, recursos limitados). Sitios CSR puros (React/Angular/Vue sin SSR) pueden tener contenido crítico que Googlebot no renderiza correctamente → no indexa. Google rastrea en dos fases: HTML inicial, luego JavaScript (días después). Contenido solo visible post-JavaScript puede indexarse tarde o nunca. SSR/SSG garantizan contenido visible inmediatamente.
Conceptos relacionados: JavaScript SEO, Crawling, Indexación, React/Vue/Angular, SSR
JavaScript SEO
Definición: JavaScript SEO es el conjunto de prácticas para garantizar que sitios web que dependen de JavaScript (frameworks como React, Vue, Angular, Next.js) sean rastreables, indexables y rankeables por Google. Incluye: implementar SSR/SSG, optimizar renderizado, asegurar que contenido crítico esté en HTML inicial, evitar bloqueadores de JavaScript, testing con herramientas de renderizado.
Por qué importa: El 60%+ de sitios modernos usan JavaScript frameworks. Google mejoró renderizado JavaScript pero aún tiene limitaciones: delay en indexación (renderiza después del primer rastreo), timeouts (JavaScript complejo puede no completar), recursos limitados. Sitios JavaScript mal optimizados pierden 30-70% de potencial SEO vs implementación correcta.
Conceptos relacionados: Renderizado, SSR, Indexación, React/Angular/Vue, SEO técnico
Lazy loading
Definición: Lazy loading (carga diferida) es la técnica de retrasar la carga de recursos no críticos (imágenes, videos, iframes, JavaScript) hasta que sean necesarios, típicamente cuando el usuario hace scroll y el elemento entra en viewport. Mejora velocidad inicial: en lugar de cargar 50 imágenes inmediatamente, carga solo las 3 visibles above-the-fold.
Por qué importa: Lazy loading impacta masivamente Core Web Vitals, especialmente LCP y FCP. Reduce peso inicial de página 50-80%, acelera tiempo de carga, ahorra ancho de banda móvil. Google soporta lazy loading nativamente (<img loading=»lazy»>). Pero mal implementado, lazy loading puede perjudicar SEO: contenido lazy-loaded puede no indexarse si Googlebot no espera/scrollea. Solución: lazy load solo below-the-fold, contenido crítico sin lazy load.
Conceptos relacionados: Core Web Vitals, LCP, Velocidad de carga, Optimización de imágenes, JavaScript
SEO local
SEO local
Definición: El SEO local es la optimización para aparecer en resultados de búsqueda con intención local, especialmente en el Local Pack (mapa + 3 resultados) de Google Maps. Factores clave: Google Business Profile optimizado, reseñas, citas locales (menciones NAP), keywords con modificador geográfico, proximidad física del negocio al usuario, señales de comportamiento (clicks-to-call, directions).
Por qué importa: El 46% de búsquedas Google tienen intención local («restaurante cerca», «fontanero Sevilla», «dentista abierto ahora»). El 76% de búsquedas locales en móvil resultan en visita física en 24h. El Local Pack captura 44% de clics en búsquedas locales. Para negocios físicos (restaurantes, servicios, retail), SEO local es más valioso que SEO orgánico tradicional: un lead local tiene intención de compra inmediata.
Ejemplo práctico – Diferencia SEO local vs orgánico: Query: «abogado laboral Madrid»
SERP muestra:
- Local Pack (Google Maps):
- Bufete García ⭐⭐⭐⭐⭐ 4.9 (87 reseñas)
- López & Asociados ⭐⭐⭐⭐ 4.6 (124 reseñas)
- Despacho Martínez ⭐⭐⭐⭐⭐ 4.8 (56 reseñas)
- Resultados orgánicos debajo:
- Posición #1: Guía «Cómo elegir abogado laboral»
- Posición #2: Directorio abogados
- Posición #3: Página servicio bufete (SEO orgánico)
Observación: Local Pack (3 resultados) ocupa 60% pantalla móvil, captura mayoría de clics. Posición orgánica #1 está «debajo del pliegue».
Para bufete local, prioridad:
- SEO local (aparecer en Local Pack) > 2. SEO orgánico (aparecer en top 3)
Conceptos relacionados: Google Business Profile, Local Pack, Reseñas, Citas locales, NAP
Google My Business (Google Business Profile)
Definición: Google Business Profile (anteriormente Google My Business) es la ficha gratuita de negocio en Google que aparece en Google Maps y búsquedas locales. Incluye: nombre negocio, dirección, teléfono, horario, categoría, fotos, reseñas, posts, servicios, atributos (wifi, accesible silla ruedas, etc.). Es el factor #1 de SEO local.
Por qué importa: Sin perfil Google Business optimizado, eres invisible en búsquedas locales. El perfil determina si apareces en Local Pack (top 3 resultados mapa). Factores de ranking GBP: relevancia (categoría correcta, descripción con keywords), distancia (proximidad al usuario), prominencia (reseñas, fotos, completitud perfil). Un perfil 100% completo con 50+ reseñas 4.5★ domina Local Pack vs competidores con perfil básico.
Ejemplo práctico – Optimización Google Business Profile: Perfil básico (poco efectivo):
- Nombre: «Restaurante Luigi»
- Categoría: Restaurante
- Horario: Incompleto
- Fotos: 3 (fachada)
- Reseñas: 8 (promedio 3.9★)
- Descripción: «Restaurante italiano»
- Posts: Ninguno
- Resultado: Posición Local Pack: #8 (no visible en top 3)
Perfil optimizado:
- Nombre: «Restaurante Luigi – Cocina Italiana Tradicional»
- Categoría primaria: Restaurante italiano
- Categorías secundarias: Pizzería, Restaurante pasta
- Horario: Completo + horarios especiales festivos
- Dirección: Verificada con código postal
- Teléfono: Verificado, click-to-call habilitado
- Website: URL tracking para medir conversiones
- Fotos: 85 (interior, platos, equipo, eventos)
- Reseñas: 127 (promedio 4.7★, respuesta a 100%)
- Descripción optimizada: «Restaurante italiano en el centro de Sevilla. Especialistas en pasta fresca artesanal y pizza napolitana en horno de leña. Ingredientes importados directamente de Italia. Reservas disponibles. Terraza exterior.»
- Atributos: Terraza exterior, Accesible silla ruedas, Wifi gratis, Acepta tarjetas
- Posts: 2-3/semana (platos especiales, eventos, ofertas)
- Preguntas y respuestas: 24 respondidas
- Productos: Menú completo con fotos y precios
Resultado: Posición Local Pack: #2, tráfico foot +140%, llamadas +220%
Conceptos relacionados: SEO local, Local Pack, Reseñas Google, NAP, Maps
Citas locales
Definición: Las citas locales (local citations) son menciones del NAP (Name, Address, Phone) de un negocio en sitios web externos: directorios locales (Páginas Amarillas, Yelp, Foursquare), medios locales, cámaras de comercio, asociaciones industria, blogs locales. Pueden incluir enlace al sitio (estructurada) o solo mención texto (no estructurada).
Por qué importa: Las citas locales son factor de ranking para Local Pack: validan la existencia del negocio, aumentan visibilidad online, construyen autoridad local. Google cruza datos: si 50 sitios mencionan «Fontanero García – Calle Mayor 15 – Sevilla», confirma que es negocio legítimo. Cantidad importa (más citas = mejor), pero consistencia y calidad importan más (citas en sitios relevantes/locales con NAP exacto).
Conceptos relacionados: NAP, SEO local, Directorios, Link building local, Google Business Profile
NAP (Name, Address, Phone)
Definición: NAP es el acrónimo de Name (nombre del negocio), Address (dirección física completa) y Phone (número de teléfono). La consistencia NAP significa que estos tres datos aparecen idénticamente en: Google Business Profile, website, directorios locales, redes sociales, citas locales. Inconsistencias (variaciones de nombre, direcciones diferentes, múltiples teléfonos) confunden a Google y perjudican SEO local.
Por qué importa: Google usa NAP para validar la existencia y legitimidad de un negocio local. Inconsistencias NAP envían señales contradictorias: ¿es «Restaurante Luigi» o «Luigi’s Restaurant»? ¿Dirección Calle Mayor 15 o C/ Mayor, 15? Google no puede verificar con certeza → reduce confianza → peor ranking local. Consistencia NAP es señal de negocio legítimo, establecido, confiable.
Ejemplo práctico – Impacto de inconsistencia NAP: Negocio: «Clínica Dental Sevilla Norte»
Inconsistencias detectadas:
- Google Business Profile: «Clínica Dental Sevilla Norte»
- Website: «Sevilla Norte – Clínica Dental»
- Facebook: «Clínica Dental del Norte (Sevilla)»
- Directorio médico: «Clínica Dental SN»
- Yelp: «Dental Sevilla Norte Clinic»
Dirección:
- GBP: «Av. de la Innovación, 7, 41020 Sevilla»
- Website: «Avenida Innovación 7, Sevilla»
- Facebook: «Av. Innovación num 7, 41020»
Teléfono:
- GBP: +34 954 123 456
- Website: 954123456 (sin código país/formateo)
- Facebook: +34-954-12-34-56
Problema: Google no puede confirmar que todas las menciones son del mismo negocio.
Solución – Estandarización NAP:
FORMATO ESTÁNDAR (usar idénticamente en TODAS las plataformas):
Nombre: Clínica Dental Sevilla Norte
Dirección: Avenida de la Innovación, 7, 41020 Sevilla, España
Teléfono: +34 954 123 456
Acción: Actualizar en 47 plataformas (GBP, web, Facebook, Instagram, directorios médicos, Yelp, Foursquare, etc.)
Resultado (8 semanas post-corrección):
- Posición Local Pack «dentista Sevilla norte»: #7 → #3
- Apariciones Google Maps: +85%
- Llamadas desde GBP: +60%
Conceptos relacionados: SEO local, Google Business Profile, Citas locales, Consistencia de datos
Pack local (Local Pack)
Definición: El Local Pack (también llamado Map Pack o 3-Pack) es el bloque de resultados destacado que Google muestra en búsquedas con intención local, consistente en: mapa interactivo + 3 resultados de negocios con nombre, rating estrellas, número de reseñas, dirección, horario, foto. Aparece típicamente encima de resultados orgánicos tradicionales.
Por qué importa: El Local Pack domina visibilidad en búsquedas locales: ocupa 50-70% de pantalla móvil, captura 44% de clics totales, está literalmente encima de posición orgánica #1. Para negocios locales, aparecer en Local Pack (top 3) es exponencialmente más valioso que rankear #1 en orgánico. Factores de ranking: relevancia (GBP optimizado), distancia (proximidad a usuario), prominencia (reseñas, engagement, autoridad).
Conceptos relacionados: SEO local, Google Business Profile, Reseñas, Proximidad, CTR local
Reseñas online
Definición: Las reseñas online (reviews) son valoraciones y comentarios que clientes dejan sobre un negocio en plataformas como Google, Facebook, TripAdvisor, Yelp, Trustpilot. Incluyen: rating de estrellas (1-5), texto descriptivo, fotos opcionales, respuesta del negocio. Para SEO local, reseñas Google Business Profile son las más influyentes.
Por qué importa: Las reseñas son factor top 3 de ranking Local Pack: influyen directamente en posición (cantidad + calidad + frescura), impactan CTR (usuarios eligen negocios 4.5+★ vs 3.8★), generan confianza (88% usuarios confían en reseñas tanto como recomendaciones personales). Responder reseñas (positivas y negativas) mejora ranking y demuestra customer care. Solicitar reseñas activamente es legal si no incentivas, compras o filtras negativas.
Conceptos relacionados: Google Business Profile, SEO local, Local Pack, Reputación online, Customer engagement











