80 Pasos para hacer una auditoria SEO

que es y como hacer una auditoria seo de tu web

A la hora de enfrentarte a un proyecto web, sea tuyo o de un cliente, uno de los principales y primeros pasos que tendrás que realizar es una auditoria SEO.

¿Por qué? Puede ser que quieras comenzar un negocio por tu cuenta, que ya lo tengas, que necesites optimizar la web de un cliente o incluso que simplemente tengas un blog en el que escribas por afición. Pero al final, todos ellos tienen algo en común: la necesidad de ser vistos y leídos por alguien.

Y es aquí donde entra en juego realizar una auditoria seo de la web.

Índice del artículo

¿Qué es una auditoria SEO?

Una auditoria seo es, por describirlo de forma sencilla, la comprobación de una serie de puntos o medidas para certificar que la web cumple con los estándares y recomendaciones de nuestro vecino y amigo Google, así como con las expectativas de los usuarios que visitan tu sitio.

Durante este análisis web se comprueban desde elementos técnicos que van a depender, en cierta medida, del CMS o tipo de web que tienes y sus plugins, como otros elementos que pueden ser la interacción de los usuarios con tu web, las conversiones que realizas e incluso si el diseño es feo o poco amigable.

Entender todos estos factores de posicionamiento, saber si están bien o mal implementados (o directamente no se encuentran) y saberlos corregir, es imprescindible para empezar a ganar visibilidad, visitas y, posteriormente conversiones (ventas).

Pero antes de nada…

¿Cuales son los factores que se comprueban durante una auditoria seo?

En general, han de comprobarse aproximadamente unos 80 factores seo para cada web que trabajes. Describirlos todos en un solo artículo es imposible, pero si te hablaré de los más importantes y que herramientas seo puedes utilizar para comprobarlos.

El tiempo que tardes en realizar una auditoria web va a variar en cada caso, y si trabajas para clientes, es algo que tendrán que entender. Un proyecto pequeño puedes analizarlo en un par de horas con herramientas gratis. Sin embargo, para una web gigante, necesitarás herramientas de pago y varios días, o incluso semanas, para entender que ocurre y como funciona todo el proyecto.

Generalmente, los factores de posicionamiento seo se pueden dividir en hasta 9 tipos:

  1. Contenidos
  2. Dominio
  3. Off-page
  4. Hosting
  5. Indexación
  6. On-page
  7. Palabras clave
  8. SEO Local
  9. Usuario

infografia auditoria seo factores

Ahora sí. Ya que sabes que puntos son, empezaré a explicártelos uno a uno.

Auditoria seo de contenidos

En la auditoria de contenidos se comprueban todos las páginas, entradas, artículos de blog, productos, etc… que tiene la web. El objetivo de esta auditoria es detectar problemas que impidan, por un lado, que esa página esté posicionamiento mejor en Google, y por otro, posibles problemas que echen atrás al cliente a la hora de realizar una conversión.

Por ejemplo, problemas técnicos que impidan comprar un producto, no dar la suficiente confianza como para que el usuario se decida a rellenar un formulario, o simplemente, que el contenido sea tan malo que no quieran ni compartir tu página en las redes sociales.

Jerarquía de los encabezados HTML

El uso de los encabezados h1, h2, h3… de HTML son imprescindibles para que Google entienda mejor tu página y posicione tus palabras clave en su buscador.

Los fallos más frecuentes que puedes encontrar aquí son:

Falta el encabezado h1 o bien hay varios de ellos

El mítico y más importante. Tu palabra clave principal debe encontrarse dentro de una etiqueta h1 para que Google le de mayor relevancia y la posicione mejor. Evidentemente, si no hay encabezado h1 en tu web, tienes un problema.

Otro error bastante común es el contrario, ¡la existencia de varios h1!. Aunque HTML5 acepta está opción, no es recomendable usarla a nivel SEO.

¿Como puedes detectar este problema? La forma más rápida y barata es utilizando la herramienta Screaming Frog SEO Spider.

Si lo necesitas, visita mi artículo tutorial de Screaming Frog

La jerarquía de los encabezados no se respeta

Este es el error que yo, personalmente, más he encontrado. Se produce cuando al haber redactado un artículo, producto, etc, tienes el h1 pero seguidamente usas un h3, h4 u otra etiqueta que no sea h2.

La jerarquía de los encabezados ha de respetarse no como una directriz de SEO, si no por las propias directrices de uso de HTML.

Si quieres utilizar un h4 en tu artículo, has de tener un h3, que a su vez cuelgue de un h2, y que a su vez esté debajo del h1. Esto también significa que no puedes poner un h2 encima de tu h1.

Para comprobar la jerarquía de los encabezados yo uso la app de chrome Portent’s SEO. Es muy intuitiva y fácil de usar. Aquí tienes un ejemplo de un producto de un ecommerce para mascotas:

ejemplo portents seo

El h1 se encuentra en el logotipo de tu plantilla

Misterioso, pero cierto. Hay que tener en cuenta que muchos diseñadores web no tienen conocimientos de SEO, y que a la hora de crear sus plantillas para posteriormente venderlas, van acumulando errores SEO. Estos errores hacen que la plantilla, por muy bonita que sea, no se sirva de nada a ojos de Google.

También puedes usar Portent’s SEO para comprobar este punto.

En el caso de que vayas a contratar un servicio de diseño web, mi consejo es que no escatimes en gastos. Cúrate en salud y contrata también el servicio de seo básico. Es la única manera de asegurarte que la web esté optimizada para empezar a posicionar en Google.

Canibalización

La canibalización se produce cuando tienes 2 páginas que posicionan exactamente para la misma consulta. Pongamos un ejemplo:

Para la búsqueda «seguro de salud» aparecen dos páginas de Acierto, mientras que para la búsqueda «seguro medico» aparecen 2 de Acierto y otros 2 de Sanitas.

ejemplo canibalizacion

Seguro que te estarás preguntando: ¿Pero Abraham, cuál es el problema?

El problema reside en que Google distribuye en la búsqueda la autoridad de tu página entre los dos resultados. Si, tienes dos resultados en posición 4 y 5 para la búsqueda «seguro de salud», pero si hubiera solo 1, posiblemente estaría en la posición 2 ó 3. Y para los resultados de «seguro medico», igual.

Las canibalizaciones son un problema cuando, en los resultados de búsqueda, al menos una de tus páginas no se encuentra en la primera posición.

Si una de tus páginas tiene la primera posición y aparte estás posicionando 1 o más por la misma palabra clave, estudia el resto de páginas porque a lo mejor si puedes mantenerlas y ocupar varias posiciones en la primera página de Google.

Un ejemplo sería el siguiente:

ejemplo canibalizacion buena

¿Cómo puedes detectar problemas de canibalización?

Existen herramientas que te permiten detectarlo, como por ejemplo DinoRank o SEObox Rankbox.

La opción manual y gratis es buscar en Google tu palabra clave e ir revisando todos los resultados hasta dar con una 2º o más páginas tuyas.

Contenido duplicado

El contenido duplicado está estrechamente relacionado con las canibalizaciones, puesto que son estas duplicidades las que provocan la canibalización.

Estos problemas suelen aparecer por 2 motivos:

  1. Tu página tiene muy poco contenido en texto. También llamado «baja relación texto/html-javascript». El código HTML y Javascript suele ser común en toda la web, por lo tanto es un contenido «duplicado». Para evitar que Google lo considere así, hay que subir la proporción de texto para que Google sea capaz de leer más «contenido original» que duplicado.
  2. Tienes varias páginas que intentan posicionarse por las mismas palabras clave, independientemente de que todas tengan mucho contenido original. Al final, Google no sabe cual de ellas «rankear» y acaban peleandose entre ellas (canibalización).

Puedes utilizar la web Siteliner para descubrir el contenido duplicado de tu web producido por el primer motivo. Aquí te dejo un ejemplo de como indica Siteliner cuantas páginas duplicadas tiene esta web.

ejemplo contenido duplicado

Entonces, ¿cómo se pueden arreglar los problemas de contenido duplicado?

Existen varias opciones:

  1. En el caso de que el problema sea poco contenido en texto, la solución es fácil: hacer un texto único y original para cada página.
  2. Utilizar un rel=canonical del contenido duplicado al original, y rezar. Si, rezar, puesto que esta directiva es solo una «recomendación» y 3/4 de las veces que la usas, Google no le hace caso.
  3. Eliminar el contenido menos valioso o duplicado, y realizar una redirección 301 al original. Esta es la opción más habitual.
  4. Poner el contenido duplicado como no indexable. Esta opción se puede utilizar si la página es necesaria porque tiene una información imprescindible de tu web, que no puedes borrar, pero tampoco quieres indexar.

Generalmente, al solucionar los problemas de contenido duplicado, las canibalizaciones van desapareciendo poco a poco de los resultados de Google mientras que el original sube posiciones.

Sin embargo, hay otro tipo de contenido duplicado que no se encuentra dentro de tu web, si no fuera, en otras webs.

Contenido copiado o denunciado a DMCA

El contenido «copiado» puedes descubrirlo usando Copyscape y se produce cuando:

  1. Tu, o alguien que ha escrito un artículo para tu web, habéis copiado una gran cantidad de texto de otra web. No hablo de una pequeña cita o reseña de otro artículo, si no de grandes cantidades de texto respecto al contenido original.
  2. Alguien ha copiado el contenido de tu web y, posiblemente, incluso a lo mejor lo ha indexado en Google antes que tu.

Si el problema es que tu web tiene ese «contenido copiado», puedes realizar cualquiera de las soluciones propuestas para el contenido duplicado del apartado anterior. Desde crear más texto original alrededor del copiado para disminuir su proporción, hasta eliminarlo por completo de tu web.

Por supuesto, cuando hablo de mantener ese contenido copiado es haciendo una referencia a su creador y siempre con su permiso, ya que en caso contrario, puedes acabar denunciado por la DMCA.

Sin embargo, ¿qué pasa si es a ti a quien te han copiado el contenido?

Lo más habitual es ponerte en contacto con esa persona y solicitarle amablemente que lo elimine. O bien, si te interesa, que ponga una referencia o enlace a tu web.

A veces esto no funcionará, así que puedes tirar por el segundo camino: quejarte a través de las redes sociales del plagiador e intentar que el alcance sea el mayor posible.

Calidad de los textos

Si tus textos de tu web están mal redactados, tienen erratas, faltas de ortografía o incluso se nota a legua que lo único que quieres es vender, vender y vender, ¿quién te va a tomar en serio?.

Este tipo de contenidos de baja calidad pueden generar dos problemas en tu web:

  1. Como el contenido es tan malo, lo más probable es que los rebotes de los usuarios sean altos, las sesiones duren poco tiempo y además, los usuarios tampoco visitan otras páginas de tu web. Estos datos puedes comprobarlos con Google Analytics y son un factor de posicionamiento del que te hablaré en el punto de «factores de usuario» al final de esta guía.
  2. Evidentemente, habrá otro problema adicional a nivel de conversiones. Por mucho que te lo curres y que estés top 1 en Google, Bing, Yahoo y otros 7 buscadores, si tu web no convierte a los usuarios en posibles clientes, tienes un problema.

A la hora de solucionar este tipo de problemas, la dificultad se encuentra en la cantidad de tiempo necesario en analizar todos los contenidos de una web y, posteriormente, el tiempo que necesite tu equipo o cliente en solucionarlos.

Otros factores que se tienen en cuenta al auditar los textos de una web

Generalmente, estos son los más importantes:

  1. El uso de CTAs o «call to actions» en el lugar y momento adecuado de tu web.
  2. Que tus encabezados estén bien posicionados y hagan fácil encontrar lo que el usuario busca.
  3. Destacar las palabras más relevantes con negrita o cursiva, ya que hoy en día «escaneamos» más que «leemos».
  4. Enlazar desde tus páginas a otros artículos que complementen su información.
  5. El correcto uso de las palabras clave, punto que analizaremos aparte más adelante en esta guía seo.
  6. No hablar de contenidos sexuales, juguetes eróticos o apuestas online en sitios para todos los públicos.

Actualización de los contenidos

Una parte relativamente sencilla. A Google le gustan los contenidos que se actualizan, por lo que es buena idea programar futuras modificaciones.

Generalmente, yo modifico los post cada entre 6 y 12 meses. No hace falta que rehagas el artículo entero, pero si puedes quitar partes que ya no sean válidas, modificadas o añadir contenidos nuevos.

Un consejo que puedo darte es que te hagas un excel con el título de tus artículos y las ideas que se te vayan ocurriendo sobre ellos a lo largo del tiempo. Cada vez que necesites hacer esta actualización, puedes mirar que has apuntado durante todos los meses anteriores.

Tamaño de los textos

Entendiendo como textos al contenido original y no duplicado de la web, existe una «regla» de hay que escribir mínimo 300 palabras.

Esta regla es totalmente falsa.

La cantidad de texto que deberás crear dependerá de tu contenido.

Algunas veces no es necesario escribir una sola palabra en tu artículo si con una imagen o un vídeo explicas exactamente lo mismo que otra persona en 10.000 palabras. Al final, para posicionar Google también usa los rebotes, duración de la sesión, páginas vistas, usuarios recurrentes… Y el mayor ejemplo del mundo lo tienes en… ¡Youtube!.

Esto no quiere decir que los documentales del canal History vayan a superar algún día a Wikipedia (¿o sí?). Pero en la mayoría de casos, una buena estrategia de contenidos afecta positivamente al SEO, aunque tengas menos palabras escritas que el resto.

Al final, y bajo mi experiencia, en el 99% de ocasiones es más útil y rentable para una empresa invertir en marketing de contenidos y copywriting que perder el tiempo escribiendo artículos tamaño Wikipedia.

En este caso, debes analizar los textos de la web y deducir si el contenido es mejorable mediante marketing de contenidos. Puedes sacar buenas ideas viendo que hace la competencia para ese mismo tipo de contenidos, y posteriormente hacer nuevos contenidos aún mejores.

Guest blogging de alta calidad

El guest blogging se refiere a esos contenidos creados por gente externa a tu web o la empresa del cliente, como por ejemplo colaboradores, amigos del mismo sector, etc…

Esta práctica es muy habitual dentro del mundo del SEO, ya que el autor invitado generalmente crea contenidos de alta calidad para el blog, a cambio de una mención o enlace que favorezca a su propio blog, redes sociales, marca personal, etc…

En este punto verificaremos si se ha estado realizando esta técnica, con quien y si siguen vigentes este tipo de acuerdos. Además, evidentemente, deberás revisar todos esos contenidos durante la auditoria para comprobar que tienen la calidad necesaria para permanecer en la web.

Existencia de datos de contacto y formularios

Generalmente, el principal objetivo de una web es adquirir suscriptores o clientes. ¿Cómo puedes lograrlo si la web no tiene datos de contacto o formularios?

En este punto deberás revisar que en la web aparecen formas de contacto y que sean claras y fáciles de encontrar, así como formularios de contacto y que estos funcionen correctamente.

Cuidado con abusar del uso de ambas cosas. Poner banners con tus formas de contacto en 7 puntos de cada una de tus páginas roza el spam.

Contenidos con vídeos

Como mencioné antes, el marketing de contenidos afecta positivamente al SEO. Dentro de marketing de contenidos, podemos considerar las imágenes, infografías, presentaciones, podcast… pero los que son especialmente útiles, son los vídeos.

El contenido en vídeo favorece que el usuario pase más tiempo en la página, disminuye drásticamente los rebotes y, lo que considero yo más importante, aumenta la sensación de satisfacción del usuario. Esto provoca que sea más susceptible a otros contenidos, a recordar tu marca, a volver a visitar tu web, e incluso a rellenar un formulario con sus datos personales para conseguir más contenidos tuyos.

Aunque este punto se centre en el contenido en vídeo, recuerda que el buen uso de imágenes, infografías, presentaciones, contenidos descargables, etc… en los artículos adecuados, puede conseguir los mismos efectos en tu web y para el usuario que un vídeo.

Buenas prácticas en la implementación de vídeos

Principalmente nos centramos en comprobar 3 cosas:

  1. El más importante de todos es que el vídeo se encuentre embebido en la web y no subido directamente a tu servidor o al de tu cliente. ¿Cual es la diferencia entre uno y otro? Un vídeo de Youtube embebido en una web carga directamente desde Youtube y no consume los recursos de tu servidor.
  2. Comprobamos que las etiquetas schema.org para vídeos se encuentran instaladas. Esto facilita que en ese artículo Google muestre un rich snippet especial con el vídeo, haciendo que la página resalte mucho más en los resultados de búsqueda que la competencia.
  3. Por último, revisamos ciertas configuraciones básicas, como por ejemplo que el vídeo no se auto-reproduzca cuando carga la web o, peor aún, que lo haga con el sonido activado.

Por último, y esta parte es común tanto si la web tiene vídeos o en su lugar tiene presentaciones, infografías, etc… también comprobamos que existen botones para compartir estos contenidos en las redes sociales, así como que funcionen correctamente y que se encuentren en los sitios adecuados de la web.

Auditoria seo del dominio

En esta parte de la auditoria seo verificamos que el dominio se encuentre sano y optimizado para los objetivos del proyecto. Utilizarás las herramientas principalmente para buscar en los entresijos del dominio, pero también deberás entrar a la web y revisar el contenido de las páginas para comprobar que esta libre de riesgos de ciertas penalizaciones.

¡Empecemos!

Penalizaciones por algoritmos Panda o Pingüino.

En primer lugar, definamos cuales son estos algoritmos y que «parte» controlan dentro del buscador de Google. Ante todo, has de tener presente que las penalizaciones pueden ser algoritmicas (debido a algoritmos automáticos) o manuales (debido un señor/a muy amable).

Panda

Generalmente, Panda es el algoritmo que se encarga de «comprobar» el contenido que tienen las páginas web. Si tu contenido es de mala calidad y no respeta las directrices de este algoritmo, puedes recibir una penalización automática que disminuya notablemente tu/s ranking.

Ten siempre en cuenta que una penalización puede afectar a una única url, a todo un directorio/categoría o a toda tu web en general.

Lo que se sabe hasta ahora es que Panda comprueba los siguiente puntos:

  • El contenido duplicado que hay en tu web.
  • Aquel contenido que tu has copiado de otra web.
  • Toda la parte de seo-on page que se encuentre duplicada: h1, meta-titles, meta-descripciones…
  • Contenidos no iguales, pero si excesivamente similares.
  • La respuesta negativa de los usuarios a tus contenidos: rebotes altos, baja duración de sesiones…

Ahora vamos con el Pinguinito.

Pingüino

Este algoritmo actúa al mismo tiempo que Panda, pero se encarga de comprobar todos los enlaces externos que vayan a tu web. Si Pingüino detecta un perfil extraño en tus enlaces, puede llegar a penalizarte por ello, con las mismas consecuencias que una penalización de Panda.

Actualmente se sabe que Pingüino actúa bajo las siguientes circunstancias:

  • Has abusado de comprar enlaces, especialmente de tipo follow y/o de webs de baja autoridad.
  • Te has pasado con el intercambio de enlaces entre amiguetes.
  • Ante un perfil de enlaces sospechoso, de diferentes dominios relacionados entre sí y que enlazan al tuyo (también llamado PBN).
  • Exceso de comentarios con enlaces desde tu web a otras páginas externas (puede considerarse spam).
  • Tienes un perfil de enlaces cargado de webs spam, de dudosa reputación, penalizadas por este mismo algoritmo, etc…

¿Como se verifica si un está dominio penalizado?

Deberás utilizar alguna herramienta de visualización de tráfico y que tenga datos históricos para comprobar que el dominio no se encuentra penalizado por una de estas razones. Una de las más utilizadas es Barracuda.

Esta herramienta se enlaza a tus cuentas de Google Analytics, para después mostrarte una gráfica del tráfico combinada con líneas de corte que representan todas las actualizaciones que Google ha realizado o se intuye que ha realizado.

Además, la herramienta es muy intuitiva porque dispone de una serie de filtros para que puedas elegir solo mostrar las actualizaciones de Panda, de Pingüino o de otro tipo.

Por otro lado, otras opciones son utilizar el propio Google Analytics, o las vistas de dominio de SEMRush o Ahrefs.

Es imprescindible realizar esta comprobación porque, una vez acabada nuestra auditoria seo, el camino a seguir será marcado de una forma u otra dependiendo de si se encuentra penalizada por uno de estos algoritmos o no. Si la web se encuentra penalizada, lo primero es conseguir quitarle esa penalización, aunque hay veces que es casi mejor hacer una web nueva con un dominio limpio.

Ejemplo de como detectar una web penalizada

A veces, darse cuenta es complicado. Sin embargo, tenemos pistas comunes a todos los casos que nos permiten deducir si una web se encuentra penalizada o no.

Generalmente, una penalización va acompañada de, obviamente, un bajón monumental de tráfico. En este ejemplo te muestro un histórico sacado con SEMRush de la web polizamedica.es. Esta web recibió una penalización de Panda en Enero de 2013, ¡y no consiguió empezar a salir de ella hasta mediados de 2016!
auditoria seo penalizaciones
Como puedes ver, estar al tanto de cuando se actualizan los algoritmos de Google es vital para tu estrategia seo, puesto que cuanto antes sepas que ha ocurrido y por qué, antes se le podrá dar una solución. Para mantenerte actualizado en cuanto a las actualizaciones de Google, puedes utilizar herramientas como SEMRush sensor. Esta herramienta te permitirá ver un histórico actualizado constantemente de las diferentes actualizaciones que hace Google.

Recuerda siempre que Google no notifica siempre sus actualizaciones, y menos aún dicen que han tocado exactamente dentro de su algoritmo. La mayoría de esas herramientas se basan en tendencias de cambios en los rankings de millones de webs al mismo tiempo.

Como detectar si la penalización que has sufrido es manual y no algorítmica

Si la penalización es manual y tienes una cuenta de Google Search Console vinculada a tu dominio, te llegará un correo electrónico informándote de lo que ha pasado. Dentro de Google Search Console, en el apartado «acciones manuales», tendrás una notificación con el tipo de penalización que sufre tu web.

Esto es una ventaja porque no perderás tiempo durante días hasta saber porque ha disminuido tu tráfico. El dolor será instantáneo. Sin embargo, ahora tendrás que vértelas con ese señor o señora, que no te quitará la penalización hasta que arregles todo el problema que lo haya causado, y siempre un poquito más.

Tipo de TLD del dominio

Las siglas TLD se refieren, del inglés, a top-level domain. En cristiano, a la extensión del dominio: .es, .com, .org, .online… etc, etc, etc…

Sin entrar en excesivos temas técnicos, lo que has de saber es que se usan 2 tipos de TLD:

  1. ccTLD: Estos son los geográficos, como por ejemplo .es que representa a España, .fr a Francia, .ru a Rusia… etc.
  2. gTLD: Todos los generales, como .com, .online, .edu, .gov, .org… etc.

¿Por qué saber esto es importante?

Tanto si vas a montar tu web ahora, como si ya la tienes, o si estás trabajando para un cliente, debes comprobar que el TLD se adecua a los objetivos que vaya a tener la web. Especialmente si es un negocio local, ya que los ccTLD (los regionales) posicionan mejor en sus respectivos países que los gTLD (los globales).

Por ejemplo. Esta web es un blog de marketing online sin ninguna intención de venta. Mi objetivo es ofrecer información a cualquiera que sepa Español. Me da igual si estas en España, en Latinoamérica o me lees desde la polinesia Francesa. Por tanto elegí el TLD global .com.

En cambio, si esta web fuera una tienda física (no online) de venta de tartas de chocolate en mi localidad, dentro de España, lo suyo sería que mi dominio fuera .es.

Dentro de los TLD globales no hay diferencias entre cual es mejor o peor para posicionar. A la hora de elegir, se suele recomendar el menos «raro». Para la gente es muy fácil recordar el TLD .com, pero otros como .online o .xyz son demasiado raros de ver y la gente no suele recordar estas extensiones.

¿Que pasa si tienes una web que vende en España y en el extranjero?

Este caso es típico en los pequeños ecommerce, pero responder depende del caso en específico.

  • Si vendes en España y aparte vendes al extranjero en general (seguramente a través del idioma Inglés): Lo suyo es que tengas en tu propiedad el .es y a la vez uno global, especialmente el .com, donde tengas la tienda en inglés.
  • Por otro lado, si vendes en España pero aparte en otro país, como por ejemplo Francia: El .es seguiría siendo necesario, pero en este caso yo también compraría el .fr y pondría la web en francés ahí. Aparte, tendría comprado y en reserva el .com por si acaso te expandes más en el futuro.

Si tu caso es uno de estos dos y estás pensando que tienes solo 1 web con multi-idioma (algo muy habitual), puedes tener todos los dominios redireccionados al principal. En ese caso yo tendría como principal el .com, aunque tus ventas principales estén en España.

Si te llega un cliente con un TLD mal elegido, tendrás que recomendarle que hacer en base a estos datos. Eso sí, muchas veces no merece la pena mover un proyecto ya montado, por ejemplo, de .com a .es. Si este es el caso, deja todo como está, la única diferencia es que en España te faltará ese puntito dentro de todo lo que es el seo.

Antigüedad y renovación del dominio

Quizás el punto más sencillo y corto de todo el apartado de auditoria de dominio.

Básicamente, cuanto más antiguo es el dominio, más fácil es que posicione para un contenido respecto a un dominio completamente nuevo. Descubrir la antigüedad de un dominio también es muy sencillo, ya que es un dato público. Solo tienes que utilizar cualquier buscador de WHOIS que encuentres en internet.

Respecto a la renovación del dominio, se sabe que Google da más preferencia a aquellos dominios comprados para muchos años (por ejemplo, 10 años), respecto a aquellos que tienen la renovación automática cada año.

Si tu proyecto o el de tu cliente va para largo lo más recomendable es que actualice la renovación a cada 5 ó 10 años.

Uso de palabras clave en el dominio

Otro punto sencillo. Antiguamente los dominios de palabra clave exacta rankeaban sí o sí los primeros. Hoy en día ya no se asegura el primer puesto, pero si que siguen teniendo algo más de fuerza que uno que no tenga palabras clave.

En este punto solo has de comprobar el nombre de dominio y, si tiene palabras clave, que búsquedas tiene y si está rankeando bien por ellas.

En el caso de que la web se encuentre en un subdominio (subdominio.dominio.com), puedes comprobar si también tiene palabras clave. Además, también es útil saber si el TLD o extensión de dominio también tiene, aunque es algo muy poco frecuente.

Salud del dominio

Un tema importante y que deberás comprobar es si el dominio ha sido alguna vez hackeado y usado para poner publicidad o mandar emails spam. Esta parte de la auditoría puedes hacerla fácilmente con la herramienta gratuita Mxtoolbox.com.

Tan solo tienes que registrarte y, en la pestaña de «Domain Health», introducir la url de la web. En unos segundos, tendrás un reporte completo de si la web tiene algún problema con sus DNS, servidores de correo, o la ip se encuentra en una «black list» por spam.

Veamos un ejemplo en directo. Esta vez he estado buscado a posta un dominio que presente problemas, y no se me ha ocurrido otra cosa que probar un «reputado» hosting, aunque no mencionaré su nombre:

auditoria seo salud del dominio

¡Vaya! Para tratarse de uno de los hostings más conocidos, tiene 1 problema porque se encuentra dentro de una lista negra, aparte 2 problemas con su servidor de correo y un último con las DNS.

Vaia vaia…

Además, puedes pinchar en cada uno de esos cuadros para obtener información más detallada sobre el origen de los problemas.

Aunque detectes estos problemas, en la mayoría de casos solo podrás notificarlos a los compañeros de soporte o administración de sistemas, ya que el SEO no abarca tanto como para solucionarlos 🙃

Autoridad de dominio

La autoridad de dominio es un valor de 0 a 100 que se le asigna al dominio según la cantidad y calidad de sus enlaces entrantes. Cuantos más dominios de ips distintas apunten a tu web, y de mayor calidad sean estos, mayor autoridad recibirá tu dominio.

Antiguamente, esta puntuación era llamada «Page rank» y podías consultarla desde Google Search Console. Google dejó de dar esos datos, por lo que ahora tenemos que apañarnos con herramientas externas que, evidentemente, no son Google y no miden de la misma manera que el. Sin embargo, son la única orientación que tenemos.

Estas 3 herramientas son:

  • Moz: Es el gran referente y gratuito desde su app para Chrome MozBar. Tiene dos métricas, DA y PA.
    • DA: Domain Authority, mide la autoridad del dominio en general.
    • PA: Page Authority, mide la autoridad de cada página/url de tu web.
  • Ahref: Otro gran referente, pero este es de pago. Cuenta con 2 métricas, Domain Rating  y Url Rating, que funcionan igual que el DA y PA de Moz.
  • Majestic: También se suele utilizar, especialmente su métrica TF. Tiene una versión free, y cuenta también con dos métricas, TF y CF.
    • TF: Trust Flow, mide la calidad de todos los enlaces entrantes a tu web.
    • CF: Citation Flow, mide la cantidad de enlaces entrantes a tu web.

Se recomienda que nunca te tomes los valores dados por estas herramientas como «literales». Como dije antes, no son Google y es imposible saber como mide realmente Google cada métrica. Analiza los datos como una orientación y solo para comparar tu dominio con tu competencia.

¿Para que sirve la autoridad de dominio?

Generalmente, cuanto mejor sea el perfil de enlaces de un dominio, mejor será a la hora de posicionar sus contenidos. Por tanto, digamos que es como un especie de medidor de dificultad que vas a tener.

Recuerda que este solo es 1 de los muchos puntos seo que posicionan una web. Aunque tu competencia tenga un DA de 90, puedes llegar a rankear mejor que ellos si el resto de puntos no los tienen bien implementados.

Ejemplo práctico

Imaginemos que por ocio queremos montar un blog de historia, religión, bibliográfico… Vamos, cualquier cosa que sea una competencia directa de Wikipedia.

En este caso, deberíamos medir el DA de Wikipedia para saber a que nos enfrentamos, puesto que al ser un proyecto nuevo, empezaremos con un DA de 1. Usaremos Moz y Ahref para medir la dificultad:

auditoria seo autoridad dominio

Con Moz podemos comprobar que tiene una autoridad de dominio de 95 sobre 100. Podemos también observar que hay más de 2,5 millones de enlaces que apuntan solo a la página principal. Sin embargo, si haces click en ese enlace podrás cambiar de visualización por página a dominio y verás el número total de enlaces que apuntan a ese dominio. En total, se han tenido en cuenta más de 233 millones de enlaces para medir el DA. Casi nada.

En cambio, en la siguiente imagen podrás ver que Ahref le da un DR de 93 sobre 100. El número de enlaces que indica Ahrefs es confuso si no estas acostumbrado a la herramienta, pero 301M es un redondeo que se refiere a 30.900.000. En este caso, yo me fiaría más de Moz, puesto que esta contando casi 10 veces más de enlaces.

auditoria seo domain authority

Con este ejemplo podemos deducir que con un proyecto recién empezado va a ser muy difícil hacerle la competencia a Wikipedia.

Uso de https

Hoy el día, que el dominio use el protocolo https es tan básico como escribir sin cometer faltas de ortografía. Pero empecemos despacio.

¿Que es el protocolo https o ssl?

Es un protocolo de seguridad que cifra las comunicaciones entre el usuario y el servidor web. Básicamente, si el usuario rellena cualquier formulario (contacto, registro, compra…), se cifra esa información para que «los malos» no puedan acceder a ella.

La importancia sobre su uso es tal, que si no lo tienes, los propios navegadores avisaran a los usuarios que sus comunicaciones no son seguras, ¡y esta demostrado que puedes perder hasta un 30% de ventas por ello!

Tu misión durante la auditoria tan solo consiste en comprobar que la web dispone de protocolo https, y si no es así, solicitar su compra e instalación.

No te preocupes por costes económicos, a las malas siempre puedes usar los certificados SSL gratuitos de Letsencrypt.org, que son los mismos que ofrecen gratis los hosting.

Auditoria de seo Off-page

Como ya hemos entrado en el tema de los enlaces entrantes y la autoridad de dominio, sigamos indagando más en el tema con la parte de Off-page.

En esta parte, justo después de analizar la autoridad de dominio, comenzamos también a revisar todo el perfil de enlaces de la web. Tu tarea es averiguar si el perfil está sano, si está penalizado por pingüino o podría estarlo próximamente, y hacer las pertinentes limpiezas de enlaces que necesites realizar.

Para lograrlo necesitarás diversas herramientas, y el problema es que la mayoría son de pago.

4 Herramientas SEO para el análisis de enlaces

A lo largo de todo el artículo ya las he mencionado, solo que para otras tareas (la mayoría tienen muchas funcionalidades, y el análisis de enlaces solo es una de ellas):

  • Ahref: La más usada por excelencia para la auditoria de enlaces. Tiene actualmente una de las mayores bases de datos de enlaces del mundo y los clasifican por puntuación (DR y UR). Además, podrás tener un control de los enlaces nuevos y perdidos, así como gráficas de la evolución de tus enlaces. Problemas: Es de pago y no tiene ninguna suscripción gratuita.
  • Google Search Console: Desde su menú de enlaces podrás ver muchos de los enlaces que tiene tu web. Además, es 100% gratuita. Problemas: No tienes absolutamente ninguna clasificación por puntuación, control de los enlaces ganados y perdidos o gráficas de evolución. Es importante saber que ni siquiera Google te muestra aquí todos los que tienes, por lo que aunque sea gratuita, tendrás que mezclar sus datos con otras herramientas.
  • Majestic: Una herramienta muy profesional y tremendamente orientada a sacarle el máximo jugo al análisis de enlaces. Su índice de TF es un gran referente a la hora de medir la calidad de los enlaces, y si tienes poco presupuesto, resulta más barata que el resto y cuenta con una suscripción gratuita. Problemas: Si tienes poco presupuesto para tu estrategia SEO en general, lo más probable es que no elijas esta herramienta. Otras como SEMRush u Ahrefs cuentan con funcionalidades para búsquedas de palabras clave, análisis seo on-page, mejoras de contenidos, etc… mientras que Majestic se centra prácticamente solo en los enlaces.
  • SEMRush: Tiene una base de datos de enlaces bastante grande. En funcionalidades es muy parecida a Ahrefs: clasifica los dominios, tiene un balance de ganados y perdidos y gráficas de evolución. Además, permite enviar inmediatamente los enlaces «malos» a disavow, y en su base de datos pueden integrarse los enlaces de Google Search Console y Majestic, controlándolos desde el mismo lugar. Problemas: La mayoría de estas funciones requieren una suscripción de pago, pero puedes probar la herramienta de forma gratuita.

Lo más probable es que ninguna de estas herramientas te muestre el perfil completo de enlaces de una web. Cada una tiene su base de datos de enlaces, y si quieres un perfil completo, no te quedará más remedio que tener las que puedas mientras te merezca la pena el coste.

21 Puntos a comprobar durante una auditoria de enlaces

Realizar una auditoria de enlaces puede costarte desde una a varias horas. El tiempo que le dediques, evidentemente, variará dependiendo del tamaño del perfil de enlaces de la web.

Generalmente deberás revisar los siguientes puntos:

Respecto a la procedencia de los enlaces

  1. Analiza el número total de enlaces entrantes que apuntan a tu web. Cuantos más y de mayor calidad, mejor.
  2. Del total, revisa el número de enlaces que vienen desde IPs distintas. Lo ideal es que cuantos más vengan de IPs distintas y sanas, mejor.
  3. La cantidad de enlaces procedentes del idioma principal de la web. ¿Que pinta una web china enlazando un dominio español? A veces se conservan algunos, especialmente de países europeos, si tienen que ver con nuestra temática y son de calidad.
  4. El número de enlaces que proceden de dominios que tratan de tu misma temática. Cuanto más relacionado con nuestra temática, mejor.
  5. La cantidad de enlaces que proceden de páginas que están rankeando por las mismas palabras clave que tu web. Suelen ser los más difíciles de obtener, pero son de los mejores.
  6. Que no haya una cantidad excesiva de enlaces desde el mismo dominio. Podría considerarse spam.
  7. La diferencia de cantidad entre enlaces que apuntan a tu página de inicio y los que apuntan al resto de tus páginas. Si enlazan solo al inicio puede parecer que son comprados. Lo normal es que, si tienes artículos o productos de calidad, puedas conseguir enlaces directamente a ellos.
  8. Que no haya una cantidad excesiva de enlaces desde footers y sidebars. Son consideradas las zonas web de publicidad o enlaces de poco valor.
  9. Analiza si hay demasiados enlaces que proceden de directorios de baja calidad. Podría considerarse compra de enlaces o spam.
  10. Revisa el contenido en texto que hay alrededor de los enlaces que apuntan a tu sitio, o si son enlaces mayoritariamente desde imágenes. Los enlaces en imágenes suelen tener muy poco valor, y si el texto alrededor del enlace no tiene nada que ver con su temática… podría ser considerado spam en ambos casos.

Respecto a su variedad

  1. Comprueba la autoridad de todos los enlaces entrantes: puedes medirlo en DA de MOZ, DR de Ahrefs, TF de Majestic o DS de SEMRush. Evidentemente, cuanto más autoridad tengan los enlaces a nuestra página, mejor.
  2. Calcula la diferencia entre el porcentaje total de enlaces follow y nofollow. Lo normal es tener siempre más nofollow que follow para evitar que Google piense que hemos comprado los enlaces.

Respecto a sus anchor texts

  1. Analiza la variedad de anchor text del total de enlaces que apuntan a tu dominio. Usar siempre el mismo anchor text puede inducir a que Google piense que el perfil está creado o comprado. Ha de parecer un perfil lo más natural posible, aunque tengas que poner enlaces de «click aquí», «visitar web», etc…
  2. Vigila la proporción de anchor texts de marca y de marca + palabra clave, sea esta exacta o no. Una gran número de anchor text de «palabra clave» o de «marca + palabra clave» puede hacer que Google piense que son comprados, aunque sean reales.

Otras consideraciones a tener en cuenta

  1. Evidentemente, analiza si el dominio está penalizado por Pingüino. Si has seguido al pié de la letra esta guía, puede encontrar más información sobre ello en la auditoria seo de dominio.
  2. Que no se hayan conseguido una cantidad excesiva de enlaces en poco tiempo. Puede hacer pensar que son comprados.
  3. Comprueba si se ha hecho «disavow» de enlaces en algún momento y de que dominios.
  4. Analiza que enlaces han sido comprados, y si han sido desde webs que habitualmente venden.
  5. Revisa que enlaces proceden desde sitios de alta autoridad, como dominios .gov o .edu.
  6. ¿En algún momento se ha hecho intercambio de enlaces?, Pregunta con quien y si sigue activo el intercambio.
  7. Comprueba si la tendencia de adquisición de enlaces está en ascenso o no. Lo ideal es que vaya en ascenso siempre que sea posible.

Como puedes comprobar, realizar toda esta tarea no es fácil ni se tarda poco tiempo. Las herramientas de pago que te describí al comienzo te ahorrarán muchísimo tiempo, especialmente Ahrefs. Sin embargo, aún así tendrás que echarle un par de horas a un dominio medianito.

Seguro que te estarás preguntando: Vale, Abraham, ¡pero no me has dicho cuales son los valores correctos que ha de tener el perfil de enlaces de mi web! Eso es porque «no existe una medida perfecta». Solo controlamos que el perfil vaya creciendo con enlaces de calidad, y no con enlaces spam, comprados o que lo parezca, porno, penalizados por cualquier causa, de webs de baja calidad, etc…

Auditoria seo del hosting

En esta parte de la auditoria seo comprobamos que el servidor en el que está la web se encuentra en óptimas condiciones para nuestra estrategia seo. Para hacerlo tendremos que echar un vistazo a la parte técnica del servidor, y por otro lado echaremos mano de algunas herramientas que ya he comentado.

Caídas del servidor

Por extraño que parezca, si, hay servidores que no se caen continuamente, pero si a menudo. Evidentemente, esto es un problema para Google ya que puede llegar a tu web para revisarla y encontrársela caída. Además, también es un problema para los usuarios, ya que puede que el hosting se caiga en mitad de una compra (y te adelanto ya que ese cliente no va a esperar a que tu web vuelva a funcionar para realizar su compra), o que un cliente fiel se vaya a otro sitio porque al momento de repetir se la encuentre caída.

Si tu web se cae a menudo, generalmente solo tienes 3 opciones para solucionarlo:

  1. El primer lugar, comprueba si es debido a un error técnico por una mala gestión de tu web. Por ejemplo, que estés trabajando con una versión de PHP obsoleta para tu CMS o sus plugins, y debido a una actualización automática algo deje de funcionar. También es posible que tengas demasiado tráfico para la capacidad de procesamiento de tu hosting, o que llegues al espacio límite que tienes contratado para el. En estos dos últimos casos tendrías que ampliar tu suscripción.
  2. Si no se trata de un problema en la gestión de tu web, podría tratarse de un problema de funcionamiento del hosting. Pide al soporte del hosting que lo solucionen, pero evidentemente, no puede haber caídas una semana si y otra no. Puedes permitir una caída puntual o dos al año, más no.
  3. La última opción es optar directamente por cambiar de hosting. Esta sería la opción a realizar si el problema se debe al hosting pero el soporte no lo soluciona o bien el problema ocurre una y otra vez.

En este último caso, no te preocupes en exceso por la migración de tu web. La mayoría de hostings ofrecen actualmente el servicio de migración gratis para nuevos clientes.

Hosting optimizado para mayor velocidad

Aparte de lo bien que puedas optimizar la velocidad de tu web, ciertos parámetros van a depender siempre de tu hosting. En concreto, casi siempre miramos 3 puntos antes de contratar un hosting:

Si tu hosting dispone de las tres cosas como base, obtendrás un plus de velocidad muy positivo tanto para tu seo como para la experiencia de tus usuarios.

Recuerda que a partir del tercer segundo de carga de tu web, cada segundo de carga extra disminuirá tus conversiones entre un 7% y 27%, según el dispositivo que esté utilizando el usuario. Puedes leer más sobre ello en este artículo de 40defiebre.com

Que hacer si tu hosting no cumple con estas especificaciones

Aunque actualmente tu plan de hosting no posea estas caracteristicas, hoy en día es más que probable que tu hosting si que tenga este tipo de planes. Revísalos y considera mudarte a uno de ellos.

En caso de que tu hosting no los tenga, no tendrás más remedio que mudarte a otro hosting. Un buena inversión podría ser mudarte a Raiola o Webempresa.

Localización e ip del hosting

La localización en la que se encuentra tu hosting es algo a tener en cuenta para tu seo. Esto se debe a que interfiere directamente con la velocidad de carga de tu web.

¿Por qué?

Simple. A mayor distancia entre tu hosting y la casa de tu usuario, la información tiene que pasar por más cantidad de cables, enrutadores, etc… No es lo mismo que esa información deba atravesar el océano atlántico por cables submarinos desde EE.UU hasta Madrid, a que vaya directamente desde un hosting localizado en, por ejemplo Galicia, hasta Madrid.

Cuanto más cerca esté tu hosting de tus clientes potenciales, mejor, porque antes le llegará toda la información que has preparado para el o ella.

Sin embargo, ¿tener una dirección IP de España es igualmente importante?

En este caso, no tanto. Hace ya tiempo, Matt Cutts, CEO de Google, especificó que lo que realmente tienen en cuenta a la hora de posicionar el dominio es su TLD, osea su extensión de dominio (.es, .de, .fr…), y no la IP.

Puedes ver el vídeo completo aquí:

De echo, como explica, puedes tener una misma dirección IP para varios TLDs (lo que comúnmente sería un servidor compartido), y cada uno de ellos rankearía mejor para su país en concreto sin necesidad de tener una IP geolocalizada propia.

Auditoria seo de la indexación

En SEO, con indexación nos referimos al proceso por el que Google entra en tu web, revisa todo su contenido, y posteriormente lo clasifica y lo muestra en su ranking de búsquedas.

La indexación es tan importante que puede definirse a sí misma como «la base del SEO». Esto se debe a que, por ejemplo, si tu sitio no puede ser rastreado o indexado, jamás aparecerás en los resultados de búsqueda.

Partiendo de estas premisas, comenzaré a explicarte que debes revisar dentro de este punto.

Sitemap.xml

El sitemap es un fichero cuya función es la de actuar como un «mapa de urls» de tu sitio. En él, deben estar incluidas todas las urls que para ti son importantes, puesto que este fichero luego es mandado a Google y otros buscadores con el objetivo de que ellos sepan «cuales son esas urls importantes» y las indexen.

Para que te hagas una idea, esta es una muestra del sitemap.xml de la web mascotaguay.com:

auditoria seo sitemap.xml

Formas de generar el fichero sitemap.xml

Puede hacerse fácilmente mediante plugins.

  • WordPress: Con el plugin gratuito Yoast SEO.
  • Prestashop: Los propios desarrolladores de Prestashop incluyen el módulo Google sitemap para esta labor.
  • Joomla: El componente más conocido de los gratuitos es OSMap.
  • Otros: Si tu web esta creada directamente con código, puedes crear un sitemap.xml a través de la url de tu web con la herramienta xml.sitemaps.com. Esta opción solo la usaría si no usas ningún CMS o tu web es muy pequeña.

Una vez generado, solo tienes que introducir la url de tu sitemap en Google Search Console para que Google lo visite a menudo.

Evidentemente, si lo que quieres es que si web sea más visitada por Bing, tendrás que acudir a Bing Webmaster Tools, así como para otro buscador debes irte directamente a su panel para webmaster.

Robots.txt

Voy a intentar explicarlo de la forma más simple posible, puesto que esta es una parte bastante técnica.

El fichero robots.txt está presente (o debería estarlo) en toda web existente. Este es el primer fichero que buscan todos los buscadores (Google, Bing, Yahoo, Yandex, etc…) cuando entran en una web.

Acceder al contenido de este fichero es muy sencillo, puesto que se trata de un fichero público. Simplemente pon en la barra de direcciones de tu navegador la ruta tudominio.es/robost.txt. Como dije antes, todos son públicos. Puedes, por ejemplo, ver el robots.txt del periódico 20minutos.es/robots.txt, el de la casareal.es/robots.txt, o el de cualquier web que se te ocurra.

Bien, pero, ¿para que sirve este fichero? Básicamente, una vez que los buscadores están dentro de él, «lo leen», y en base a las directivas que encuentran, proceden a revisar la web de una forma u otra. Por lo tanto, este fichero te permitirá «orientar» a los buscadores para que lean los contenidos que son importantes para ti y que quieres posicionar, o al contrario, que no lean ciertos contenidos.

Directivas que hay dentro del robots.txt

Pongamos como ejemplo el fichero robots.txt del periódico 20minutos.es, puesto que es uno de los ejemplos que puse antes.

auditoria seo robots.txt

Verás que aparecen principalmente 3 directivas. Te explicaré en que debes fijarte de cada una y, aparte, te hablaré sobre otra que debes conocer:

  • User-Agent: Esta directiva indica qué buscadores deben seguir las pautas que se encuentran debajo de ella. En este caso, el * indica que las sigan «todos» los buscadores, por lo que todos irán directamente a «leer» todos los «Disallow» y «Sitemap» que hay justo debajo, con 2 excepciones. Si te fijas bien, casi al final del fichero tenemos otros 2 User-Agent para Yandex y Baiduspider (los buscadores ruso y chino). A estos les estamos indicando con una «/» que no lean absolutamente ningún contenido de la página.

Básicamente, le estás indicando a Google y otros buscadores que cuando «toquen a tu puerta», les abras y les dejes pasar, mientras que si son Yandex y Baidu quienes tocan a la puerta, te haces el dormido para que se vayan.

  • Disallow: Con esta directiva indicamos a los buscadores que categorías de la web no han de rastrearse. Si pones solo una «/» estás indicando que no se rastree NADA de la web, pero con «/view/» le indicas que dentro de la web solo se salte la categoría «view», mientras que el resto debe rastrarlo con normalidad.
  • Sitemap: Aquí le indicas a los buscadores donde se encuentra el «mapa» de urls (sitemap.xml) de tu web del que te hablé anteriormente. Incluir esta directiva facilita que los buscadores indexen tu sitio.
  • Allow: Aunque esta directiva no aparece en el fichero, si es muy habitual verla y por eso te la explicaré. «Allow» es la directiva contraria a «disallow». Básicamente, permite indicar a los buscadores partes de la web que sí han de rastrearse. Suele utilizarse justo después de «disallow», por ejemplo para permitir el rastreo de una pequeña zona de la web (como una categoría), que se encuentra dentro de un gran grupo de urls bloqueadas para el rastreo mediante «disallow».

Tipos de errores que puedes encontrarte en el robots.txt

Para resumirte, los errores que se suelen encontrar en este fichero suelen ser de tres tipos:

  • Se están bloqueando cosas que no se deben bloquear.
  • No se bloquean cosas que si deben bloquearse.
  • Falta la directiva que indica donde se encuentra el sitemal.xml.

A continuación te explicaré más detalladamente los dos primeros.

Que NO bloquear en el fichero robots.txt

Empecemos por lo que no ha de bloquearse:

  • El bloqueo de páginas con contenido útil: Esta es fácil de entender porque ya hemos hablado de un ejemplo, y es ese bloqueo a Yandex y Baidu que hemos visto anteriormente. ¿Qué hubiera pasado si, por error, el que se encuentra bloqueado es Google? ¿O si igualmente estás bloqueando a Yandex y Baidu cuando tus principales mercados son Rusia y China? Tus páginas jamás serían rastreadas por estos buscadores.
  • Bloqueos a elementos imprescindibles para el renderizado de la web: Aquí trabajamos sobre un ejemplo distinto, y es el bloqueo a los directorios donde se encuentren los ficheros CSS y Javascript necesarios para que la web se vea correctamente. En este caso, Google si tendría acceso a esas páginas útiles, pero debido a ese bloqueo, las renderizaría mal y posiblemente te llegarán alertas a Google Search Console informándote de que la página se visualiza mal. Como usuario, tu si verías perfectamente la web, sería el renderizador de Google quien la «vería mal».

Que SÍ bloquear en el fichero robots.txt

Por otro lado, tendríamos las cosas que no se están bloqueando y si deberían bloquearse:

  • Accesos a páginas de administración: Estas páginas se bloquean por dos razones. La primera es su particular sensibilidad y la segunda porque para el usuario normal de la web no tienen ninguna utilidad. Si no son útiles para el usuario, ¿Para que querrías que los buscadores las rastrearan?
  • Páginas o categorías en las que no quieres que se pierda el «tiempo de rastreo»: A la hora de rastrear, Google no lo hace indefinidamente, si no que tiene asignado un tiempo de rastreo según la «calidad» de la web. En sitios particularmente grandes es necesario realizar filtros y excluir las páginas de baja calidad para que Google no pierda tiempo en ellas. Estas páginas pueden ser las paginaciones de un buscador de artículos, filtros de la búsqueda de productos, páginas de login, carritos de la compra o páginas de pago, entre otras.
  • Bots indeseables: Google y el resto de buscadores no son los únicos que usan «rastreadores» para absorber toda la información que existe en internet. Existen muchos bots que no se sabe exactamente a que se dedican, otros que si se sabe y no es para nada bueno, y otros que no son malignos, pero tampoco aportan nada. Generalmente, en webs pequeñas estos bots no suelen dan problemas. Pero en webs grandes es mejor bloquearlos para evitar que saturen el servidor y se ralentice, cosa que si afecta a la experiencia de los usuarios.

Como apunte final añadiré que aunque bloquees una url o directorio usando el robots.txt, esta no se desindexará de Google. Para desindexarla deberás utilizar la etiqueta <meta name=’robots’ content=’noindex’ /> en el head (cabecera HTML) de tu web. El robots.txt no tiene nada que ver con el funcionamiento de esta etiqueta, aunque sus nombres sean iguales.

Páginas no encontradas o errores 404

Estamos adentrándonos, cada vez más, en cosas más técnicas. ¡Pero no te asustes que te explicaré todo con lujo de detalles!

Los errores 404 o páginas no encontradas son un «código» que devuelve un servidor web al usuario o buscador (Google, Bing, Yandex, etc…) cuando llega a una página que no existe.

Solo tienes que poner una url inventada en cualquier página web que te encuentres y verás una página de error 404. Por ejemplo, esta es la página de error que aparecerá en amazon si pones la url inventada:

auditoria seo codigo estado 404

De echo, muchas webs utilizan diseños chulos para dar un toque de humor a su web. Aquí te dejo un artículo de Antevenio donde puedes ver bastantes ejemplos originales de páginas 404.

Problemas de indexación relacionados con las páginas 404 o no encontradas

El problema que puede surgir en tu web, y que deberás comprobar, es si tienes enlaces desde tus páginas que vayan a este tipo de páginas de error, o si tienes páginas de error perdidas pero indexadas en Google.

Como expliqué anteriormente, Google y el resto de buscadores entran en una web y leen todo su contenido, siguiendo los propios enlaces que hay en la web. Evidentemente, si una tercera parte de tus enlaces llevan a este tipo de páginas, tienes un problema, puesto que estás desperdiciando el presupuesto de rastreo de Google.

Si, por otro lado, tienes páginas de error 404 indexadas, el problema es la cantidad de contenido duplicado que puedas tener. Si la cantidad de contenido duplicado es muy alta, puedes llegar a ser penalizado por Google.

Las páginas 404 indexadas se producen cuando tienes un contenido publicado en tu web e indexado por Google, pero un día decides eliminarlo. Esa url sigue existiendo a ojos de Google, aunque ahora su contenido sea el de una página de error. Debes hacer una redirección 301, de la que hablaré más adelante, cada vez que elimines una página de un sitio web.

Formas de detectar los errores 404 en enlaces de tu web

Para comprobar si tienes enlaces a páginas 404, lo más rápido y sencillo es utilizar Screaming Frog. También hay otras herramientas automáticas de exploración, como los proyectos de SEMRush o Xovi, pero no superan en velocidad y sencillez al primero.

Te mostraré un ejemplo en directo con Screaming Frog. He dejado en el blog de mascotaguay.com un enlace a una página de error 404. Tan solo tienes que pasar la herramienta por la web, y luego filtrar con «Status code» (cuadro superior verde de la imagen) para que te ordene todos los resultados según sus códigos de estado.

A continuación solo tienes que revisar si hay códigos 404.

auditoria seo error 404

Como puedes ver, en mascotaguay.com hay una página que da error 404 (¡oh no!). Si pinchas en la línea del error (en este caso la 1008) y posteriormente haces click abajo del todo, en «Inlinks» (cuadro inferior verde de la imagen), veras desde que urls puedes encontrar ese error. Evidentemente, si el error se encuentra en un enlace del menú, el página no encontrada será visible desde muchísimas páginas de tu web.

Formas de detectar las páginas 404 indexadas

En este caso tienes dos opciones. La «automática» es estar pendiente de las alertas de cobertura de Google Search Console. En la imagen que te muestro de ejemplo verás que la misma mascotaguay.com tiene un producto que antes si existía y estaba indexado, pero ahora ya no existe.

auditoria seo errores cobertura 404

Por otro lado, la opción lenta y manual es revisar todos los resultados de búsqueda de tu sitio utilizando el comando site:urldetudominio.com en el buscador de Google.

Como solucionar los errores 404

¡Ahora empieza lo divertido! Lo siento, pero solucionar estos problemas, en el 90% de casos, se debe hacer de forma manual con redirecciones 301. Así que si tu sitio presenta miles de estos problemas, tómalo con paciencia.

Continúa leyendo hasta el próximo punto de esta guía, ya que te explicaré más detenidamente en que consiste una redirección 301.

Cadenas de redirecciones 301

Como dije antes, la forma de arreglar los errores 404 es utilizando redirecciones 301 desde la página antigua (la que da error 404) a una nueva.

Primero empezaré explicándote que es una redirección 301, y al final te explicaré que errores de indexación puede acarrear el abuso de esta directiva.

La redirección 301 es un código de estado que utilizan los servidores web. En este caso, este código lo que indica es: «la página buscada ya no existe, pero a cambio te voy a mostrar esta otra que es la que me han dicho que existe en su lugar». Para su funcionamiento, las redirecciones 301 necesitan una url A (la página que ya no existe) y una url B (la página que va en su lugar).

Simple y fácil de entender.

Puedes utilizar la app de chrome RedirectPath para comprobar cuando una url ha sido cargada mediante una redirección

Cuando se utilizan las redirecciones 301

El uso de redirecciones 301 está tan extendido que te podría poner decenas de ejemplos:

  1. Si vendías un producto que se ha descatalogado y tienes que eliminarlo de la web.
  2. En vez de un producto, se ha descatalogado una categoría de productos entera.
  3. Has eliminado un artículo de tu blog porque su información ya no es relevante.
  4. En una de tus páginas de la web, ofrecías un servicio que ya no ofreces.

El único caso que puede generarte algo de confusión, es la redirección 301 de un artículo con una url A al mismo artículo con una url B. En este caso, el artículo no deja de existir, pero si su url.

Por ejemplo, imagina que tienes un artículo cuya url es «las-10-mejores-marcas-de-pienso-para-perros». En este artículo tienes tráfico, y con Ahrefs puedes comprobar que tiene 5 enlaces desde otros sitios. Como es un buen artículo, decides actualizarlo a «las-12-mejores-marcas-de-pienso-para-perros».

Si haces el cambio de uno a otro sin hacer la redirección, perderás la autoridad de esos 5 enlaces y tendrás que posicionarlo de nuevo desde cero, perdiendo el tráfico que tenías antes. La solución es fácil: haz una redirección 301 del antiguo al actualizado.

Lo mejor es intentar evitar poner números (el 10 ó el 12) en las urls en ese tipo de artículos. De esa forma podrás actualizarlo las veces que quieras sin tener que cambiar la url.

Como hacer una redirección 301

Esta parte es muy técnica, pero trataré de explicártela de la manera más sencilla posible.

Todos los servidores web Apache (generalmente todos los que se contratan son Apache, así que no te preocupes) disponen de un fichero llamado .htaccess.txt en el que puedes indicar como quieres que el servidor web trate ciertas urls de tu sitio. Es en este fichero es donde debes introducir las redirecciones 301.

Si utilizas WordPress y el plugin Yoast SEO lo tienes bastante fácil, puesto que desde su menú «herramientas» -> «editor de archivos» tienes un acceso directo a este fichero.

En él, deberás dirigirte a la parte inferior e introducir la siguiente directiva:

Redirect 301 url_antigua url_nueva

Una pequeña demostración con el ejemplo anterior sería:

Redirect 301 /las-10-mejores-marcas-de-pienso-para-perros /las-12-mejores-marcas-de-pienso-para-perros

Luego solo tienes que guardar y listo.

Existen plugins automáticos para todos los CMS, como por ejemplo sh404SEF para Joomla, que automáticamente hacen redirecciones a la url más parecida que si exista. Yo particularmente no confió en estas automatizaciones y prefiero hacerlo a mano pero llevar yo el control. Usarlas o no es tu decisión.

Posibles problemas de indexación debido a redirecciones 301

Aparte de los problemas de indexación producidos por la existencia de errores 404, también puedes generar otro problema aparte por el abuso de redirecciones 301.

En este caso, se trataría de las cadenas de redirecciones 301.

¿Cuando se produce esto?

  1. Imagina que tenemos una url A que es perro-1.
  2. La cambias y redireccionas perro-1 a perro-2.
  3. Vuelves a cambiar y redireccionas perro-2 a perro-3.
  4. Vuelves a cambiar y redireccionas perro-3 a perro-4.
  5. Vuelves a cambiar y redireccionas perro-4 a perro-5.
  6. Vuelves a cambiar y redireccionas perro-5 a perro-6.
  7. Vuelves a cambiar y redireccionas perro-6 a perro-7.
  8. Vuelves a cambiar y redireccionas perro-7 a perro-8.
  9. Vuelves a cambiar y redireccionas perro-8 a perro-9.
  10. Vuelves a cambiar y redireccionas perro-9 a perro-10.

Si te fijas lo que tienes es una redirección 1 a 2, 2 a 3, 3 a 4, 4 a 5… y así hasta 10.

En este momento es donde surge el problema, puesto que a esto es a lo que se llama cadenas de redireccionamiento.

A la hora de rastrear, Google tiene que seguir todas estas redirecciones. De una a otra, consumiento su presupuesto de rastreo. Pero lo más grave de todo, es que está confirmado que Google no va a rastrear tu web hasta el infinito. Se «presupone» que entre la redirección 6 y 8, Google se va sin llegar al final, por lo tanto nunca rastreará perro-10.

Como deben hacerse las redirecciones para evitar las cadenas de redireccionamiento

Partiendo del ejemplo anterior, cada vez que hagas una redirección debes también modificar las anteriores, añadiendo la última url modificada como destino.

Por ejemplo, de la siguiente manera:

  1. De perro-1 a perro-10
  2. De perro-2 a perro-10
  3. De perro-3 a perro-10
  4. De perro-4 a perro-10
  5. De perro-5 a perro-10
  6. De perro-6 a perro-10
  7. De perro-7 a perro-10
  8. De perro-8 a perro-10
  9. De perro-9 a perro-10

Evidentemente, esto debes controlarlo en webs grandes con muchísimas redirecciones. En webs pequeñas no pasa nada por tener una cadena de 2, 3 ó 4 redirecciones.

Como detectar las redirecciones 301 en tu sitio web

Esto es muy fácil, de nuevo, con Screaming frog. Realiza un escaneado de tu web, y después ordena por «Status code» (cuadro verde superior). Se te listarán los códigos 301 que haya enlazados en tu web.

A continuación, si quieres saber desde donde está enlazado uno en concreto, solo tienes que hacer click en el y pinchar en «Inlinks» (cuadro verde inferior).

auditoria seo redirecciones 301

Redirecciones entre http-https y www-sin www

Partiendo de que ya sabes lo que es una redirección, el siguiente punto es muy fácil de comprender. Trataremos, de nuevo, sobre el ejemplo de mascotaguay.com.

Mascotaguay.com es una web que tiene instalado un certificado SSL, por lo que carga mediante el protocolo https://. Aparte, está configurada para que cargue sin el www, por lo que su url final es https://mascotaguay.com.

Sin embargo, ¿qué ocurre con el protocolo http y la opción con www?

Si no haces ningún tipo de redirección, la web cargaría exactamente el mismo contenido desde 4 urls posibles:

  • https://mascotaguay.com
  • http://mascotaguay.com
  • https://www.mascotaguay.com
  • http://www.mascotaguay.com

Esto, evidentemente, es un claro problema de contenido duplicado.

Solucionarlo es muy sencillo:

  • Realiza una redirección 301 de http a https si tienes un certificado SSL instalado. En caso de no tener instalado un certificado SSL, no es necesario realizar la redirección desde https a http.
  • Después, realiza otra redirección de la url con www a sin-www si quieres tener esta configuración. En caso contrario, hazla desde sin-www a con www.

Páginas huérfanas

Las páginas huérfanas son aquellas que no son enlazadas desde ningún sitio de tu web. Por tanto, no hay manera posible de llegar hasta ellas.

Generalmente, las páginas huérfanas existen por error. Bien porque tu CMS las ha creado porque sí, algo habitual por ejemplo en Joomla, o bien por factores humanos, como por ejemplo olvidarse de borrar y hacer una redirección 301 de una página durante una remodelación de la web.

Entonces, ¿como llegan los usuarios o Google hasta ellas?

Es posible que el sitemap.xml de tu web, en caso de ser creado por un plugin automático como Yoast SEO, las incluya y Google las indexe. Posteriormente, cualquier usuario podría encontrarlas al realizar una búsqueda. Otras opciones son que haya enlaces desde otros dominios, o que el propio usuario tuviera la página huérfana guardada en sus marcadores.

En cualquier caso, las páginas huérfanas son un problema de experiencia de usuario, porque al no ser controladas, suelen estar desactualizadas.

¿Como se comprueba si una web tiene páginas huérfanas?

Existen varias opciones, aunque algunas son bastante laboriosas:

  1. Utilizar el comando site:midominio.com en el buscador y mirar los resultados en busca de algo que no cuadre.
  2. En Google Search Console, puedes utilizar el informe de «Rendimiento», filtrando por páginas con tráfico pero sin impresiones.
  3. Utilizar Screaming Frog para analizar la web, y posteriormente buscar en los filtros «Internal» -> «Inlinks» un número de enlaces entrantes de cero.

Una forma automática de conseguir un listado de páginas huérfanas es enlazando Google Search Console y Google Analytics a una suscripción de SEMRush. En sus «auditorias de proyectos», uno de los puntos que se comprueban es el de páginas huérfanas.

Auditoria seo On-page

La auditoria seo on-page tiene mucho que ver con la auditoria de contenidos explicada en el punto 3 de esta guía. De echo, muchos SEOs en sus plantillas para auditorias juntas ambos puntos, contenidos y on-page, en uno solo.

Yo he decidido separarlos porque me parece una forma mucho más fácil de explicar los puntos a revisar dentro de cada uno de ellos. Principalmente, porque mientras la auditoria de contenidos es mucho más suave e intuitiva, la auditoria on-page requiere de ciertos conocimientos técnicos y bastante uso de Screaming Frog u otras herramientas.

Sin dar más rodeos, comenzaré a explicarte punto por punto que tienes que revisar.

Abusar de enlaces internos y enlaces nofollow

Tal como dice el titular, se trata de contar el número de enlaces internos que tienen nuestras páginas, compararlos con el número que tiene la competencia en sus páginas, y reducir los que tenemos si es necesario.

La razón es sencilla y se explica fácilmente con «la teoría del vaso de agua», o también llamada «link juice».

Una página web tiene una autoridad de dominio X, que viene dada por todos los puntos que se mencionan en este artículo. Para hacer un símil, imagina que tienes un vaso de agua vacío, y que por cada punto de esta guía que cumples, le echas un chorrito de agua hasta que se llena X.

auditoria seo enlaces nofollow

Continuando con la parte técnica, desde tu página de inicio o raíz, esa autoridad se reparte entre todos los enlaces que haya. Osea, la cantidad X de agua de tu vaso se va a repartir entre todos los enlaces que tiene tu web (y aviso por adelantado que no se reparte a partes iguales entre todos).

Por esta razón, cuantos más enlaces tenga tu web, menos agua o autoridad le llegará a cada uno, y más difícil será posicionar esas páginas. ¿Entiendes ahora por que abusar de poner enlaces es malo?

Pues aún no llegamos a lo mejor…

Que debes saber sobre el uso de enlaces internos nofollow

Durante muchos años se creyó que si parte de esos enlaces se cambiaban a nofollow, se «engañaba» a Google para que cayera más autoridad en los enlaces buenos, que eran dejados como «follow». Todos los SEOs vivían felices hasta que Google lo desmintió y confirmó que los enlaces nofollow consumen la autoridad, aparte de no traspasarla a sus páginas de destino.

¿Qué quiere decir esto? Te pondré un ejemplo:

Supongamos que tienes 1 página con autoridad 10, de la que cuelgan 10 enlaces y que la autoridad se repartirá a partes iguales entre ellos: 10 de autoridad / 10 enlaces = 1 de autoridad por página.

Con el planteamiento que se utilizaba antiguamente, si pones 5 enlaces como nofollow, la ecuación se actualizaría a la siguiente: 10 de autoridad / (10 enlaces – 5 nofollow) = 2 de autoridad en 5 páginas follow y 0 de autoridad en las páginas nofollow.

Pero el planteamiento es erróneo. Como dije antes, Google confirmo que los enlaces nofollow SI consumen la autoridad y NO la traspasan, y no es una si no dos ecuaciones, una para los enlaces follow y otra para los nofollow:

  • Enlaces follow: autoridad de la página (10) / nº total de enlaces en la página (10) = 1 de autoridad por página, siempre que se llegue a través de un enlace follow.
  • Enlaces nofollow: siempre llegará 0 de autoridad, independientemente de como de alta sea la autoridad de la página que la transmite.

Entonces, ¿hay que dejar de utilizar enlaces nofollow?

No. Este tipo de enlaces sigue manteniendo su principal característica, que es indicar a los rastreadores que no pasen por el.

Una técnica avanzada que se suele utilizar es la «ofuscación» de enlaces mediante Javascript o AJAX. Con ella, se evita que Google «detecte» y siga el enlace, por lo que igualmente tendrías un enlace pero sin consumir el link juice.

Abuso de enlaces en sidebars y footers

Dentro del abuso de enlaces internos, hay unos que son especialmente importantes: los enlaces situados en sidebars y footers.

Como mencioné antes, la autoridad que se transmite por los enlaces de tus páginas no es igual para unos enlaces que para otros. En concreto, son los enlaces desde sidebars y footers los que menos autoridad reparten.

Generalmente, los enlaces desde sidebars suelen estar asociados a publicidad y no a contenidos relevantes. Por otro lado, los enlaces desde footers suelen ser a contenidos de baja calidad (política de cookies, ley de protección de datos, aviso legal, etc…).

Por esta razón, si es posible no insertes desde estos lugares enlaces a sitios de relevancia de tu web.

Calidad de las URLs del sitio

Las urls de un sitio web han de ser optimizadas dependiendo de la arquitectura del sitio y de las palabras clave a las que va orientada la página.

En este punto no entraremos en la parte de palabras clave puesto que escribiré un apartado entero solo para ellas. Nos centraremos en la estructura de las urls dependiendo de la arquitectura del sitio.

Generalmente, podrás encontrarte 5 problemas de base:

  1. Urls excesivamente largas.
  2. Urls con números.
  3. Urls con partes dinámicas, por ejemplo el típico ?= de PHP.
  4. Urls con caracteres especiales o en mayúscula.
  5. Urls con muchos paths, o las barritas «/», como prefieras llamarlo.

Los 2 primeros problemas de urls a veces no son tan importantes como para realizar un cambio completo en la arquitectura de la web. Si lo tienes optimizado, mejor, pero a veces por coste, falta de recursos, etc… no merece la pena cambiar toda la arquitectura web de un sitio con tal de arreglarlo. Los problemas 3, 4 y 5 si pueden llegar a ser muy graves y merecen tu atención.

Todos estos problemas pueden detectarse rápidamente usando Screaming Frog, que es la herramienta que usaré para mostrarte los ejemplos.

Urls excesivamente largas

Más que un error, se considera una falta de optimización. Lo ideal es que nuestras urls contengan las palabras clave principales de la página y sean lo más cortas posible para permitir que el usuarios puedan recordarlas con facilidad.

Averiguar que urls de tu web son muy largas es muy sencillo con Screaming Frog. Por defecto, está configurado para detectar las que tienen más de 115 caracteres, un valor que puedes cambiar en el menú «Configuration» -> «Spider». Dejando ese valor como el por defecto, en el menú derecho de Screaming Frog, busca el filtro de «URL» y podrás encontrar otro filtro para «Over 115 characters».

auditoria seo url larga

Urls con números

De nuevo, se considera una falta de optimización más que un error. Generalmente se recomienda eliminar los números de las urls por que estén más «limpias» de cara al usuario.

Otro aspecto increíblemente beneficioso puede darse en los artículos tipo «las-10-mejores-tecnicas-de-marketing-de-2020». Si un día quieres actualizar el artículo de 10 a 12 técnicas y del año 2020 a 2021, tendrías que modificar la url junto al artículo.

En este caso, utiliza la url «las-mejores-tecnicas-de-marketing» y especifica en el «title» y/o en el «h1» que son 10 ó 12 y del año 2020 ó 2021.

Urls dinámicas

Como explique antes, las urls dinámicas tienen variables del tipo color?=rojo (este ejemplo es de PHP) y son inmensamente utilizadas en los filtros de búsqueda de artículos de blogs, productos y carritos en tiendas, paginaciones de artículos, etc…

¿Cuál es el problema que surge con el uso de estas variables?

Principalmente, que aunque tu filtres las camisetas de una tienda por «color rojo», estarías mostrando el mismo contenido que en otras categorías de la tienda, y por tanto se considera contenido duplicado.

El uso de variables dinámicas en las URLs, en general, no está mal y puedes usarlas. Sin embargo, debes utilizar una serie de directrices para que no se genere contenido duplicado ni se pierda innecesariamente el presupuesto de rastreo o «crawl budget» de tu web.

Consejos sobre el uso de variables en urls

A continuación te detallaré 3 consejos sobre el uso de variables dinámicas en las urls de una web:

  • Si la web es una tienda online:
    • Si las paginaciones de los productos tienen variables configuralas como no indexables, pero bajo ningún concepto las bloquees desde robots.txt. De esta forma permites el rastreo pero impides la indexación de contenidos duplicados (estás desindexando las páginaciones, no los productos que tienen esas páginas).
    • El resto de variables, que por lo general suelen ser los filtros de búsqueda, los carritos y las páginas de pedido, han de encontrarse como no indexables y bloquedas en robots.txt. Realizando esta configuración evitas que Google pierda el tiempo rastreando e indexando miles de páginas similares unas a otras.
  • Si la web es un blog:
    • En este caso, solo debes procurar que las paginaciones de los artículos estén como no indexables, pero no bloqueadas desde el fichero robots.txt. El motivo y los efectos son los mismos que para las paginaciones de los productos en un ecommerce.

Puedes utilizar Screaming Frog para localizar los parámetros en las urls de tu web. Después de rastrear la web, ve a la menú de la derecha y busca la opción «URL» -> «parameters»:

auditoria seo url dinamica

En este caso la mayoría de resultados son paginaciones de productos que se encuentran marcados como no indexables.

Urls con caracteres especiales o en mayúscula

Las urls con carácteres especiales o en mayúscula pueden generar tres tipos de problemas:

  1. Confusión al usuario, al tener la posibilidad de no recordar si la url era «perro» o «Perro».
  2. Problemas para posicionar la página, puesto que Google no interpreta de la misma manera, por ejemplo, un guión «-» que un guión bajo «_».
  3. Directamente, imposibilitar entrar en tu web de forma directa a través de poner a mano la url en el navegador. Por ejemplo, un usuario de estados unidos no tiene la ñ en su teclado, al igual que nosotros no tenemos el alfabeto ruso o chino.

Parece una tontería, pero hay que evitar por todos los medios utilizar todo tipo de caracteres especiales en las urls.

Puedes realizar una auditoria de este punto usando Screaming Frog. De la misma manera que en ejemplos anteriores, rastrea tu web, busca en el panel derecho la categoría «URL» y pincha en la opción «Non ASCII Characters».

auditoria seo caracteres especiales url

Muy mal por mi parte dejar esos dos errores 😂

Urls con muchos paths

Este puede convertirse en un problema bastante grave ya que interfiere directamente con la arquitectura de la web. Voy a ponerme algo técnico, así que empezaré explicándote lo básico.

¿Que es la arquitectura web?

La arquitectura web hace referencia a la forma en que se ha estructurado el sitio web (sus categorías y urls). Generalmente, antes de siquiera comenzar a crear el proyecto, un SEO profesional hace una investigación de palabras clave, las agrupa por temática o búsquedas y define una estructura de URLs. Es después de este proceso que se comienza a crear la web y siempre bajo las directrices de esa arquitectura web.

Es muy habitual que en proyectos comenzados sin un SEO, se hayan colocado categorías y páginas prácticamente al azar. El problema es doble para la empresa, porque después de haber invertido tiempo y dinero en crear todo eso, ahora hay que volver a invertirlo en arreglarlo.

¿En que afecta la arquitectura de la web al seo?

Pues prácticamente en todo, porque una mala arquitectura web puede hacer perder fuerza a tus palabras clave, provocar problemas de indexación e incluso que el usuario de la web se líe porque no sabe ni donde se encuentra.

¿Qué relación existe entre la arquitectura web y las URLs?

A nivel de indexación, Google entiende que cada «path» o «/» representa una forma de estructurar los contenidos. Utilicemos como ejemplo una tienda online para mascotas, pero esta vez no mascotaguay.com (no sirve como ejemplo, más adelante explicaré por que).

Tenemos las categorías organizadas de la siguiente manera:

arquitectura seo

Como puedes comprobar, a ti como usuario tiene que serte fácil saber donde te encuentras exactamente dentro de la web. Y, evidentemente, Google también lo tiene bastante más fácil para entender la web que si todo estuviera desordenado o sin las palabras clave correctas.

Por ejemplo, Google entiende perfectamente que en «perros» existen dos piensos:  «7 days» y «duck», que pertenecen al grupo «alpha spirit». A su vez, «alpha spirit» pertenece al mismo mismo grupo que otros piensos como «acana».

Además, para Google el producto «wild prairie» que se encuentra dentro de «gatos» -> «pienso» -> «acana» es totalmente distinto del producto «wild prairie» que puedes encontrar dentro de «perros» -> «pienso» -> «acana». Igualmente, los «snacks» -> «bocaditos» para «gatos» no tienen nada que ver con los «snacks» -> «dentales» para «perros». Todo está semánticamente ordenado y, además, partimos de las palabras clave con más búsquedas hasta las que menos.

A la hora de posicionar una palabra clave fuerte, como puede ser «pienso para perros», es más fácil hacerlo si lo que cuelga de ella tiene relación y le da fuerza.

¿Existen varios tipos de arquitectura web?

Sí. Generalmente se suelen utilizar 2 tipos: la estructura horizontal y la estructura vertical. Me ayudaré de dos infografías de aulacm.com para explicarte bien este punto.

La arquitectura horizontal, como puedes comprobar en la siguiente imagen, se basa en crear una estructura de categorías con los menores niveles de profundidad posibles. Entre otras cosas, los beneficios de este tipo de arquitectura son que el usuario tendrá que hacer pocos clicks para llegar al artículo o producto que se encuentra al final, y también que Google tendrá menos problemas para rastrear la web.

ejemplo arquitectura horizontal

Por otro lado, la arquitectura vertical de la siguiente imagen representa lo contrario. Los usuarios que quieran llegar al último nivel tendrán que hacer muchos clicks en otras categorías, y es posible que Google agote su presupuesto de rastreo antes de llegar a los niveles inferiores. Aparte, el reparto de link juice de los últimos niveles va a ser ínfimo, por mucha autoridad que tenga la web.

ejemplo arquitectura vertical

¿Cual de ellas es mejor? Evidentemente es mejor la arquitectura horizontal.

Existen otros tipos de arquitecturas web, muchas de ellas en desuso, como por ejemplo la «circular». Además, muchas veces, aunque quieras, no podrás seguir si o si una arquitectura horizontal.

¿Cuáles son las recomendaciones de Google respecto a la arquitectura web?

Lo que Google recomienda es que para llegar a la información importante no se deban realizar más de 3 clicks. Si seguimos esta regla, no debería haber más de 3 «plaths» o «/» en todas las webs optimizadas (lo que viene siendo una arquitectura horizontal pura y dura). Sin embargo, si seguimos esta regla al dedillo, el ejemplo que hemos tratado sobre el ecommerce de mascotas estaría mal a nivel de arquitectura web. No te preocupes, lo he puesto así a posta para ahora explicarte este punto.

La cuestión es que la solución al dilema que se presenta en el ejemplo sobre el que hemos tratado es un «depende» de cada caso.

Una de las posibles soluciones es fusionar categorías. Por ejemplo, podríamos fusionar «perros» y «pienso» en «pienso para perros» y hacer que todo cuelgue de ahí, de forma que los productos se encuentren a 3 clicks en vez de 4. Haríamos lo mismo con «snacks para perros», «pienso para gatos» y «snacks para gatos».

Sin embargo, esta opción no es válida para este tipo de ecommerce, puesto que existen búsquedas generales como «productos para perros» o «comprar productos para gatos» que no tendrían una página de aterrizaje específica para ellas (las categorías «perros» y «gatos»). Por tanto, esta opción solo puede ser usada en determinadas circunstancias que tendrás que definir en base a la búsqueda de palabras clave.

Además, tampoco podrías eliminar categorías como «pienso», «alpha spirit» u otra marca de pienso, o evidentemente, cualquier producto… puesto que todas ellas son grandes fuentes de tráfico.

Esto solo nos deja abiertas otras posibles opciones:

  • Hacerlo de la manera expuesta anteriormente, combinando categorías si es posible, pero trasladando esas «búsquedas generales» a páginas aparte, como por ejemplo a artículos del blog. Habría que ver si esto tiene sentido según la búsqueda de palabras clave del sector sobre el que estás trabajando.
  • Pasar completamente del límite pre-establecido de 3 clicks y mantenerlo en 4 clicks, tal como estaría ahora, pero sabiendo que este último grupo va a tener un reparto de «link juice» más bajo y, quizás, problemas de rastreo. Para compensar ambos problemas, puedes enlazar directamente a los productos desde las primeras categorías. Por ejemplo, si enlazas a «pienso alpha spirit» desde «perros», tanto el usuario como Google podrán llegar a «pienso alpha spirit» sin tener que entrar en «pienso para perros». De esta forma, el link juice se repartiría de forma más equilibrada y habría menos problemas de rastreo.

Como ves, muchas veces no es posible usar una arquitectura horizontal pura. En todo caso deberás, sí o sí, realizar una búsqueda de palabras clave antes de definir la estructura web de tu sitio. En el siguiente punto después de la auditoria seo On-page, te hablaré de la auditoria de palabras clave.

Y entonces, ¿por qué mascotaguay.com no servía como ejemplo?

Básicamente, porque a la hora de estructurar las urls, tienes otra opción que es omitir por completo el uso de paths o «/», independientemente de en que posición de la categoría se encuentra cada página. Así es como está configurada mascotaguay.com y por lo que no servía como ejemplo.

Sin embargo ahora te estarás preguntando, ¿tanto lío de explicación para acabar diciendo que puedes omitir todos los paths?

No es tan sencillo.

Eliminar los paths sin más haría que Google interprete la arquitectura web desde el punto de vista de que todo se encuentra en el mismo nivel. Para poder eliminar los paths, debes instalar en tu web las breadcrums mediante metadatos o JSON-LD, con el objetivo de que Google «lea» su información sobre la estructura de la web sin necesidad de tener que hacerlo a través de las urls.

Hablaremos más de ello a continuación.

Migas de pan o breadcrumps

Las migas de pan o breadcrumps ayudan a los usuarios a navegar por tu sitio y a Google a entender su estructura. Actualmente instalarlas en muy sencillo, e incluso hay CMS como Prestashop que ya las tienen instaladas por defecto.

Pero empecemos por lo básico. ¿Qué son las migas de pan?

Las breadcrumps son esos enlaces que, como usuario del sitio web, te van indicando exactamente en que parte de la web te encuentras. Como una imagen vale más que mil palabras, te pongo un ejemplo del mismo ecommerce de mascotas que usamos anteriormente.

Sin embargo, a ojos de Google son aún más importantes porque facilitan la comprensión de la estructura del sitio. Si inspeccionas el código fuente de esos mismos enlaces, verás unas etiquetas HTML especiales.

auditoria seo migas de pan

De ese código, las etiquetas «itemscope» e «itemprop» son datos estructurados que pertenecen a Schema.org, una entidad fundada por Google, Microsoft (Bing), Yahoo y Yandex con el objetivo de «entender» más fácilmente el código de una web.

Existen multitud de tipos distintos de «datos estructurados», por ejemplo para personas, negocios locales, productos de una tienda, eventos… Puedes consultarlos todos en Schema.org.

¿Como instalar las breadcrumps o migan de pan en tu web?

En esa web que he puesto como ejemplo, ese tipo de datos estructurados se crea automáticamente ya que es un Prestashop. Sin embargo, en WordPress y otros CMS como Joomla, tendrás que utilizar plugins adicionales. Por ejemplo, para WordPress puedes usar Yoast SEO y para Joomla el componente sh404SEF (de pago).

Otra opción, para la cual también necesitarás alguno de esos plugin, es instalar el dato estructurado de breadcrumps a través de JSON-LD. La ventaja de este formato es que no es obligatorio que tenga ese «menú de navegación» para el usuario, ya que se inserta solo en el código fuente de la página para que los navegadores lo lean.

Página optimizada para móviles

Hoy en día se calcula que el 70% del tráfico en internet procede de dispositivos móviles. Por esta razón, es más importante que la web se vea correctamente desde dispositivos móviles, a que lo haga en tablet o pc.

En este punto solo comprobarás que la web se ve bien y es amigable en dispositivos móviles. Para ello puedes usar screenfly.org.

Tan solo añade la url de tu web y podrás verla desde la resolución de distintos dispositivos.

La importancia de la visualización móvil es tal, que muchos diseñadores web empiezan diseñando la web desde resolución móvil, y después van subiendo la resolución para adaptarla a tablets y pcs.

Velocidad del sitio

La velocidad de carga de una web es uno de los puntos vitales tanto en su posicionamiento como en las conversiones.

Puedes utilizar páginas como Pagespeed, GTMetrix o Pingdom Tools para averiguar cuanto tarda en cargar tu página y recibir consejos para optimizarla.

Según el dispositivo, está demostrado que cada segundo de carga a partir del tercero disminuye las conversiones de tu web entre un 7 y 20%.

Ejemplo de como auditar la velocidad de una web

Vamos a probar Pagespeed sobre una web para que veas en directo si algo es mejorable. Para este caso lo haremos sobre… ¡Amazon.es!

He elegido esta web justamente por la enorme cantidad de imágenes que tiene. También porque, al ser la gran potencia que es, presuponemos que su velocidad será alta. Sin embargo, a la hora de verdad, podemos ver que su velocidad móvil (imágen de la derecha) deja mucho que desear.

ejemplo velocidad web

Además, Pagespeed nos da bastante recomendaciones de optimización, incluyendo mejorar la velocidad del servidor (sin duda, algo que no me esperaba viniendo de amazon).

auditoria seo velocidad

Para esta web vemos esas recomendaciones, pero para tu propia web u otros proyectos también podrás obtener otras recomendaciones básicas, como por ejemplo:

  • Minificar los ficheros CSS y Javascript de tu web.
  • Habilitar la compresión HTML en tu servidor.
  • Combinar los distintos ficheros CSS y Javascript en uno.
  • Especificar el tiempo de vida en caché de tus ficheros.
  • Instalar un plugin de caché o bien usar un CDN.
  • Reducir el número de peticiones HTTP de tu página, por ejemplo reduciendo el número de imágenes o peticiones a otros dominios.

Si usas WordPress, para los tres primeros puntos puedes utilizar cualquier plugin de caché o el plugin Autoptimize. Respecto a los plugins de caché, puedes usar WP Total Cache (gratis) o WP Super Rocket (de pago).

Páginas canónicas

En varias partes de esta guía se han mencionado los problemas que causan los contenidos duplicados y el uso que le puedes dar a las etiquetas rel=’canonical’. En este apartado, entraré en más detalles sobre esta etiqueta.

Si has llegado directamente a este punto de la guía, recordaré un poco lo mencionado previamente. Las etiquetas rel=’canonical’ son una «sugerencia» a Google, con las que le indicas cual es para ti la página original entre varias con un contenido similar. Es Google quien decide si hace caso a la etiqueta canonical o no.

Partiendo de eso, durante esta parte de la auditoria seo debes comprobar que la directiva, si existe, apunta correctamente a las páginas que te interesa marcar como originales.

¿Cuáles son los errores de uso típicos en las etiquetas canonical?

Generalmente se suelen encontrar estos errores:

  • Las páginas similares no contienen etiquetas canonical que designen un «original», y tampoco existe ningún otro control con el contenido duplicado, como la desindexación.
  • Todas las páginas se canonizan a sí mismas, aunque existe contenido duplicado en la web.
  • En una misma página existen varias etiquetan canonical, que pueden apuntar a la misma página o a diferentes.
  • Las páginas canonizadas resultan ser también no indexables.

¿Como auditar el uso de las etiquetas canonical?

Para ello, usarás de nuevo Screaming Frog. Después de realizar el análisis de tu web, en el menú derecho podrás encontrar el filtro de «Canonicals».

auditoria seo canonical

Desde aquí, rápidamente podrás hacer la comparación entre todas las urls (All) y solo las que tienen canonical (Contains canonical). Además, podrás comparar las páginas canonical que se apuntan a sí mismas (Self Referencing) con las páginas que han sido canonizadas a través de otra (Canonicalised).

Por último, tienes otros filtros para ver las páginas que no tienen canonical (Missing), que tienen varias (Multiple), o las páginas canonizadas que además son no indexables (Non-indexable canonical).

Puedes utilizar las funciones del menú superior «Bulk Export» -> «Canonicals» -> «Contains canonical inlinks» para descargar un fichero csv en el que podrás saber a que url canonica apunta cada url de tu web.

Paginaciones

El control sobre las páginaciones, tanto si es en ecommerce como en un blog, suele ser otro de los grandes olvidados. Y todo a pesar de ser una de las grandes fuentes automáticas de contenidos duplicados.

Esta parte de la auditoria es bastante rápida y sencilla. Tan solo debes buscar si la web tiene paginaciones de cualquier tipo y analizar su código fuente para ver como se está tratando a cada una de esas páginas.

Casos en los que las paginaciones SI están controladas

Esta vez, en vez de tratar sobre los errores típicos, trataremos sobre casos en los que si se están controlando bien las paginaciones. Por ejemplo, tenemos los siguientes:

  • Las categorías, independientemente de cuantas paginaciones tengan, tienen cada una un texto único y original. Algo muy habitual de ver en las categorías de los ecommerce, donde la página 1 se mantiene como indexable gracias a estos grandes textos, y las páginas 2 en adelante se desindexan. En este caso, puedes dejar solo la página 1 como indexable porque en cada categoría hay un texto amplio y original para que Google pueda diferenciar que cada categoría de la web es diferente entre sí.
  • Toda la categoría y sus paginaciones se encuentran como no indexables. Esta es la solución típica que se le da al contenido duplicado y que deben tener, por ejemplo, la mayoría de las categorías de los blogs. A diferencia del ejemplo de arriba, aquí no se mantiene como indexable ni siquiera la página 1. Por supuesto, esto solo se hace cuando no te interesa posicionar la categoría o paginación, si no que lo realmente relevante son los artículos o productos que contienen.
  • Las paginaciones tienen instaladas las etiquetas next y prev. Esta solución, promocionada por Google y otros buscadores, les permite saber que es un contenido de poco valor y que no lo tengan en cuenta como duplicado. Por desgracia, estas directivas también son solo «sugerencias». Por lo tanto, siempre por si acaso, te recomiendo que junto a estas etiquetas también le añadas las modificaciones que te expliqué en los dos casos anteriores, según el caso que tengas en tu web.

Presta especial atención a las paginaciones de los filtros de los ecommerce y de los buscadores de artículos y productos, que suelen ser olvidados.

Google Analytics

En este punto solo tienes que comprobar que la etiqueta de Google Analytics se encuentra instalada y activa.

¿Como hacerlo?

Pues es increíblemente sencillo. El propio Google dispone de una app para Chrome que, con 1 solo click, te permite ver las etiquetas que tiene instaladas tu web. Su nombre es Tag Assistant.

Una vez instalada, ponte en cualquier parte de la web y haz click en su iconito. Te aparecerá lo siguiente:

auditoria seo google analytics

En este caso aparecen dos activas. La propia de Google Analytics y la de Google Tag Manager que carga a esta.

Etiquetas hreflang para distintos idiomas

El funcionamiento de las etiquetas hreflang se centra exclusivamente en indicarle a Google cual es la versión original de un idioma. Su uso es muy común en webs que tienen varios idiomas, pero son muy raras de ver en webs con un solo idioma.

Durante esta parte de la auditoria, debes fijarte en si las etiquetas hreflang se están usando correctamente y su sintaxis no tiene errores. En caso de haber problemas con la implementación de estas etiquetas, corres el riesgo de sufrir problemas por contenido duplicado.

En esta guía no vamos a entrar en como se implementan porque hay 3 formas distintas de hacerlo. Sin embargo, si necesitas hacerlo, te dejo aquí toda la documentación de Google para instalar etiquetas hreflang.

¿Qué tipos de errores se suelen cometer en el uso de etiquetas hreflang?

Generalmente, los errores que te encontrarás son los siguientes:

  • Etiquetas no instaladas en sitios multilingüe o en redes de dominios multilenguaje.
  • Las etiquetas si están implementadas, pero su sintaxis no es correcta.
  • Descontrol entre los productos o servicios ofrecidos en un idioma y su variante en otro idioma.
  • Discrepancias entre los códigos de idioma y región utilizados y los admitidos.
  • Enlaces hreflang a páginas de productos o servicios marcados como no canónicos o no indexables.
  • Uso de múltiples etiquetas hreflang para el mismo idioma y diferentes urls.

¿Como comprobar si las etiquetas hreflang están implementadas?

Lo más sencillo es usando, de nuevo, Screaming Frog. Por desgracia, si no quieres perderte ninguna de las 3 formas en que pueden estar implementadas, deberás tener la opción de pago y configurar el rastreador para ello.

Partiendo de que dispones de versión de pago, explicar como revisar todo es algo extremadamente largo para esta guía, por lo que te dejo un enlace directo a la parte hreflangs de mi tutorial de Screaming Frog, en donde explico todos los pasos y opciones a comprobar.

Etiquetas Open Graph y Twitter Cards

Aunque no es un factor de posicionamiento SEO, hoy en día lo comprobamos por usabilidad y experiencia de usuario. Pero antes de continuar, te estarás preguntando que son exactamente estas etiquetas.

Las etiquetas Open Graph son una serie de códigos que, al compartir tu artículo en Facebook, LinkedIn o Pinterest, permiten que se «previsualice» una parte del mismo. Y las etiquetas Twitter Cards son exactamente «lo mismo en funcionalidad», pero como su nombre indica, para Twitter.

Te mostraré un ejemplo de previsualización de Open Graph en Facebook con un artículo de esta misma web:

auditoria seo open graph twitter cards

Comprobar que tu web tiene instaladas las etiquetas Open Graph y Twitter Cards

Es muy fácil hacerlo. Tanto Facebook como Twitter ofrecen sus respectivas herramientas con las que podrás comprobarlo:

Simplemente has de colocar la url de tu sitio en ambos validadores y te mostrará la previsualización.

Como instalar las etiquetas Open Graph y Twitter Cards en WordPress y Joomla

En ambos CMS puedes hacerlo a través de plugins.

Por ejemplo, para WordPress lo puedes hacer a través del mismo Yoast SEO. Utiliza las opciones del menú izquierda para entrar en SEO -> Social y configura los datos que te pide. Recuerda que para que te funcionen las Twitter Cards, deberás previamente tener bien configuradas las Open Graphs.

Por otro lado, para Joomla tienes disponible el plugin de SEO sh404SEF, que también incorpora esta funcionalidad en su pestaña de configuración social. Este plugin es de pago, aunque muy recomendable si trabajas con Joomla. En el caso de que quieras uno gratis, puedes usar el componente TAGZ Open graph. Sin embargo, a diferencia de sh404SEF, que crea las etiquetas automáticamente para cada página, en la versión gratuita de TAGZ Open graph tendrás que crearlas a mano para cada uno de ellas.

Auditoria seo de palabras clave

Una de las partes más vitales dentro de la estrategia SEO de una web es la búsqueda de palabras clave. Aunque en esta guía no entraremos en como realizar correctamente una búsqueda de palabras clave, si te mencionaré cuales son los errores típicos y como darles una solución.

Error número 1: No realizar una búsqueda de palabras clave para tu web 😂

Fuera de bromas, he podido ver bastantes proyectos que no han arrancado justamente por no realizar esto.

A la hora de realizar esta parte de la auditoria seo, lo más probable es que, a menos que conozcas de antes el modelo de negocio y tengas experiencia con sus palabras clave, tendrás que realizar una mini búsqueda de palabras clave para salir del paso y deducir si este punto se está realizando de forma correcta o no.

Herramientas para realizar una búsqueda de palabras clave

Para realizar búsquedas de palabras clave existen decenas de herramientas. A continuación te dejaré unas cuantas gratis, y otras de pago que a mi particularmente me gustan:

  1. Google Keywords Planner: Es el buscador de palabras clave oficial de Google. Para acceder a el tendrás que hacerte una cuenta de Google Ads, aunque no tengas ninguna campaña activa. El pro es que es gratis y de Google, pero el contra es que, como la mayoría de productos de Google, su interfaz es bastante poco amigable.
  2. Ubersuggest: Un buscador gratuito y bastante aconsejado para los novatos. Es bastante amigable y te da un número de resultados decente, aunque bajo mi punto de vista es insuficiente si eres profesional.
  3. SEMRush: Es mi favorito en cuanto a su sencillez de uso. Automáticamente agrupa las palabras clave y puedes realizar muchos filtros que facilitan la búsqueda. Su pro es que dispone de una versión gratis de prueba con 10 búsquedas diarias y que permite averiguar las palabras clave de la competencia, mientras que su contra es que para sacarle todo el jugo a esta herramienta necesitarás una suscripción de pago.
  4. Ahrefs: Muy parecida a SEMRush, pero mientras que en SEMRush la búsqueda de palabras clave es muy amigable, aquí se me hace muy compleja. Sin embargo, a la hora de analizar las palabras clave de la competencia, a mi me pasa lo contrario. En Ahrefs me resulta increíblemente sencillo mientras que en SEMRush me parece complicado. El contra de esta herramienta es que requiere suscripción de pago y no tiene versión de prueba.
  5. Keywordtool.io: Herramienta curiosa porque es bastante amigable y permite también hacer búsquedas de palabras clave en Youtube, Amazon, Instagram, Twitter, etc… El contra, de nuevo, es que requiere suscripción de pago.

Ahora que ya sabes algunas herramientas con las que ir probando, comenzaré a explicarte los fallos más habituales que se suelen encontrar durante una auditoria seo de palabras clave.

Title y meta-description

En este punto se combinan dos partes, una de la auditoria de palabras clave y otra de la auditoria seo on-page. En la parte de on page comprobamos que hay un title y meta-description en cada página, así como sus tamaños y la existencia de duplicados, mientras que en la parte de palabras clave comprobamos que ambos sitios están optimizados con palabras clave y llamadas a la atención que aumenten el CTR.

El CTR (Click Through Rate) indica que porcentaje de usuarios hacen click en tus resultados de Google respecto a todos los que simplemente lo han visto.

Empezaré por la parte de palabras clave y, al final, añadiré un punto con consejos y herramientas sobre la parte on page.

El title de la página

El title es el título de nuestra página y que podemos ver en los resultados de búsqueda, así como en las pestañas de nuestro navegador, junto con el logotipo de la web.

A la hora de posicionar cada una de las páginas de tu sitio web, este es el lugar más importante en el que poner tus palabras clave. Intenta que estas aparezcan lo más a la izquierda posible y sin pasarte del límite de caracteres o píxeles permitidos.

También es buena idea intentar llamar la atención de los usuarios utilizando mayúsculas, símbolos y emojis que sean aceptados por el buscador.

Puedes encontrar muchísimas listas de emojis en Google, pero ten en cuenta que según el buscador, navegador y sistema operativo que uses, pueden visualizarse de una manera u otra, o incluso no visualizarse.

Para comparar los diferentes titles de tus páginas, lo más fácil es utilizar el filtro «Page Titles» de Screaming Frog.

auditoria seo titles

Dentro de este filtro, podrás encontrar las páginas sin title (Missing), aquellas que tienen un title duplicado con otras páginas (Duplicate) o las que cuyo title coincide exactamente con el h1 de la página (Same as h1).

Otras opciones interesantes son «Over 65 Characters» y «Over 568 pixels», para detectar los titles demasiado largos, y «Bellow 30 Characters» o «Bellow 200 Pixels» para detectar los demasiado pequeños.

Además, con la opción «Multiple» puedes ver si hay varios titles en una sola página.

Meta-description

Aunque el contenido de las meta-descripciones no ayuda a posicionar, si que mejora el CTR de la página, cosa de la que hablaremos más detalladamente en el punto de «auditoria de usuario».

Que aparezca la palabra clave aquí, hace que cuando el usuario realiza la búsqueda, la palabra aparezca remarcada en negrita, llamando más la atención. Por esta razón, busca que haya varios conjuntos de palabras clave que te interesen e incluso, si es necesario, añade emojis y elimina stop words mientras el texto sea entendible.

Además, dentro de este punto deberás comprobar que no haya meta-descripciones duplicadas. Puedes detectarlas usando el filtro «Meta Description» -> «Duplicate» de Screaming Frog.

auditoria seo meta description

El resto de opciones son completamente iguales que en el caso del análisis de titles.

Seo on-page en titles y meta-descriptions

Aunque esta parte realmente entraría dentro de la auditoria seo on page, explicarlo en dos partes me parece demasiado lioso para las personas que empiezan de cero. Por esta razón, he decidido explicar todo lo relacionado con los titles y las meta-descriptions en un solo punto.

Este punto es muy muy sencillo y lo puedes comprobar rápidamente con diversas herramientas. Aunque la más común y mejor es Screaming Frog, otras herramientas como SEMRush, Xovi o Sixtrix también ofrecen informes de estos aspectos básicos.

Principalmente, debes revisar 3 cosas:

  1. Evidentemente, debe haber un meta-title y una meta-description en cada página.
  2. Cada uno de ellos debe ser único. No pueden duplicarse con el de otras de tus páginas.
  3. Deben tener el tamaño adecuado.
Análisis de duplicados

En los anteriores apartados hemos visto la función de los filtros «duplicate», «Same as H1» y «multiple» para el análisis de duplicados con Screaming Frog. No hay mucho más que añadir salvo que debes evitar todas las duplicidades posibles.

Por otro lado, si haces este análisis con cualquier otra herramienta (SEMRush, Xovi, Sixtrix…), ten en cuenta que no te va a mostrar la misma cantidad de datos que Screaming Frog.

Por ejemplo, en SEMRush solo podrás comprobar si hay o no etiquetas title y meta-description, y si estas se encuentran duplicadas con alguna de tus otras páginas. Algo es algo, pero igualmente viene bien porque puedes programar un informe a la semana que te llegue al correo avisándote de si se te ha escapado algo, y si es así, pasar Screaming Frog para ver con mayor profundidad que está pasando.

auditoria seo meta titulo meta descripcion

Análisis del tamaño de los titles y meta-descriptions

Partiendo de la base de que los tienes y no están duplicados, los titles no han de superar los 512 píxeles Esto es aproximadamente unos 58 caracteres, pero recuerda, no es exacto. Esto se debe a que el ancho de una A mayúscula no es el mismo que el de una a minúscula, y esto ocurre con todas las letras, números y resto de caracteres de tu teclado.

Por otro lado, la meta-description es algo más controvertida, ya que varía en tamaño dependiendo del dispositivo del usuario. Generalmente, para móvil se recomienda que la información relevante aparezca en los primeros 115 caracteres, para que sea visible completamente. Para escritorio, puedes continuar escribiendo hasta aproximadamente los 155 caracteres.

En Screaming Frog, todos los tamaños pueden ser cambiados en el menú superior «Configuration» -> «Spider». Si no sabes como realizar ese cambio de configuración, visita mi guía de Screaming Frog SEO Spider

Urls de la web

Sin llegar a tener URLs excesivamente largas, lo ideal es que las palabras clave importantes se encuentren en la URL.

Si se hace demasiado larga, puedes eliminar las famosas «stop words» o «palabras vacías» en Español. También se recomienda no incluir números, salvo que sea extrictamente necesario.

Aquí puedes encontrar una lista de stop words.

H1 y H2

El segundo lugar más importante de la página es el h1. Aquí se recomienda que introduzcas la palabra clave principal, presente en el title, más ligeras variaciones. Por ejemplo, si tu palabra clave principal es «seguro médico», en el h1 pon «seguro médico privado».

Otra buena opción es tratar de cautivar al lector con un encabezado que le llame la atención y en primera persona. Incluso para un SEO, siempre es útil aprender algo de copywriting.

Por otro lado, lo más recomendable es poner varios h2 en cada página, añadiendo variaciones de la palabra clave. Continuando con el tema de los seguros, podrías poner un h2 que fuera «seguro de salud» y otro que fuera «seguro de asistencia médica».

Respecto a las cosas que has de evitar, las más graves son que haya más de un h1, o la falta de h1 o h2 en la página. Puedes sacar rápidamente un informe de tus h1 y h2 con los filtros «H1» y «H2» de Screaming Frog.

auditoria seo h1 h2

Densidad y prominencia de las palabras claves

La densidad y prominencia se refieren al número de veces que una palabra clave se repite en una página, y a la relevancia, posición o visibilidad que tiene dentro de todo el contenido.

Para medir estos valores yo uso al app de chrome SEO Quake, desarrollada también por SEMRush. Un ejemplo con un producto de un ecommerce sería el siguiente:

ejemplo seo quake

Aquí podemos ver que las palabras que más se repiten tienen que ver con el producto, y que la prominencia es bastante más alta que «política de privacidad», que se encuentra en el footer de la página.

Esto te permite hacerte una idea de donde colocar las palabras clave importantes, así como la posibilidad de evitar el famoso «keyword stuffing» o sobreotimización de la página.

Aunque normalmente se recomienda que la densidad de una palabra clave se encuentre entre el 1 y 3%, esto depende ampliamente del sector, nicho e incluso la palabra clave a posicionar. Google se ajusta a cada caso, y mientras que para un caso concreto el 1% puede ser keyword stuffing, para otro el 1% puede ser demasiado poco. Al final, lo mejor es redactar el artículo pensando en tu usuario, con lógica y sentido común.

Semántica y variedad de palabras clave

Este punto consiste en estudiar si la página tiene todas las palabras clave relacionadas con el servicio o producto que se ofrece. En el caso de que el texto sea mejorable, introducimos esas nuevas palabras clave para aparecer en Google por ellas.

Para ponerte un ejemplo, si buscamos en Google «seguro médico» y «seguro de salud», podrás observar como los mismos resultados aparecen en ambas. Puede que varíen en su posición, pero Google entiende que ambas palabras clave son «la misma cosa», y todas esas webs han trabajado su variedad semántica.

ejemplo variedad lexica

¿Cuál es el error más común que podemos encontrar de este punto? Justamente la poca variedad semántica y de palabras clave.

Si tu cliente o empresa nunca ha trabajado el SEO, evidentemente no tendrán una lista de como busca la gente su producto o servicio. E incluso aunque la tengan, puede que no esté actualizada y hayan aparecido nuevas palabras a incluir en los textos.

Para conseguir esta variedad de palabras clave necesitarás, si o si, realizar una búsqueda de palabras clave.

Negritas y cursivas

Una de las partes más desconocidas por los usuarios, es que Google interpreta algunos estilos de la web a la hora de posicionar la página por ciertos términos. Entre estos «estilos», se encuentran las etiquetas de HTML <strong></strong> y <b></b> para las negritas, y las etiquetas <em></em> para las cursivas.

Cuidado con las etiquetas <b></b>, porque a pesar de que Matt Cutts de Google ha confirmado que tienen la misma relevancia que las <strong></strong>, la W3C ha confirmado que las etiquetas <b></b> están en desuso y serán eliminadas en futuras versiones de HTML.

Lo ideal es que conforme escribes el texto de tus artículos o páginas de la web, vayas ordenando los párrafos, oraciones y sus palabras de forma que tus palabras clave en negrita y cursiva tengan sentido.

Por el contrario, si lo que quieres es solo estilo sin aportar más relevancia, te aconsejo que utilices una etiqueta HTML de span con un estilo designado por ti y que sea similar a la negrita o cursiva.

Title y alt de las imágenes

Otro de los grandes olvidados por las empresas es la optimización del nombre y alt de las imágenes. Aunque la empresa o el blog no tenga intención de posicionar sus imágenes en los buscadores, siempre es útil que aparezcan palabras clave en el código html, y las imágenes son un lugar más donde ponerlas.

Además, ¿cuantos de nosotros hemos buscado una imagen en Google y, si nos ha gustado, hemos acabado leyendo parte o todo el artículo?

Hacer una auditoria de las imágenes es muy sencillo con… ¿Adivinas qué herramienta? Sí, es Screaming Frog. Después de hacer un análisis de tu web, busca el filtro «images» en el menú derecho.

auditoria seo title alt imagenes

Aquí podrás filtrar fácilmente las imágenes que tienen más de 100 kb de peso, no tienen etiqueta alt o bien esta tiene más de 100 caracteres.

Sin embargo, como dije antes, tendrás que revisar también si el nombre y alt de las imágenes tienen palabras clave. La forma más organizada de hacerlo es exportando un informe de imágenes desde el menú superior «Bulk Report» -> «All Images». Si pasas este informe a excel, tendrás una tabla organizada con todas las urls de las imágenes (donde deberías ver las principales palabras clave) y el alt que usan cada una de ellas.

Número de búsquedas de marca

En este punto tan solo hay que utilizar cualquiera de las herramientas de búsqueda de palabras clave para analizar si el dominio tiene búsquedas de marca. Pero, ¿qué son exactamente este tipo de búsquedas?

Las búsquedas de marca son las que hace el usuario con el nombre del dominio, empresa o incluso de una persona, si lo que vende la web es un servicio o incluso información. Por ejemplo, si con SEMRush analizamos amazon, veremos las siguientes búsquedas:

auditoria seo busquedas de marcas

Estos usuarios están buscando «disfraces», «juguetes», «televisores» y «aspiradoras», pero solo en una tienda, que es «amazon». No están interesados en productos de otra tienda.

Por esta razón, analizar las búsquedas de marca es de vital importancia, ya que te dará una idea del «branding» que la marca ha ido generando con el paso del tiempo, en que sectores o para que productos, y posteriormente adecuar estos datos al plan de marketing digital que se haga la para empresa.

Auditoria seo local

El seo local es particularmente importante para las webs que tienen una sede física a la que acudir personalmente. Pueden tratarse de tiendas, hoteles, bibliotecas, ayuntamientos, clínicas y hospitales, etc…

En esta parte de la auditoria seo comprobamos que esa sede física aparece en internet en los distintos formatos que Google nos proporciona (Maps, My Business, etc…) y que estos se encuentran optimizados.

Dirección en formato Schema.org

Este es un punto que puedes comprobar al mismo tiempo que realizas la auditoria seo de contenidos, ya que, evidentemente, solo podrás realizarlo si la web tiene al menos una página de contacto y sus datos son correctos.

En caso de que sea así, comprueba los siguientes 3 puntos:

  1. Si el dominio cuenta con varias sedes físicas, verifica que hay una página para cada localidad. Puedes agrupar las direcciones en una sola página si pertenecen todas a la misma localidad, pero en caso contrario lo mejor es tener una página optimizada para cada localidad distinta.
  2. Comprueba que se encuentran implementadas las etiquetas locales de schema.org en cada una de las direcciones mostradas. Estas etiquetas, además, te pedirán un logotipo, horarios de apertura, teléfonos, etc.
  3. Para favorecer el posicionamiento local de las páginas, revisa que el nombre de la localidad se encuentre en las etiquetas h1 y h2.

Con esto le estaremos dando a Google las suficientes señales para que posicione esas páginas por búsquedas locales, aparte de mostrar las diferentes SERPs locales de las que dispongamos.

Google Maps

La SERP local más conocida es la de Google Maps. Esta aparece cuando el usuario hace una búsqueda local, y tiende a mostrar los sitios registrados en Google Maps más relevantes o cercanos a él.

Por ejemplo, aquí tenemos la SERP local que aparece si buscas «tienda de mascotas en córdoba»:

auditoria seo serp google maps

¿Qué debes comprobar?

En primer lugar, que todas las sedes físicas que tenga el dominio cuentan con presencia en Google Maps. Después, en caso de que estén todas, revisa que el nombre se encuentre correctamente escrito, así como que los horarios, dirección, teléfonos, etc… son los adecuados.

En esta SERP, Google da mayor relevancia a los sitios cercanos al usuario (por su geolocalización) y por cantidad y puntuación de las reseñas que tiene el sitio.

No te olvides de comprobar si el sitio tiene muchas reseñas y de buena puntuación, puesto que Google mejorará la visibilidad del sitio cuanto mejores sean.

Google My Business

Google My Business es un servicio de Google creado para que las empresas puedan tener más visualizaciones por parte de los usuarios. Entre otras cosas, en Google My Business puedes mostrar a los usuarios reseñas del negocio, una breve descripción de el, información de contacto, imágenes del interior del local e incluso ofertas temporales.

Encontrar un buen ejemplo de configuración de Google My Business es bastante sencillo. Tan solo busca la ficha de cualquier agencia de marketing digital de renombre. Cojamos por ejemplo la ficha de la agencia neoattack:

auditoria seo google my business

Como puedes comprobar, tiene bien configurados todos los elementos anteriormente descritos:

  • Nombre de la empresa, dirección, horario, teléfono…
  • Imágenes de las instalaciones de la empresa y sus empleados.
  • Reseñas tanto de Google como de Facebook y Sortlist.
  • Una breve descripción de a qué se dedican.
  • Publicaciones informativas y, aunque no se vean en la imagen, también de sus servicios.

¿Qué debes auditar en Google My Business?

En primer lugar, si el negocio aún no la tiene, debes crear una cuenta de Google My Business. Posteriormente, rellena todos los datos anteriormente descritos y procura actualizarlos cada cierto tiempo.

Si el proyecto que auditas ya tiene cuenta de Google My Business, revisa si se han actualizado las imágenes y las publicaciones. Lo ideal es añadir o modificar las imágenes cada 2-3 meses y realizar una publicación con información, ofertas o servicios cada aproximádamente 2 semanas.

Directorios locales

El último punto desde de la auditoria de seo local está muy relacionado con la auditoria de seo off-page y puedes hacerlo al mismo tiempo que esta.

En concreto, debes utilizar cualquiera de las herramientas de análisis de enlaces (Google Seach Console, SEMRush, Ahrefs…) para analizar en que directorios de empresas locales se encuentra registrado el dominio.

Por ejemplo, puedes revisar si el negocio se encuentra en paginasamarillas.es, qdq.com, vulka.es, etc…

Conforme vayas encontrando directorios locales en tus proyectos, hazte una lista y guardatelos para consultarlos posteriormente en otros proyectos. De esta forma, con el paso de los meses o años, tendrás una buena base de datos de directorios locales con los que trabajar.

Auditoria seo de factores de usuario

Existen varios factores seo que dependen directamente de la interacción de usuario con nuestra página web. Tenerlos controlados y optimizarlos puede suponer la diferencia con la competencia y, a largo plazo, poder superarlos.

Los factores seo de usuario tienen mucho que ver con la auditoria seo de contenidos y con el marketing de contenidos, y por desgracia, suelen ser los más olvidados, e incluso aborrecidos, por algunas empresas.

Para bien o para mal, si una empresa quiere alcanzar el éxito a nivel SEO, debe entender que, en parte, los usuarios, su interacción con la página y acciones con ella, van a poder marcar una diferencia con su competencia.

A continuación te detallaré los factores de usuario que puedes comprobar en Google Analytics, y en concreto, se presentarán en casi todos los submenús del grupo «Adquisición»:

CTR

El CTR o «Click Through Rate» es el porcentaje de gente que hace click en un resultado de búsqueda respecto al total que lo visualiza. En concreto, su fórmula en SEO es: número de clicks / número de impresiones x 100.

Esta métrica es extremadamente importante en SEO ya que un buen CTR respecto al tu competencia puede subir de posición tu página.

Además, también se utiliza en multitud de casos distintos dentro del mundo del marketing digital:

  • En conversiones: Para medir la cantidad de usuarios que realizan una conversión frente a los que solo visitan la página.
  • Efectividad de las publicaciones en redes sociales.
  • Rendimiento de los anuncios de Google Ads.
  • Medición de la eficacia del contenido publicado en Youtube.
  • Aperturas de correos electrónicos en email marketing.

¿Cómo puedes mejorar tu CTR?

Para mejorarlo en SEO, puedes utilizar muchos métodos distintos:

  • Usar palabras clave, emojis, llamadas a la acción y alguna mayúscula en tus titles y meta-descriptions.
  • Optimizar la url de tu página con las palabras clave adecuadas.
  • Añadir el rich snipet de reseñas de schema.org a tus resultados de búsqueda.
  • Eliminar las fechas en tus resultados de búsqueda.
  • Utilizar otros richs snipets de schema.org, como el de FAQs, para que tus resultados de búsqueda llamen aún más la atención.

Lo más recomendable es analizar el CTR de tus páginas en Google Analytics -> menú de Adquisición -> submenú Search Console. Puedes ordenar los resultados por clicks o impresiones y deducir cuales son los que podrías mejorar para conseguir más tráfico.

Eso sí, debes tener en cuenta que la optimización de CTR se realiza cuando tu resultado de búsqueda alcanza mínimo el top 10. No merece la pena que inviertas tiempo en arreglar el CTR de una página en el top 23 porque apenas le llegará tráfico suficiente como para que de verdad mejore su posición.

Tasa de rebote

Este valor, representado siempre en porcentaje, te indica la cantidad de usuarios que entran en la página pero se van sin interaccionar con la web.

La teoría es sencilla: El usuario entra en la página, pero no encuentra lo que espera. Por lo tanto, se va del sitio y continua buscando en otras webs.

Sin embargo, en la práctica, localizar y arreglar el problema puede ser desde muy sencillo a una odisea, dependiendo incluso de tener unos conocimientos mínimos de diseño y/o programación para darle una solución.

¿Que puede provocar que una página tenga una tasa de rebote alta?

La tasa de rebote está fuertemente vinculada a las auditorias de contenidos y on-page, puesto que muchas de las cosas que provocan «la huida» del usuario se deben a problemas relacionados con el contenido del sitio o su estructura.

Entre estas cosas se encuentran:

  • Textos ilegibles o difíciles de entender.
  • El texto se entiende, pero no contesta a la duda o el problema que tiene el usuario y por el cual ha realizado la búsqueda.
  • Colores no adecuados. Desde falta de contrastes, a colores poco armónicos o no adecuados a la temática.
  • La web no tiene versión móvil o esta no funciona correctamente.
  • Elementos demasiado grandes o pequeños. Por ejemplo botones, banners, imágenes, etc…
  • Spam, como por ejemplo que haya exceso de anuncios.

Estos son solo algunos ejemplos, pero si te has leído toda esta guía puedes encontrar decenas de cosas que pueden afectar a que el usuario salga corriendo de una web.

Generalmente se recomienda que la tasa de rebote no supere el 30%, pero esto depende ampliamente del sector. Si crees que la tasa de rebote de tu sitio o de unas páginas en concreto son muy altas, realiza una auditoria con lo que has aprendido en esta guía y dale una solución.

Tiempo de permanencia en la página

Al contrario que la tasa de rebote, un tiempo de permanencia alto indica que al usuario le ha gustado tu contenido.

Esto, además, también le gusta mucho a Google, por lo que tiende a posicionar mejor a las páginas con tiempos de permanencia altos.

¿Qué puedes hacer para mejorar la tasa de permanencia de una página?

Evidentemente lo primero es comprobar que el rebote es bajo. Posteriormente, puedes mejorar el contenido con, por ejemplo, vídeos, galerías de fotos, ejemplos prácticos, etc…

Usuarios nuevos vs usuarios recurrentes

Hay una gran diferencia entre los usuarios que entran por primera vez a una web, y los usuarios que vuelven a entrar con el tiempo.

Un usuario que vuelve a entrar, es muy probable que lo haga porque el servicio, producto o información es de buena calidad. Un claro ejemplo lo tenemos en wikipedia, una web que gracias a la calidad de sus contenidos, siempre volvemos a visitar.

Comprobar esta métrica te permitirá saber hasta que punto llega el branding de la marca y como la perciben los usuarios. Por ejemplo, si la web tiene 20.000 visitas al mes pero solo 200 recurrentes, es muy probable que los usuarios no la estén percibiendo de buena manera.

A la hora de valorar esta métrica debes tener especial cuidado. Puede que para un sector o nicho en concreto si sea normal tener un valor muy bajo de usuarios recurrentes. Por ejemplo, una web como un periódico siempre debe tener muchas visitas recurrentes y las noticias y/o categorías que no tienen son las que debes revisar. Sin embargo, las páginas dedicadas a la declaración de la renta dentro de la web del gobierno tendrá muy pocas, puesto que solo entramos 1 vez al año en ella.

Páginas vistas por sesión

Si el contenido de tu web es bueno y tiene enlaces internos, los usuarios acabarán buscando más información relevante en otras páginas de tu web.

Esto, añadido a que cada página tiene su propio valor de tiempo de permanencia, rebotes, etc…  hace que cuantas más páginas de tu sitio vean los usuarios, y mejor optimizadas se encuentren, más fácil será que Google te posicione mejor para cada una.

Para ayudarte a deducir las páginas que fallan al transmitir a los usuarios de una a otra, puedes utilizar los informes de «flujo de usuarios» y «páginas de salida» de Google Analytics. Con ellos, puedes ver como los usuarios pasan de unas a otras y en cuales de esas páginas se producen una gran cantidad de salidas de la web.

Posteriormente, para darle una solución, te recomiendo que revises el apartado «tasa de rebote» de esta misma guía. Algunos de los problemas que afectan a la tasa de rebote, como textos ilegibles, diseño pobre o contenido spam, suelen ser los que producen que los usuarios se vayan también de estas páginas.

Numero de interacciones con la página

Comprobar si existen interacciones o no con las páginas de la web te dará una pista de hasta que punto a los usuarios les gusta tu contenido.

Principalmente debes revisar estas 3 formas de interacción:

  1. El número de comparticiones en redes sociales: Especialmente las importantes, Facebook, Twitter e Instagram, aunque según el sector también puedes considerar como importante LinkedIn, Pinterest e incluso otras redes sociales especializadas. Si el contenido es bueno, la gente lo comparte con sus amigos. Si por el contrario, no lo hacen… habrá que revisar por qué.
  2. Cantidad de suscriptores a la newsletter: Obtener este lead es de vital importancia para posteriormente ofrecerles información de calidad, ofertas, nuevos productos, etc… Si la gente no se suscribe a tu newsletter, debes averiguar por qué y darle una solución. Puede que simplemente les falte un incentivo, como un descuento, o que simplemente no entiendan la política de envíos o en que consiste el servicio.
  3. Comentarios en los artículos o los productos: Igualmente, un artículo o un producto con comentarios de usuarios o clientes aporta mucha más credibilidad a tu página. Si tu web no tiene, ¡desarrolla una estrategia para obtenerlos!

¡Cuidado con las reseñas de los artículos o productos! Crea una estrategia para obtenerlos cuando sepas al 100% que el producto, servicio o información son de alta calidad o, por el contrario, lo único que tendrás son comentarios negativos.

Conclusión

Como has podido ver, realizar una auditoria seo requiere de una gran cantidad de herramientas, conocimientos y tiempo. Sin embargo, realizarla es totalmente imprescindible para conocer el estado real de una web y sus posibilidades de crecimiento.

Te aconsejo que cuando vayas a hacerla, te hagas una «checklist» con todos los puntos descritos en esta guía. Marca todos como correctos o incorrectos, y en este último caso, añade también cual es el problema y como puedes darle solución.

Por último, ¡ayudémonos a completar esta guía! Déjame en un comentario que más comprobarías tu durante una auditoria seo y por qué. ¡Te contestaré lo antes posible!

Abraham Antona
abraham.ad9@gmail.com

Desarrollador web enamorado del marketing digital y e-commerce 🚀. Actualmente trabajando en SEO, análisis web y CRO, y siempre estoy en modo aprendizaje 💪. Actualmente estoy formándome para ser un experto en marketing digital.

No hay comentarios

Publica un comentario