• No se han encontrado resultados

Como realizar una auditoría SEO de una web

N/A
N/A
Protected

Academic year: 2021

Share "Como realizar una auditoría SEO de una web"

Copied!
19
0
0

Texto completo

(1)

 

Como  realizar  una  auditoría  

SEO  de  una  web  

www.ajrodriguez.es  

@antjrodriguez  

(2)
(3)

Auditoría SEO de una web  ...  4  

1. Antecedentes web  ...  4  

¿ Como sabemos que hemos sido penalizados y que tipo de penalización tenemos?  ...  4  

Herramientas  ...  5  

¿por qué es importante conocer el histórico de nuestra web?  ...  6  

2. Accesibilidad e indexabilidad  ...  6  

Robots.txt  ...  6  

Bonus: Meta Robots  ...  7  

3.  Indexabilidad  ...  7  

3. Popularidad de la web  ...  9  

Calidad y cantidad de enlaces entrantes  ...  9  

Cantidad  de  enlaces  ...  10  

Calidad de los enlaces  ...  10  

4. Visibilidad  ...  11  

Visibilidad global del proyecto  ...  11  

Visibilidad parcial de nuestra web  ...  11  

5. Optimización web  ...  12  

Meta etiquetas  ...  12  

Title  ...  12  

Meta Description  ...  12  

Canonicals y rel prev/next  ...  13  

Imágenes  ...  13   URLs  ...  14   Seo Local  ...  14   Contenido  ...  14   WPO  ...  15   6. Usabilidad  ...  15   Findability  ...  16  

Porcentaje de rebote, páginas vistas por sesión y tiempo medio de la visita  ...  16  

Responisve  ...  16  

Análisis  de  la  competencia  ...  17  

Duda  1  :  ¿cuántos  competidores  se  deben  de  tener  en  cuenta?  ...  17  

Duda  2:  ¿En  base  a  que  identificamos  a  nuestros  competidores?  ...  17  

Duda  3:  ¿Qué  debemos  de  analizar  de  la  competencia?  ...  17  

Tabla  resumen  del  análisis  de  la  competencia  ...  19  

Duda  4:  Ya  he  realizado  una  auditoria  de  mi  web  y  un  benchmark  de  la  competencia   ¿Ahora  que?  ...  19  

(4)

Como realizar una Auditoría SEO

de una web

A lo largo de este documento se explicara como realizar una auditoría SEO para una Web

Auditoría SEO de una web

En este proceso de auditoria trataremos 6 bloques que incluyen factores tanto onpage, como off page y como he mencionado desgranare en los siguientes posts:

1. Antecedentes históricos.

2. Accesibilidad de la web por parte de bots. 3. Popularidad de la web en Internet.

4. Visibilidad de la web en buscadores. 5. Grado de optimización SEO.

6. Usabilidad de la web por parte del usuario.

1. Antecedentes web

El primer aspecto a la hora de auditar la web es conocer tanto su estado actual, como su historial. Nuestro objetivo es conocer si nuestro proyecto ha sufrido en el pasado o arrastra algún tipo de penalización tanto manual, como

algorítmica.

¿ Como sabemos que hemos sido penalizados y que tipo de penalización tenemos?

Actualmente disponemos de diferentes herramientas de pago y gratuitas que nos pueden ayudar a conocer si hemos sido penalizados de alguna manera ya que usualmente una penalización se traduce en un impacto en las visitas de la web.

Detectar el tipo de penalización algorítmica no siempre es fácil, aunque en el caso de penalizaciones por “pinguin” el golpe es relativamente rápido de destapar, ya que tiene un gran impacto en las visitas de manera inmediata.

(5)

Las penalizaciones por “Panda” son más complicadas de detectar, ya que el su impacto se traduce en una bajada progresiva en las impresiones y visitas a la web.

Herramientas

Afortunadamente disponemos de diferentes tipos de herramientas que nos ayudaran a conocer que le pasa o ha pasado a nuestra web.

Penalizaciones  #Pinguin  tienen  impacto  inmediato  en  visitas,   #Panda  mata  la  web  despacio  

Penalizaciones manuales: Google Search Console

En el caso de penalizaciones manuales por parte de Google suelen deberse a contenido inadecuado o Spam. Para descubrir estas penalizaciones bastara con acudir a Google Seearch Console y nos indicara en el caso de sufrir alguna penalización el motivo y nos dará una serie de indicaciones para subsanarla.

(6)

Las mas usuales suelen ser “Panda” y “Pinguin”, para detectarlas disponemos de las siguientes herramientas:

• Google analytics: Nuestro pilar básico e indispensable de analítica web, además es gratuita.

• Pinguin tool de Barracuda: Se trata de una herramienta gratuita que toma datos de nuestras cuentas de google Analytics y muestra de manera grafica los diferentes cambios en el algoritmo y su influencia en nuestras visitas.

• Semrush: Esta completa herramienta muestra la evolución del tráfico orgánico, no nos señala los cambios algorítmicos, aunque nos sirve para detectar estas penalizaciones como se muestra en los ejemplos

anteriores.

• Google Updates de Sistrix: Uno de los modulos gratuitos de esta herramienta, nos muestra como han influido los cambios del buscador en nuestra visibilidad en Google.

¿por qué es importante conocer el histórico de nuestra web?

Conocer nuestra web nos ayudara a marcar una hoja de ruta y en caso de contar con una web penalizada deberemos de centrarnos en eliminar estas posibles dificultades.

2. Accesibilidad e indexabilidad

El segundo aspecto que trataremos será ver si disponemos de una web accesible para los robots de los buscadores con el objetivo final de que estos bots logren indexar la web correctamente.

Aunque nos centraremos en el bot de Google dada la importancia de este buscador en nuestro país no debemos de olvidar que existen otros buscadores y que cada uno posee un robots que accede a nuestra web para indexarla y es que si nuestra web no indexa o no lo hace al menos de la manera que nosotros deseamos tendremos un grave problema.

Los principales elementos de los que disponemos para facilitar la accesibilidad de nuestra web a los buscadores son los archivos robots.txt y el sitemap del sitio.

Robots.txt

Este archivo indica a las arañas de los buscadores que páginas deben de seguir dentro de nuestra web, bloqueando aquellas que no queramos que entren e indexen.

Se trata de un método muy eficaz para controlar nuestra web y salvaguardarnos de posibles penalizaciones tipo panda.

Para impedir la indexación de partes de nuestra web emplearemos el comando “Disallow: /+nombre de la carpeta o url a bloquear”

(7)

Recomendación de elementos a bloquear:

• Paginas de “tags” o “categorías” del blog/noticias. • Paginas internas y páginas privadas.

• Páginas con escaso contenido. • Comentarios.

• Paginas con contenido muy similar a otras webs, como por ejemplo aviso de cookies, protección de datos y similares, páginas de proveedores,…

• Protección contra bots externos que no deseemos que accedan a nuestra web ( pueden ser bots de otros buscadores u aplicaciones tipo Xenu, screaming frog,…).

• Paginas que incluyen elementos en flash, aspx o PDFs externos. Ejemplo de archivo Robots.txt

Bonus: Meta Robots

Emplear este meta etiqueta nos ayudara a ser mas preciso ala hora de señalar aquellas páginas o grupo de páginas que no deseemos indexar y no deja tanta huella como el archivo robots.txt.

Su formulación es meta name=”robots” content=” index ( o noindex), follow (o nofollow)

Comparar  las  páginas  indexadas  vs  sitemap  nos  ayudara  a   conocer  el  estado  de  nuestra  web  

(8)

¿Se están indexando nuestra web como queremos? Para responder a esta pregunta realizaremos una comparación de las páginas indexadas en google y las páginas que enviamos mediante el sitemap.

Comando site vs sitemap

El primer método consiste en analizar cuantas páginas se encuentran indexadas en Google mediante el comando “site:www.midominio.es” y

compararlas con las páginas incluidas y enviadas a Google a través de Google Search Console. Pueden darse tres posibles escenarios:

Páginas indexadas menor que páginas sitemap

Primer caso en el que Google no esta indexando correctamente nuestra web. Las principales causas suelen ser:

• Mala estructuración de la web que impide a los bots llegar a todas paginas.

• Penalizaciones de algún tipo (algorítmicas o manuales).

Páginas indexadas igual ( o bastante aproximado )a páginas sitemap

Es la situación ideal para una web, ya que Google esta indexando todas las páginas que le enviamos a través del sitemap..

Páginas indexadas mayor páginas sitemap

Se trata de la otra posibilidad de mala estructuración de nuestra web, ya que supone una situación de desequilibrio y las posible causa suele ser la

presencia de contenido duplicado en nuestra web. Para solucionarlo disponemos de diferentes herramientas como por ejemplo las mejoras de

HTML de Google Seach Console o filtrar por duplicados en Screaming frog ( url, titles,…).

Bonus: Otro indicador de que la web se esta indexando correctamente y que

no pasan cosas raras en ella es ver si el primer resultado que nos arroja “site:” es nuestra home.

Errores 404

Los errores 404 son causados cuando el robots de Google pasa por nuestra y no encuentra una determinada página por los siguientes motivos:

• La página no existe.

• La página ha cambiado de URL. • El enlace esta mal.

Este tipo de errores es una de las principales causas de perdida de

(9)

mediante la redirección de estas url a la página correcta o la corrección de los enlaces.

3. Popularidad de la web

Debemos de entender la popularidad web como la importancia que tiene nuestro site para los buscadores y esta representado por el número de enlaces externos relevantes (que estén relacionados con la temática de la web) y de calidad ( que provengan de sitios con una alta popularidad) que recibimos. Para medir la popularidad de nuestra web contamos con los siguientes indicadores:

Autoridad del dominio (DA) y de pagina (PA) de MOZ

Estos indicadores de moz son los más populares a la hora de medir la

popularidad de una web. Como vimos en este post se trata de un valor entre 1 y 100 que se obtiene en base a diferentes factores, entre ellos la cantidad y calidad de los links entrantes tanto a cada página, como al dominio.

Nuestro objetivo es aumentar estos indicadores por encima de nuestros

competidores directos y la media de las páginas que se encuentran en el TOP-10.

Calidad y cantidad de enlaces entrantes

La cantidad y calidad de los enlaces que apunten a nuestra web son los principales indicadores que tiene en cuenta el buscador para determinar la popularidad de un site y esta relacionado directamente con su posición en el ranking. A la hora de analizar nuestros enlaces entrantes tenemos claro que prima la calidad por encima de la cantidad.

Nuestro  objetivo  será  contar  con  el  mayor  número  de  enlaces   de  calidad  que  apunten  a  la  web  

(10)

Actualmente existen diferentes herramientas para conocer los enlaces que apuntan a nuestra web.

Cantidad  de  enlaces  

Nos centraremos únicamente en dos herramientas para saber cuantos enlaces recibimos:

• Search Console: La herramienta de Google nos da una estimación de cuantos enlaces recibimos y de cuantos dominios diferentes. Tambien nos indica cuales son las páginas más enlazadas. El informe se

encuentra en la ruta “Tráfico de búsqueda>>Enlaces a tu sitio”.

• Majestic: Una de las mejores herramientas para analizar backlinks del mercado, al igual que la anterior nos muestra la cantidad de links entrantes, los dominios de referencia e incorpora mucha más información como, por ejemplo, el sector al que pertenecen estos

enlaces, el tipo de dominio (educativos, gubernamentales,…) además de otra información relacionada con la calidad de estos vínculos.

Calidad de los enlaces

Para analizar la calidad de nuestros enlaces volveremos a utilizar Majestic y en especial sus indicadores, “Trust flow “ (relacionado con la calidad de estos backlinks) y el “Citation flow” (hace referencia a la cantidad de enlaces). Estos valores se indican en escala logarítmica entre 1 y 100.

Un truco rápido para saber como esta tu web es dividir el “Trust flow” entre el “Citation flow”. El objetivo es obtener valores cercanos o superiores a 1, ya que dan cuenta de una buena salud del linkbuilding realizado.

Para profundizar en el uso de esta herramientas os recomiendo esta guía de Brandon Díaz (@SEODiaz para Blogger 3.0.

(11)

4. Visibilidad

La visibilidad de una web es uno de los principales indicadores para conocer el estado de salud de nuestra web y ayudarnos a focalizar sobre posibles

problemas o puntos que interesen potenciar

Una web cuenta con una buena presencia en Google cuando esta posicionada en las primeras posiciones para el mayor grupo de conceptos o grupos

semánticos ( ¡¡ojo!! no empleo palabras clave, ya que un concepto o grupo semántico puede estar formado por diferentes palabras clave como sinónimos plurales, extensiones “post” y “pre” termino principal) que definan su actividad.

Visibilidad global del proyecto

Para conocer el estado general de la web acudiremos una vez más a Semrush (aunque Google Search Console puede ser una buena alternativa) ya que nos da una estimación de la evolución del posicionamiento orgánico y de pago de la web, además de las palabras clave posicionadas en las primeras 20

posiciones de Google.

Visibilidad parcial de nuestra web

La visibilidad parcial hace referencia al posicinamiento de las diferentes ramas con las que cuenta nuestra web y es importante saber si alguna parte

importante de nuestro negocio no esta correctamente posicionada, ya que estaríamos perdiendo clientes potenciales.

Para evitar esta situación nos apoyaremos en la creación de grupos por áreas o servicios partiendo del listado obtenido anteriormente en Semrush o Google

Search Console.

Una vez creados esos grandes conceptos realizaremos las siguientes acciones:

1. Conocer las posiciones en el ranking de las palabras que conforman el grupo. Para ello podemos acudir a diferentes herramientas o “suites” como ,por ejemplo, Rank tracker (de pago) o Rankerizer (gratuito).

(12)

2. Obtener la madia de estas posiciones, muy interesante para posterior seguimiento.

3. Focalizar en 1 o 2 palabras clave para poder optimizar cada página. Dentro de cada grupo o subgrupo (en función de la estructuración de cada web se puede dar el caso de contar con subgrupos)

seleccionaremos la palabra clave más representativa (por visitas, búsquedas mensuales,…).

5. Optimización web

Como he mencionado mediremos el grado de optimización onpage de la web siguiendo las indicaciones que nos facilita Google.

Meta etiquetas

Las principales etiquetas que debemos de optimizar son el title y a meta

Description, ya sea de manera manual en el código HTML o mediante algún

plugin que nos facilite la tarea(para Wordpress existen varios como SEO Ultimate, SEO by yoast,…).

Title

• En torno a los 55 caracteres, pero sin ser demasiado cortos (menos de 30 caracteres) o superar los 65-70.

• Atractivos, llamativos y sobre todo únicos para cada página, ya que se mostraran en los resultados de búsqueda.

• Deben de contener la palabra clave, pero sin abusar. • Coherentes y relacionados con la temática de la página.

Meta Description

Aunque la teoría nos dice que no es un factor que incida en el ranking de la web si que puede influir en e CTR de la web. Además si no fuera un factor a tener en cuenta ¿por qué Google Search Console nos da orientaciones sobre esta?. Mi recomendación es seguir los siguientes puntos:

• Extensión recomendada de 155 caracteres, sin embargo, debemos de no quedarnos excesivamente cortos ( menos de 1000 caracteres).

• Dado que se mostrara bajo los resultados de búsqueda debemos de incitar a clicar sobre este, por tanto debe ser atractivo y destacable. • Debe de mostrar coherencia con el contenido de la página.

• Incluir palabras clave.

Herramientas

De cara a analizar rápidamente estas etiquetas podemos acudir a las siguientes herramientas:

(13)

• Google Search Console: Nos señalara cuantos Titles y Description tenemos duplicados en la web o son demasiado extensos en la web y en que páginas.

• Screaming FROG: Indispensable, nos analizara toda la web señalando etiquetas vacías, duplicadas, demasiado extensas o cortas,…

Si  la  description  no  es  unfactor  para  el  SEO  ¿Por  qué  GWT  nos   da  indicaciones  para  su  optimización?  

Canonicals y rel prev/next

Todas las páginas de nuestra web deben de contar con la etiqueta canocinal apuntando a la página original, especialmente en aquellas con paginaciones, feed, productos de una tienda online (más que obligatorio),…

La etiqueta cuenta con la siguiente estructura:

<link rel="canonical" href="http://www.dominio.com/pagina-original" />

¿Por qué es tan importante esta etiqueta? Nos va a ayudar a reducir contenido duplicado en la web, ya que le estaremos indicando al buscador

cual es la página original. Por ejemplo:

Un producto que incorporamos a nuestra tienda online puede aparecer en varios apartados (novedades, ofertas, y página de categoría) con canonical le diríamos al buscador que no son productos diferentes sino que se trata del mismo, evitando en este caso 3 duplicidades

Las etiquetas rel next/prev son un complemento a la canonical para aquellas webs con paginizaciones y ayudan a entender esta sucesión de páginas a Google.

Imágenes

Las imágenes son un elemento primordial, ya que se trata de un contenido que dota de personalidad a la web. Algunos elementos que debemos tener en cuenta a la hora de añadir fotografías o gráficos son las siguientes:

• Titulo: Tiene que ser descriptivo de la imagen.

• Texto alternativo (alt): Muy importante ya que será lo que se muestre cuando por algún motivo no se pueda mostrar la imagen ( problemas de carga, ordenadores de personas invidentes,…)

(14)

• Nombre del archivo: Debe de ser representativo del archivo que se va ha añadir, no podemos poner un nombre genérico o peor aun uno numérico.

• Peso del archivo: Contamos con diferentes tipos de archivos (JPG,PNG y GIF), aunque independientemente de su utilización debemos de incorporar imágenes comprimidas ( perdiendo el mínimo posible de calidad) para ayudar a la velocidad de carga de la web.

URLs

Como siempre debemos de facilitar el trabajo a los diferentes bots que interactúen con nuestra web, por ello debemos de contar con una estructura de URLs amigables que faciliten tanto a los robots (a la hora de trazar el árbol web, como en su navegación), como a los usuarios (será más fácil de recordar URLs amigables que aquellas que contienen números y/o símbolos).

En  URL  mejor  www.midominio.com/url-­‐amigables-­‐para-­‐ buscador  que  www.midominio.com/id?=123  

No esta de más mencionar que estas urls deben de contener la palabra clave y no ser demasiado extensas.

Seo Local

El posicionamiento local se esta convirtiendo en un factor muy importante para aquellos negocios con una marcada influencia geolocalizada (restaurantes, tiendas,…). Por ello es muy importante contar con una ficha de Google My Business completa, ya que aparecerá junto a los resultados de búsqueda de marca.

Información mínima que debemos de incorporar:

• Información corporativa de la empresa ( sector, horario,…) • Datos de contacto y enlace a la web.

• Descripción de la empresa. • Fotografías.

Contenido

Que el “contenido es el rey” es uno de los pilares básicos del marketing digital y tiene mucha importancia en SEO. Debemos de contar siempre con un contenido:

• Original y propio, es decir, no copiado de terceras webs, el peligro de que panda nos golpee siempre esta presente.

• Atractivo para el usuario, que aporte valor a sus consultas y sobre todo que este orientado a cumplir los objetivos de la web vender en caso de ecommerce, generar un leads en blog o un contacto,…).

(15)

Se debe de tener especial cuidado a la hora de eliminar contenido de la web o incorporar nuevo contenido, especialmente en el caso de añadir nuevos productos en una tienda online u actualizar las nuevas versiones de estos, ya que una mala gestión puede llevarnos a errores 404 o duplicidad de contenido. Entre las herramientas que empleo a la hora de analizar mi contenido se encuentran Copyscape y siteliner, ambas gratuitas.

Otro aspecto a tener en cuenta es la estructuración de la información

mediante encabezados ( etiquetas h1 y siguientes). Un buen esquema web

debe de contar con los siguientes elementos:

• H1: Titulo principal de la página, debe de ser único y contener la palabra clave.

• H2: Diferentes subapartados de la página, no debemos de abusar de este elemento.

• H3 y siguientes: no es recomendable ir mas allá de un h3 o h4, sin embargo, debemos de premiar la ordenación del contenido, sin contamos con diferentes apartados dentro de nuestro esquema marquémoslos, sin miedo a sobreoptimizar la web, siempre preguntándonos si aporta valor al lector.

WPO

La velocidad de carga de nuestra web es un elemento muy importante

para el posicionamiento de la web. Aquí intervienen diferentes elementos

como pueden ser el servidor, el tema que utilicemos en la web,….

Para ganar unos segundos en la carga es muy recomendable contar con algún tipo de plugin de cache para nuestra web como por ejemplo W3 total cache, wp minify, wp super cache…

Existen múltiples herramientas para medir la velocidad de carga como las siguientes:

• PageSpeed Insight: Oficial de Google y gratuita

(https://developers.google.com/speed/pagespeed/insights/)

• GT Metrix: De pago, pero permite realizar 3 análisis gratuitos señalando además algunas mejoras a realizar en la web (https://gtmetrix.com/) • Pingdom tools: También de pago (https://www.pingdom.com/)

6. Usabilidad

El ultimo pilar que se analizara en este serial sobre auditoria web SEO será la usabilidad del site teniendo como objetivo dotar de una buena experiencia de uso a los usuarios, pare ello analizaremos los siguientes factores:

(16)

Findability

Usamos este concepto para evaluar si un sitio web cumple con los

objetivos que podemos esperar a priori sobre él, es decir, somos capaces

de encontrar aquello que buscamos en el sitio. Algunos ejemplos para clarificar el concepto:

Ecommerce

¿Son los usuarios capaces de encontrar un determinado producto en una tienda online navegando entre las categorías más lógicas en las que se espera encontrar ese producto?

Web corporativa

¿Podemos encontrar fácilmente el teléfono o un formulario de contacto?

Porcentaje de rebote, páginas vistas por sesión y tiempo medio de la visita

Estos conceptos y estadísticas son interesantes para evaluar la experiencia de uso de la web y nos pueden ayudar a responder a las siguientes preguntas:

• ¿el contenido de mi web es relevante para el usuario al que se enfoca? • ¿La web nos invita además a seguir navegando por ella?

• ¿Nos ayuda conocer más servicios o productos que podrían ser adquiridos conjuntamente?

• …

Nuestro objetivo es conocer que esta pasando en nuestra web, mejorar la experiencia de usuario y obtener un buen % de conversión.

Para conocer estas estadísticas podemos usar Google Analytics u otra herramienta de analítica web.

Responisve

Hoy en día se navega prácticamente más por dispositivos móviles smartphones que por Pc, si no disponemos de una web adaptada a móviles estamos perdiendo un publico potencian que puede ser muy importante para nosotros. La actualización de Google Mobile friendly del pasado abril ya nos indico la importancia de contar con la web adaptada a smartphones.

Para comprobar si disponemos de una web correctamente adaptada podemos usar esta herramienta. (enlace)

(17)

Hasta aquí esta tercera parte en la que finalizamos el análisis de nuestra web bajo los 6 pilares que señalamos en el primer articulo (LINK A ESTE ). Os recuero que hemos visto hasta ahora:

7. Antecedentes históricos. 8. Accesibilidad. 9. Popularidad. 10. Visibilidad. 11. Optimización SEO. 12. Usabilidad.

En el próximo articulo finalizaremos la auditoria analizando rápidamente a los principales competidores de la web y veremos que conclusiones debemos de obtener de la auditoria para encarar unos objetivos y una estrategia para alcanzarlos.

Análisis  de  la  competencia  

Llegamos al final de este serial de artículos sobre como realizar una auditoría SEO para cualquier tipo de webs. En esta ultima parte veremos como realizar un análisis rápido de la competencia teniendo en cuenta todas las bases tratadas en los diferentes artículos.

La dudas que se nos plantean son:

Duda  1  :  ¿cuántos  competidores  se  deben  de  tener  en  cuenta?    

Debemos de tener en cuenta que nuestro objetivo es aspirar a posicionarnos en primera página de Google por lo que para mis análisis suelo tener en cuenta como mínimo a las 5-10 webs que nos encontramos en la primera página para identificar los “requisitos mínimos” que mi web debe de tener. No debemos de sufrir un bloqueo por sobre información y perder demasiado tiempo.

 Duda  2:  ¿En  base  a  que  identificamos  a  nuestros  competidores?  

Para responder a esta pregunta os aconsejo que toméis la palabra clave principal de vuestra web, ya que debe de coincidir con la actividad del negocio y con la de nuestros rivales. Por ejemplo “tienda de café online”, “taller en Madrid”, “tienda de llantas online”,…

Duda  3:  ¿Qué  debemos  de  analizar  de  la  competencia?  

A la hora de analizar a mis rivales me baso en los 6 pilares tratados en los diferentes post sobre auditoria y los resumo en una tabla como la que os

(18)

Evolución  histórica  

Dado que no contamos con acceso a las estadísticas de la web de terceros debemos de acudir a alguna herramienta que nos de una idea aproximada de la evolución del tráfico que recibe una web, al meno orgánico. Semrush cumple perfectamente con esta función ya que nos muestra un grafico con la evolución orgánica, donde podemos identificar tendencias, penalizaciones,…

Accesibilidad  de  la  web  o  indexación  

La indexación de nuestros competidores nos ayudara a entender la magnitud de su web, Identificaremos cantidad de URLs con cantidad de contenido, pero no con calidad. Nuestra herramienta en este caso será el operador site:

Popularidad  para  los  buscadores  

Una web muy popular supondrá una gran barrera a la hora de posicionarnos, ya que contatara con un número alto de enlaces, contenido de calidad,… Nos guiaremos por la autoridad de dominio (DA) y autoridad de pagina de la home (PA) indicadores que nos facilita MOZ.

A la hora de analizar los enlaces que reciben nuestros competidores usaremos majestic (u otra herramienta similar como ahrefs) y tendremos en cuenta:

• Número total de backlinks.

• Número de dominios que enlazan al competidor. • Calidad de los enlaces (Trust flow)

• Calidad de los enlaces (Citation Flow)

Visibilidad  

Para medir la visibilidad de nuestros competidores para los buscadores, así como las principales palabras clave por las que se posicionan y que podemos identificar como oportunidades para nuestro proyecto contamos con dos grandes herramientas indispensables:

Por una parte contamos con Semrush que nos da una aproximación del numero de palabras clave por las que se encuentra posicionada una web en el top 20 de Google, asi una estimación de tráfico que supone cada palabra para la web, grado de competencia,…

Por la otra encontramos Sistrix que ofrece un grafico con la evolución de la visibilidad en Google según un algoritmo propio y permite comparar nuestra web con otros dominios e identificar sus palabras clave, a la vez que identifica oportunidades de posicionamiento.

(19)

Optimización  

¿Cómo esta de optimizada la web de nuestra competencia? ¿Cuenta con titles y description optimizados? ¿Cómo lo están haciendo? ¿Cuidan su robots.txt? ¿y su sitemap? ¿Tienen contenido duplicado?.

Las anteriores son algunas de las preguntas que tenemos que hacernos a la hora de auditar a nuestros “enemigos” para una análisis rápido y profundo acudiremos a Screaming frog

Usabilidad  

Finalmente debemos de conocer la estética, la estructura y la experiencia que nuestros rivales ofrecen al usuario. Navegar por estos sitios nos ofrecerá un aprendizaje en dos líneas, nos ayudara a identificar oportunidades para explotar en nuestra web y problemas o limitaciones que contamos en nuestro site.

Tabla  resumen  del  análisis  de  la  competencia  

Competidor DA Home PA Indexación Backlinks Total

Dominios que enlazan Trust Flow Citation Flow Competidor 1 Competidor 2 … Competidor N

Gracias a esta tabla podremos conocer los niveles mínimos que debemos de alcanzar para poder competir en posicionamiento con ellos.

Duda  4:  Ya  he  realizado  una  auditoria  de  mi  web  y  un  benchmark  de  la  competencia   ¿Ahora  que?  

Una vez finalizada la auditoría SEO de nuestra web, tanto desde la perspectiva interna ( nuestra web), como externa ( como nos perciben los buscadores y el estado de nuestra competencia), estaremos en disposición de identificar las principales:

• Debilidades que presenta nuestra web.

• Amenazas por parte de nuestros competidores. • Fortalezas con las que contamos.

• Oportunidades que nos brindan nuestros competidores y que debemos de aprovechar.

Una vez construido nuestro análisis DAFO podremos seguir avanzando y marcar una estrategia y unas tácticas para alcanzar los objetivos marcados.

Referencias

Documento similar

BUBER'NEUaiAMN, Margarete ¡ Von Potsáam ndch Moskau. SMíionen eines Irftveges. Stuttgart, 1957; Deutsche Verlags-Anstalt, 480 págs... DAHM: Deutsches Reckt. Die geschichüichen

el PAtio de mi escuelA es un bosque de diversidAd Más allá de las pistas deportivas, ofrecer en el patio espacios alternativos de juego libre que estén en contacto con la

Se revisa en este artículo la impor- tancia de las neuronas espejo y de la empatía para que los espectadores se sientan cercanos a la situación que se vive en el cine y la necesidad

Gastos derivados de la recaudación de los derechos económicos de la entidad local o de sus organis- mos autónomos cuando aquélla se efectúe por otras enti- dades locales o

Sabemos que, normalmente, las ​cookies deben ser almacenadas y enviadas de vuelta al servidor sin modificar; sin embargo existe la posibilidad de que un atacante

LAS RELACIONES INTERNACIONALES COMO DISCIPLINA PARTICULAR EN SUS CONEXIONES CON DISCIPLINAS AFINES A) Las relaciones internacionales en cuanto ciencia política. Las relacio-

También hemos visto como la principal característica de este proceso de racialización es que se hace presente en los libros de texto de una forma dialéctica, al pretender

&#34;No porque las dos, que vinieron de Valencia, no merecieran ese favor, pues eran entrambas de tan grande espíritu […] La razón porque no vió Coronas para ellas, sería