Nuevos Cambios en el Algoritmos de Google…

Desde hace 6 meses, GOOGLE está revisando en profundidad para “posicionar” las páginas en su motor de búsqueda lo natural o no de cada PERFIL DE ENLACES de cada página web.

Desde Enero de 2013, hemos incluído un servicio de AUDITORIA DE PERFIL DE ENLACES, que nos permite analizar la calidad de cada cliente, antes de comenzar el proyecto personalizado de LINKBUILDING.

Igualmente, hemos estado desde 2012, trabajando con clientes, que habían sido penalizados por GOOGLE PANDA y GOOGLE PENGUIN unos meses después, consiguiendo resolver sus penalizaciones. Hemos puesto a la disposición de nuestros MAYORISTAS, el servicio de DESPENALIZACIÓN.

A continuación os explicamos las Actualizaciones más importantes de los algoritmos de Google durante 2012, próximamente escribiremos un post, sobre lo que está planificado para 2013.

Durante el pasado año Google realizó varias actualizaciones a varios de sus algoritmos que desencadenaron una auténtica revolución en los resultados de búsqueda que ofrecía su buscador. A continuación vamos a hacer un repaso a las actualizaciones más importantes y que más influencia tuvieron durante el año pasado.

Actualización del Google EMD (Exact Match Domain)

Uno de los cambios en el algoritmo que más influyó el año pasado fue la actualización de su política para perseguir a las Webs spam con EMD. Google no fue contra las Webs que estaban usando el EMD pero si contra aquellas que utilizaban el recurso del EMD y eran Webs de baja calidad. Los criterios que sigue Google para aplicar este algoritmo son los siguientes:

1.-Contenido de baja calidad
El buscador indaga si hay artículos escritos por expertos, o con cierto nombre, sobre la materia que divulga la Web, si hay artículos o contenidos duplicados en la Web y si la página tiene serios problemas de construcción gramatical o errores ortográficos. Si Google descubre esto en una Web que utiliza el EMD como recurso la considera de baja calidad y la sanciona relegándola a peores puestos en los rankings.

2.-Links de baja calidad
Links considerados de baja calidad o que no tienen nada que ver con el tema de la Web son motivo de penalización. Es muy difícil detectar estos links, por eso es necesario el uso de herramientas que nos ayudarán a detectarlos y eliminarlos. Una de estas herramientas que podemos usar para descubrirlos es el Seomoz Open Site Explorer o el Majestic Site Explorer. Una vez detectados procederemos a su eliminación. Una vez eliminados iniciaremos una campaña de construcción de links creando para ello semanalmente nuevos contenidos. Un buen sitio para hacer esto son los blogs. Junto a la creación regular de contenidos nuevos tendremos que activar nuestra presencia en las redes sociales ofreciéndolas nuestros nuevos contenidos, los cuales tienen que ser creados pensando en lo que la gente busca y necesita. Todo esto hará que nos recuperemos del algoritmo EMD ya que empezaremos a conseguir links de calidad.

Algoritmo Google Penguin o “pingüino”

Esta actualización fue lanzada el 24 de abril del 2012. El Pinguin se ha centrado en Webs de poco valor y en las que no seguían las normas de Google como la inclusión en sus páginas de palabras claves de relleno, links no deseados o basura o la copia de contenidos.
El contenido basura es uno de los objetivos del Pinguin. Si la Web lo tiene debemos borrarlo y escribir contenido nuevo y original sin faltas gramaticales u ortográficas.
El uso de palabras claves de relleno es muy fácil de descubrir. Usar sólo palabras claves relevantes para el contenido y evitar las irrelevantes tanto en el texto como en la meta title, la meta description y en la meta key word.
Otro aspecto que ataca el Pinguin son los anchor text que aparecen en los links que no tienen nada que ver con el contenido. La sobre optimización de estos anchor text también es penalizada, es decir, el uso abusivo de la misma palabra clave en los anchor text de los links es perseguido por el Pinguin.
Si hemos sido afectados por el Pinguin recordar que aunque hayamos corregido los problemas, los resultados positivos de estos cambios tardarán cierto tiempo en verse reflejados en la mejora del posicionamiento de nuestra Web.

Panda

El algoritmo Panda va dirigido contra aquellas páginas que tienen poco texto comparado con la publicidad que hay en ellas y contra las páginas con contenido duplicado. Google con el Panda ataca a las Webs con contenido superficial o poco profundo y lo mide haciendo una comparación entre el tanto por ciento de texto que tiene la Web con el tanto por ciento de otros recursos que aparecen en ella como anuncios, imágenes o menús.
La solución a este problema es la creación de más contenido para subir ese tanto por ciento de texto de la página.
El contenido duplicado es otro de los motivos para verse afectado por el Panda. La eliminación de este contenido duplicado es esencial pudiendo usar la herramienta Screaming Frog para detectarlo

En resumen, muchas de las actualizaciones que Google hizo el año pasado van dirigidas a la búsqueda de contenidos de baja calidad ya que su mayor preocupación es mostrar a sus clientes, a través del buscador, contenidos útiles y de calidad.

A ver que nos depara este 2013..

Hasta pronto, el equipo de contenidos de SEOMARCABLANCA®.

Comments are closed.