feb 18

Nuevos Cambios en el Algoritmos de Google…

Desde hace 6 meses, GOOGLE está revisando en profundidad para “posicionar” las páginas en su motor de búsqueda lo natural o no de cada PERFIL DE ENLACES de cada página web.

Desde Enero de 2013, hemos incluído un servicio de AUDITORIA DE PERFIL DE ENLACES, que nos permite analizar la calidad de cada cliente, antes de comenzar el proyecto personalizado de LINKBUILDING.

Igualmente, hemos estado desde 2012, trabajando con clientes, que habían sido penalizados por GOOGLE PANDA y GOOGLE PENGUIN unos meses después, consiguiendo resolver sus penalizaciones. Hemos puesto a la disposición de nuestros MAYORISTAS, el servicio de DESPENALIZACIÓN.

A continuación os explicamos las Actualizaciones más importantes de los algoritmos de Google durante 2012, próximamente escribiremos un post, sobre lo que está planificado para 2013.

Durante el pasado año Google realizó varias actualizaciones a varios de sus algoritmos que desencadenaron una auténtica revolución en los resultados de búsqueda que ofrecía su buscador. A continuación vamos a hacer un repaso a las actualizaciones más importantes y que más influencia tuvieron durante el año pasado.

Actualización del Google EMD (Exact Match Domain)

Uno de los cambios en el algoritmo que más influyó el año pasado fue la actualización de su política para perseguir a las Webs spam con EMD. Google no fue contra las Webs que estaban usando el EMD pero si contra aquellas que utilizaban el recurso del EMD y eran Webs de baja calidad. Los criterios que sigue Google para aplicar este algoritmo son los siguientes:

1.-Contenido de baja calidad
El buscador indaga si hay artículos escritos por expertos, o con cierto nombre, sobre la materia que divulga la Web, si hay artículos o contenidos duplicados en la Web y si la página tiene serios problemas de construcción gramatical o errores ortográficos. Si Google descubre esto en una Web que utiliza el EMD como recurso la considera de baja calidad y la sanciona relegándola a peores puestos en los rankings.

2.-Links de baja calidad
Links considerados de baja calidad o que no tienen nada que ver con el tema de la Web son motivo de penalización. Es muy difícil detectar estos links, por eso es necesario el uso de herramientas que nos ayudarán a detectarlos y eliminarlos. Una de estas herramientas que podemos usar para descubrirlos es el Seomoz Open Site Explorer o el Majestic Site Explorer. Una vez detectados procederemos a su eliminación. Una vez eliminados iniciaremos una campaña de construcción de links creando para ello semanalmente nuevos contenidos. Un buen sitio para hacer esto son los blogs. Junto a la creación regular de contenidos nuevos tendremos que activar nuestra presencia en las redes sociales ofreciéndolas nuestros nuevos contenidos, los cuales tienen que ser creados pensando en lo que la gente busca y necesita. Todo esto hará que nos recuperemos del algoritmo EMD ya que empezaremos a conseguir links de calidad.

Algoritmo Google Penguin o “pingüino”

Esta actualización fue lanzada el 24 de abril del 2012. El Pinguin se ha centrado en Webs de poco valor y en las que no seguían las normas de Google como la inclusión en sus páginas de palabras claves de relleno, links no deseados o basura o la copia de contenidos.
El contenido basura es uno de los objetivos del Pinguin. Si la Web lo tiene debemos borrarlo y escribir contenido nuevo y original sin faltas gramaticales u ortográficas.
El uso de palabras claves de relleno es muy fácil de descubrir. Usar sólo palabras claves relevantes para el contenido y evitar las irrelevantes tanto en el texto como en la meta title, la meta description y en la meta key word.
Otro aspecto que ataca el Pinguin son los anchor text que aparecen en los links que no tienen nada que ver con el contenido. La sobre optimización de estos anchor text también es penalizada, es decir, el uso abusivo de la misma palabra clave en los anchor text de los links es perseguido por el Pinguin.
Si hemos sido afectados por el Pinguin recordar que aunque hayamos corregido los problemas, los resultados positivos de estos cambios tardarán cierto tiempo en verse reflejados en la mejora del posicionamiento de nuestra Web.

Panda

El algoritmo Panda va dirigido contra aquellas páginas que tienen poco texto comparado con la publicidad que hay en ellas y contra las páginas con contenido duplicado. Google con el Panda ataca a las Webs con contenido superficial o poco profundo y lo mide haciendo una comparación entre el tanto por ciento de texto que tiene la Web con el tanto por ciento de otros recursos que aparecen en ella como anuncios, imágenes o menús.
La solución a este problema es la creación de más contenido para subir ese tanto por ciento de texto de la página.
El contenido duplicado es otro de los motivos para verse afectado por el Panda. La eliminación de este contenido duplicado es esencial pudiendo usar la herramienta Screaming Frog para detectarlo

En resumen, muchas de las actualizaciones que Google hizo el año pasado van dirigidas a la búsqueda de contenidos de baja calidad ya que su mayor preocupación es mostrar a sus clientes, a través del buscador, contenidos útiles y de calidad.

A ver que nos depara este 2013..

Hasta pronto, el equipo de contenidos de SEOMARCABLANCA®.

ene 13

Google se hace más inteligente con el “Knowledge Grahp”

Google acaba de anunciar que su proyecto “Knowledge Grahp” esta ya disponible en diferentes idiomas como el Español, Italiano, Francés, Japonés, Portugués y Ruso. Este proyecto de Google es uno de los mas importantes llevados a cabo por la empresa durante los últimos años y, hasta la fecha presente, estaba solo disponible en Inglés.

Video Knowledge Graph

Desde el pasado mes de agosto el “Knowledge Graph” estaba accesible en todos los países de habla inglesa tras haberlo lanzado previamente en Estados Unidos. El gran reto de Google era internacionalizar el “Knowledge Graph”.

Pero ¿qué  pretende Google con  el “Knowledge Grap”?  Google, resumiendo, lo que quiere es que podamos ahora de una forma rápida y fácil encontrar información más relevante en nuestro propio idioma y país, información que por la ubicación física y el idioma que usamos sea mas apropiada a nuestras necesidades de búsqueda. En un par de palabras: aumentar la productividad e inteligencia del buscador.

El buscador parte de la  idea que incluso entre las búsquedas en inglés las deferencias entre lo que la gente demanda en  la India, Australia, Gran bretaña o Estados Unidos son  considerables.

Google utiliza como ejemplo para explicar este nuevo proyecto la búsqueda de “taj mahal”. El taj mahal puede ser uno de los monumentos más famosos del mundo, o el ganador de un premio Grammy o un casino de Atlantic City en Estados Unidos o incluso el último restaurante indio en el que comimos en nuestra ciudad. Todos estos resultados y unos cuantos más nos muestra el buscador cuando realizamos la búsqueda con taj mahal.

Hasta la fecha Google se limitaba a mostrárnoslos, sin conocer la diferencia que había entre todos ellos; sin embargo, es obvio que la persona que realiza la búsqueda esta interesada sólo en uno de los resultados mostrados. Ahora, gracias al Knowledge Grap, Google va a poder distinguir todas esas entradas ya que va a ser capaz de entender la diferencia entre todas ellas. Esto se va a traducir que por cada entrada que nos muestre el buscador se nos va a ofrecer información adicional de cada uno de ellas antes de que hagamos clic en uno de los resultados mostrados.

Gracias a este proyecto el buscador se convierte en más inteligente y no se limita a ofrecer simplemente un listado de resultados, sino que gracias a su conocimiento, junto a los resultados enseñados añadirá información adicional para que de un simple vistazo podamos elegir, por ejemplo, la entrada del taj mahal correspondiente al casino de Atlantic City y no a la referida al ganador del premio Grammy.

Este es un desafío que Google ha conseguido resolver, conseguir que el buscador se haga mas efectivo e inteligente, y según revela la propia compañía, abre la puerta a mejoras a la hora de usar su sistema de búsqueda a través, por ejemplo, de la utilización de la voz. Pero ese será sin duda motivo para el análisis y escritura de diferentes artículos.

jul 03

Evitar Personalización en los Rankings que nos muestra Google

Buenas a todos,

Llevamos unas semanas muy intensas, con mucho congreso antes de verano…

Bueno, hoy os vamos a hablar de algo muy importante. Cómo visualizar los RANKINGS REALES, que ve cualquier internauta.

Existen varias fórmulas pero la más cómoda, es DESLOGARTE de GMAIL y añadir:

 

 

 

RESUMEN DE PASOS:

1º.- Me deslogueo de GMAIL.

2º.- Realizo una búsqueda en GOOGLE.

3º.- En la URL que se genera, añado al final 

 

 

Briconsejo de parte de: www.seomarcablanca.com

jun 03

Congreso Web de Zaragoza 2012

Buenas a todos,

Estamos escribiendo este post desde el auditorium del World Trade Center de Zaragoza, donde los profesionales del sector del SEO se han reunido este fin de semana, para debatir sobre los últimos cambios que ha realizado Google, tanto en Google Places, como en la actualización de su algoritmo, llamado Google Penguin, http://en.wikipedia.org/wiki/Google_Penguin

A destacar la conferencia de Lakil (@lakil) del regalador.com, en la que mostró en un caso práctico sobre su startup.

Igualmente la conferencia de Koke (@kokebcn), sobre Google Places y Keyword Research, han estado muy bien.

Muy bien Kiko (@kikoes), con su charla de linkbuilding, sin duda como dice Miguel de TallerSEO (@miguellopezgo), es uno de los de los mejores profesionales de LinkBuilding de España.

Recomendamos buscar en SlideShare, las presentaciones que se han realizado que ya están colgadas.

congreso Web 2012 Zaragoza