ACTUALIZACIONES MAS REPRESENTATIVAS DE GOOGLE EN EL 2014

Ya hace mucho tiempo que no entraba a SeoWeb Consultor a escribir sobre el posicionamiento web, y es que desde que entré en Seo Solutions apenas tengo tiempo para nada, pero le debía a esta web al menos un post de los cambios más importantes en el algoritmo de Google durante el último año (2014) para poneros al día, al menos de lo fundamental del SEO.

Y es que durante este pasado año Google nos ha sorprendido con varias de sus actualizaciones lo cual ha implicado la realización de cambios muy importantes y notables a nivel interno en las estrategias de marketing y SEO en general.

actualizacion google 2014

Han sido 5 las actualizaciones más significativas en 2014 y las que han supuesto un antes y un después en el posicionamiento en el buscador. Los cambios en el algoritmo han supuesto para muchos sitios web una caída en picado y han implicado un mayor esfuerzo de optimización y cambios exhaustivos para eliminar todo contenido duplicado y ofrecer a Google un contenido mucho más rico y original. No obstante, nada que ver con los «cataclismos» que se dieron con las primeras actualizaciones de Panda y Penguin.

 

Leer más

EL VALOR DEL CONTENIDO EN EL SEO TRAS GOOGLE PANDA

la importancia del contenido en el SEO tras Google Panda
Google Panda ha cambiado la forma de trabajar de muchas empresas y consultores SEO

Google Panda ha sido una de las actualizaciones más importantes que hemos podido ver en el algoritmo de Google en los últimos años que ha hecho cambiar la metodología de posicionamiento web de muchos consultores SEO. Google Panda salió a la luz en febrero de 2011 y desde entonces han ido saliendo nuevas versiones de esta famosa actualización hasta tal punto que ya vamos por la versión 24 de Google Panda y en breves nos encontraremos con la 25, probablemente a finales de año.

Esta actualización no es en realidad, como piensa mucha gente, una actualización del algoritmo de Google sino que se trata en realidad de un filtro que se aplica sobre el mismo, al igual que sucede con Google Penguin, aunque en el caso de la actualización del Pingüino el filtro va destinado a las técnicas de creación de enlaces artificiales.

 

Leer más

ROBOTS.TXT TUTORIAL BASICO PARA SEO

El Robots.txt o protocolo de exclusión de robots, sirve para evitar que los robots de los motores de búsqueda sean capaces de analizar parte o la totalidad de las páginas de un sitio web. Esta orden funciona a modo de recomendación, por lo que algunos robots podrán hacer caso omiso de ello.

Esto puede tener diferentes utilidades:

  • Se utiliza en ocasiones para hacer algunas secciones privadas, aunque los archivos de robots.txt están disponibles de forma pública por lo que cualquier persona con un navegador y conocimientos informáticos medios puede acceder a dicha información.

Leer más