Evitar penalizaciones de Google
A medida que se van asentando los conceptos para conseguir un buen posicionamiento web de nuestra página en Google, es más frecuente que los webmasters utilicen sus “trucos” para conseguirlo.
Pues de la misma manera Google centra cada vez más su atención en buscar webs que aplique este tipo de prácticas y penalizarlas. Por penalización entendemos bajar la posición que ocupa esa web en el buscador y bajar su PageRank (como ejemplo podemos recordar que Google se penalizó a sí mismo por incluir el acceso directo de descarga del explorador Chrome, pasó de la 1ª posición a la página 73 de resultados).
Algunos de los métodos que se utilizan para engañar al buscador y que pasan desapercibidos en los usuarios que visitan los sites son:
-Ocultar el texto escribiendo con un color de fuente igual al color de fondo, de forma que las personas no lo veremos pero sí los robots, y lo indexarán.
-Usar un tamaño de letra muy pequeño que las personas apenas puedan leer, en cambio a los robots esto no les influye y de nuevo lo indexarán.
-Abusar de las palabras con las que se quiere posicionar la página, repitiéndolas de forma poco natural con una alta densidad para que el robot crea que el sitio trata de ese tema que tanto se repite en sus textos.
Aun así esto ya es fácilmente detectable por el buscador y en vez de ayudar, lo que hace es empeorar la web y hacer que salir primero en google sea una tarea muy difícil.
También podemos comentar la técnica de link-bombing. Por ejemplo, si en una página web hay un enlace a la palabra ordenadores, lo que esperamos es que al pulsar sobre este enlace nos lleve a una página sobre ordenadores, o al menos de informática. Eso es lo normal en la Web. Aprovechándose de esta idea, algunas personas comenzaron a usar de forma distinta y fraudulenta para el SEO este criterio y usaron palabras que no correspondían con los contenidos del sitio al que enlazaban.
Otra técnica muy conocida y utilizada es el cloaking, que consiste en ofrecer a los robots un texto distinto del que pueden ver las personas. La forma de hacerlo es mediante redirecciones. Los robots indexan el contenido de esta página inicial sin ningún problema, pero los usuarios no la ven porque de forma automática y rápida (por ejemplo mediante un guión de Javascript) son redireccionados a otra página inicial. El usuario ve la segunda página inicial a la que ha sido redireccionado. El resultado final es que el robot ve una página y el usuario ve otra, hay dos versiones del contenido.
Aunque es solamente una pequeña introducción, finalmente espero que vuestro site pueda llegar lo más alto sin necesidad de recurrir a lo comentado anteriormente, aunque cada uno es libre de hacer lo que quiera.
muy bueno el articulo y para todos los que intentamos posecionar nuestras paginas no como temos el mismo error ya mencionado
Registro automático