Descripción
Lo que debes saber del contenido duplicado

Lo que debes saber del contenido duplicadoHecha un vistazo a tu sitio Web. ¿Cuanto del contenido que tienes podría ser considerado como contenido duplicado por el algoritmo de un motor de búsqueda como Google? Aunque nunca copies contenido de un sitio Web no puedes responder “nada” por que quizás te están copiando a ti. El contenido duplicado es uno de los problemas que los motores de búsqueda excluyen de sus índices mientras tratan de ofrecer contenido de calidad y relevancia a los usuarios.

La penalización por tener contenido duplicado puede ser muy perjudicial. Esto no sólo significa bajar posiciones en el posicionamiento sino que en muchos de los casos significa estar  en una zona muy difícil para obtener algún tipo de tráfico.

Esta penalización también ocurre en sitios Web de gran reputación que publican contenido de calidad y que nunca hasta ahora habían producido contenido duplicado. En este hilo del foro Webmaster World puedes leer un caso de un sitio Web que tuvo este problema.

Tipos de contenido duplicado

El contenido duplicado va más allá del simple “copy and paste” de una página Web. No sólo es contenido que ha sido copiado directamente de una página Web o de un feed RSS. Si bien es cierto que lo anterior comentado suele ser el porcentaje más alto del contenido duplicado que puede encontrarse, hay otros aspectos que hacen referencia al contenido duplicado.

Navegación circular

Se define como navegación circular el tener multiples paths para acceder al mismo contenido de un sitio Web. Un ejemplo de la navegación circular podría ser un artículo que se puede obtener por diferentes URL:

www.ejemplo.com/articulo/1/

www.ejemplo.com/articulo1/

www.ejemplo.com/articulos.php?id=1

Otra forma del uso de múltiples URL es un hilo en un foro. Cada hilo puede ser accesible a través de un enlace, como por ejemplo,www.miforo.com/indice.php/tema1201.html, y cada mensaje de ese hilo puede tener una URL del tipowww.miforo.com/indice.php/tema1201.01.html.

¿Cuál es la solución?

Definir siempre una estructura correcta para el diseño de las URL. Hace un tiempo publique un post que hacia referencia a un buen diseño para todos los enlaces de nuestro sitio Web.

Otra posible solución puede ser aplicar reglas de exclusión en el fichero robots.txt para evitar que indexe URL que apunten a un mismo contenido.

Versión de una página especial para impresión

Crear una versión preparada para imprimirse es una práctica común que añade valor a los visitantes del sitio Web. Pero ¡atención! este tipo de páginas son también un claro ejemplo de duplicación de contenido si no se define una buena estrategia.

Afortunadamente, una solución simple es añadir un “noindex” meta tag a este tipo de páginas, así los buscadores no las indexarán. Publiqué un post sobre los google meta tags que puede ser interesante para entender mejor estos meta tags.

Páginas de producto

Las páginas que muestran productos tienen siempre una estructura de diseño similar ya que están creadas utilizando el mismo template. A veces dos páginas de diferentes de un producto comparten una descripción y varían en unas pocas palabras, números o letras y que generan un grave problema de duplicación de contenido. Este problema no tiene una solución fácil. Manipular el fichero de robots.txt va a ocasionarte más problemas que soluciones. La mejor opción en este caso es elegir una plataforma e-commerce que haya sido diseñada para la optimización y correcta indexación en los buscadores. Si la solución la hemos creado nosotros mismos o un tercero, siempre es más fácil adaptarla.

¿Como funcionan los filtros que detectan el contenido duplicado?

Antes de profundizar en este tema hay que comentar que esta información cambia de día a día y que lo que pretendo es comentar algunos técnicas que utilizan o han utilizado los buscadores en el pasado.

Hay diferentes algoritmos para detectar textos que son similares. El que se conoce que han usado más frecuentemente los buscadores es el w-shinglingque verifica la huella única que tiene un bloque de texto. Otros algoritmos que se han usado para la duplicación de contenido son: Levenshetein’s distance y Soundex.

Es de esperar que cuando un motor de búsqueda encuentra contenido duplicado sepa inmediatamente quien es el autor del contenido original. La forma más simple sería comparar la fecha de indexación de los contenidos. De todas formas, con la aparición del RSS, este tipo de identificación ya no es válida. A día de hoy, la forma en la que se identifica el autor del contenido original es un misterio y muchos expertos en el tema creen que no es posible identificarlo.

En resumen, el contenido duplicado penaliza. Si no “copias y pegas” contenido de otros sitios Web también puedes sufrir la penalización. Revisa minuciosamente los puntos anteriormente expuestos y verifica que tu sitio Web no esta dentro de las indicaciones que se han expuesto.

Fuente original: Epirox.com

http://www.seochat.com/c/a/Google-Optimization-Help/Duplicate-Content-Penalties-Problems-with-Googles-Filter/

Fotos
Comentarios
Ordenar por: 
Por página :
 
  • Aún no hay comentarios
Artículos Relacionados
Con la llegada de Google Panda uno debería pensar que el copiar y pegar de contenido existente se ha acabado. En mi caso puedo constatar lo contrario
09.09.2013 · De Jeremy
El tema de feliz cumpleaños está en medio de la polémica, después de que una productora reclamara que no debe pagar derechos para utilizarlo
06.17.2013 · De Yesenia
El país tiene vetado más del 60% de los videos más populares del portal en medio de una disputa con este por derechos de autor
04.07.2013 · De Alfredo
Un chico intenta hacer lo que vio en youtube
01.18.2012 · De tugentelatina
Autor
Jeremy
Bienvenidos a Mi Espacio Cybernetico.
09.09.2013 21:09 (09.09.2013)
380 Vista(s)
0 Suscriptor(es)
Calificación
0 votos
Recomiendalo