Google y el contenido duplicado

   

 

El contenido duplicado .. tiene Solución?
De nuevo vamos a ver qué podemos hacer con el archivo robots.txt
El archivo robots.txt nos facilitará la exclusión de cierto tipo de url´s, es decir..
con el robots.txt, le diremos a Google qué paginas o posts puede indexar, y cuáles no