Google Webmasters y el archivo Robots.txt
Google Webmasters nos ayuda con el archivo Robots.txt para evitar los errores de rastreo y el indexado de contenido no deseado, que son problemas que … Seguir leyendo
Google Webmasters nos ayuda con el archivo Robots.txt para evitar los errores de rastreo y el indexado de contenido no deseado, que son problemas que … Seguir leyendo
Vamos a ver cómo configurar el Google reCAPTCHA en nuestros formularios de Contact Form 7. Por suerte en las últimas versiones viene integrado en el plugin.
Solución al problema: Parece que la página no está optimizada para móviles, El contenido es más ancho que la pantalla,
Los enlaces están demasiado juntos.
Es posible que en alguna ocasión revisando nuestro sitio web en Webmaster Tools de Google, nos encontremos con este mensaje sobre nuestro sitemap o nuestro … Seguir leyendo
Aún no sabemos a ciencia cierta el porcentaje de PageRank que se pierde al hacer una redirección 301 (ni lo sabremos) Pero Matt Cutts y … Seguir leyendo
Hoy vamos a hablar del contenido interno duplicado y cómo controlarlo en parte con el archivo Robots.txt. Por suerte contamos con una sintaxis muy útil.
Si has intentado hacer Disavow de un dominio con caracteres especiales, ya sabes que primero tienes que usar un conversor Punycode.
Es posible que necesitemos bloquear el bot de Semrush para que no acceda a nuestro sitio web; Puede ser porque no queremos que nadie nos … Seguir leyendo
Aquí teneis una lista de buscadores y el link para enviar la URL de vuestra web: This image is licensed under a Creative … Seguir leyendo