Hola!! David Ayala a la carga de nuevo con un artículo que va a dar que hablar, sobre todo por que es un tema bastante polémico y que siempre da que hablar a todos.
Eliminar una URL de Google de manera definitiva es algo que muchas veces nos trae de cabeza por que como bien sabemos a veces Google hace lo que le sale de las narices y no lo que nosotros queremos que haga.
Por ello quiero darte un repaso de las formas más comunes a las que podemos recurrir para intentar eliminar nuestras URLs y finalmente os daré mi opinión personal de cual es la forma más efectiva bajo mi experiencia. Así que sigue leyendo y no te pierdas ni una palabra por que ¡Esto esta que arde!
Índice
Generando un código de error 404
Generalmente cuando borramos un contenido, lo que solemos tender a pensar es que con generar un código de error 404 o un 410 ya nos estamos librando de todo, que con eso Google ya lo sabe todo y va a eliminar la URL sin problemas.
Aunque en alguna ocasión esto es verdad, y con el tiempo se elimina, en otras ocasiones podemos ir arrastrando usa url durante mucho tiempo sin que se elimine del buscador.
Por ello se puede decir que, generar un error 404 no es solución para eliminar una URL de Google Clic para tuitear
Un gran problema aquí es que aunque hayamos eliminado la URL, si tenemos enlaces entrantes hacia la misma, Google va a seguir accediendo a esta URL y va a seguir encontrándola.
Eliminar desde Google Search Console
Otra acción bastante típica es la de recurrir a eliminar la URL directamente desde la opción de Google Search Console.
El problema aquí es que muchos piensan que al ser algo de Google, tiene que funcionar bien al 100%, que nos va a hacer caso eliminando la URL, pero no, de nuevo estamos equivocados.
Eliminar una URL desde Search Console no es una solución definitiva. Clic para tuitearPasa lo mismo que en el caso anterior, si nuestra URL es accesible para Google y hay links hacia ella, Google va a terminar de nuevo en ella, por lo tanto tenemos otra vez un problema.
Disallow en Robots.txt
Esta es una solución bastante extendida la de usar Disallow de URLs en el fichero robots.txt.
Si esto lo haces en una web nueva o en una web cuyas URLs aun no han visto la luz, seguramente te funcione bien por el simple hecho de que esas URLs nunca han sido indexadas y no reciben enlaces entrantes.
Sin embargo, si esto lo haces en una web ya montada, con links entrantes etcétera, ten por seguro que no te va a funcionar bien y la URL es muy probable que siga indexada en Google.
Usar Robots.txt no es una solución para eliminar URLS. Clic para tuitearParámetros en Search Console
Muchas veces lo que queremos evitar es que se indexen URLs con parámetros de ordenación y similar y aquí tenemos un problema por que no podemos eliminarlos de nuestra web ya que de cara al usuario son esenciales.
Una opción es la de recurrir a Search Console e indicar que no rastree estos parámetros.
¿Cual es el problema aquí? El de siempre, si esa URL tiene links y Google puede acceder a ella, puede que no la elimine y siga indexada.
Usar parámetros de Search Console no es una solución para eliminar URLs. Clic para tuitearRedirección 301
Una opción a la que podemos recurrir es la de hacer una redirección 301 a otra URL de contenido similar.
Esto en un principio es una solución temporal. Pero… ¿Por que digo que es una solución temporal?
Si hacemos la redirección 301 y la dejamos durante un tiempo, definitivamente Google eliminará esta URL y le mandará toda su fuerza a la URL a la que le hayamos enviado la redirección.
Pero, si eliminamos esa redirección y esa URL tenía enlaces entrantes, Google va a terminar de nuevo en ella y es muy probable que nos llevemos la sorpresa de verla de nuevo indexada (aunque sea de manera intermitente).
Por ello a menos que vaya a ser algo que dejemos de forma permanente y no lo cambiemos,
Eliminando definitivamente las URLs de Google Clic para tuitearCanonical
El canonical también es algo que se nos puede pasar por la cabeza a la hora de eliminar una URL, sobre todo si la URL que tenemos presente solo la queremos eliminar de Google pero queremos seguir teniéndola activa de cara a alguna funcionalidad de usuario.
Sin embargo tenemos que tener en cuenta que canonical no es una etiqueta que diga no me indexes, lo que indica canonical es que esa URL es igual a la que encierra en la etiqueta, por lo tanto canonical no es algo que nos sirva para este caso.
Canonical no nos sirve para eliminar una URL de Google. Clic para tuitearMeta No Index
La etiqueta meta no index parece que en los últimos tiempos la hemos dejado medio olvidada, y ya tan solo hay robots.txt, canonicals y otro tipo de etiquetas.
Sin embargo, tenemos que recordar que meta noindex significa “no me indexes”, por lo tanto para mi,
meta no index es la mejor manera de eliminar una URL de Google. Clic para tuitearSin embargo, tenemos que tomar ciertas precauciones y acciones para que funcione todo correctamente, es decir, tenemos que combinar meta no index con otras cosas para que sea mucho más efectivo.
A modo general os recomendaría hacer una de estas dos acciones:
–Dejar la URL online con un meta no index, pero intentar eliminar en la medida de lo posible todo enlace directo desde nuestra propia web para que Google no lo siga directamente desde nuestra web y no le demos señales contradictorias.
–Llevar a página de error 404 la URL y en el 404 además añadir un meta no index, para que así doblemente le enseñes a Google que quieres eliminar esa URL.
En ambos casos no vendría nada mal el eliminar la URL desde search console (es más efectivo cuando usamos un meta no index) y además intentar forzar que Google Bot pase por esas URLs y así vea los meta no index mucho más rápido. Del mismo modo, si queremos combinarlo con un disallow de robots.txt no vendría de más.
Conclusiones
Obviamente existen muchas formas de eliminar URLs de Google, y todo dependerá del caso en concreto y sobre todo de la magnitud de nuestro propio caso.
Por ello, me gustaría preguntarte por tu experiencia personal, ¿Qué es lo que mejor te ha funcionado?
RECIBIR NOVEDADES POR EMAIL
Buen artículo. Me parece también que hay que ver el contexto de cada web para saber que es lo más conveniente. Además esta el asunto de “que es lo más cómodo” de hacer ya que no todos se animan a tocar redirecciones o robots.txt, ni tienen el interés de hacerlo.
Saludos!
Hola David. Pues yo uso un poco de todo. Tengo algunas con redireccion desde htaccess y otras las voy eliminando temporalmente en Search Console en cuanto vuelven a aparecer, pero no ser van ni con agua caliente. Lo que está claro es que Google hace un poco lo que le da la gana.
muy buena la verdad
Hola David, en algunos caos he usado robots.txt y me ha dado resultados, pero siempre tarda un poco, lo he probado con algunos clientes yva funcionando. Efectivamente lo que dices cuando se tienen enlaces que apuntan a esa web siempre la encuentra google y vuelve a dar ese error. Creo que lo mas recomendable además de la etiqueta no index, quizá sería que el mismo cliente no cometa esos errores. Tengo algunos que les elimino o por lo menos hago esos procesos de eliminación de URLs y de pronto vuelven a eliminar alguna URL porque hicieron otra quieren redirecciones pero mantienen el problema, a pesar de haberles indicado estos casos. Pero bueno, los clientes no siempre nos comprenden.
La verdad que yo uso de todo lo que haz mencionado. Pero al igual que a Wilfredo a mi también me a funcionado el robots.txt.
Hola crack! genial post con un montón de posibilidades de dar de baja las urls. En mi opinión la mejor solución obviando todas las demás es una 301 a url similar ya que para proyectos donde no tengas accesos a las urls anteriores y no puedas ponerle un meta no index es la mejor solución.
Una cuestión ¿sabes algo sobre los ataques de seo negativo que te envían miles de errores 404? ¿Alguna manera de contrarrestarlo?
Un saludo y barra libre de olivas para todos jejeje