El número de páginas indexadas por Google esta bajando considerablemente

Desde ya hace varios días se esta discutiendo en varios foros, como por ejemplo en WMW, el problema que momentáneamente tienen muchos webmasters.

El número de páginas indexadas, que generalmente se puede obtener en Google con la función site:mi-dominio.com, esta bajando continuamente para muchos dominios.

Algunos webmasters mencionan por ejemplo que de 100.000 páginas indexadas han bajado a unas 600.

Pero hasta el momento, aun nadie tiene una explicación plausible sobre este fenómeno en la era de Bigdaddy. Solamente existen como siempre una serie de teorías. Entre estas, se puede mencionar:

1. Google esta roto, y tiene problemas con la indexación de las páginas.

2. El bajón se debe a que el googlebot ya hace algún tiempo que no esta escanenado los sitios con la frecuencia como lo hacia antes. Especialmente el deepcrawl, es decir el escaneo de las páginas internas. Y ya que estas no han sido actualizadas, estas páginas van desapareciendo del índice del buscador poco a poco.

3. Google esta borrando del índice las páginas con doble contenido (DC = duplicate content).

Sea cual fuese el verdadero motivo de este extraño fenómeno, esta causando mucho ruido entre los webmasters ya que la desaparición de muchas sus páginas del índice les resta una gran cantidad de visitantes. Sobre todo, aquellas web que reciben la mayoría sus visitas por el long tail y no por palabras claves especificias.

Y mientras algunos piensan que este será el nuevo índice, otros todavía tienen la esperanza que pronto todo vuelva a la normalidad.

7 comentarios en “El número de páginas indexadas por Google esta bajando considerablemente

  1. Se ha procedido a una limpieza del index. Observo muchas páginas que, por ejemplo, por un cambio de web, tenían muchas de sus páginas redirigiendo con un 301 al index (las anteriores páginas ya no existían y redirigen al index, por ejemplo), y todas estas páginas han desaparecido.

    Normalmente este proceso de desaparición/sustitución de páginas antiguas es mucho más progresivo, y, sin embargo, en los casos que controlo (unos 10), se ha producido de golpe hace unos días (aunque no en todos los datacenters, fue algo que observé ayer en un momento determinado, aunque ahora no lo veo).

    Posiblemente, muchas páginas, como bien indicas que puedan ser duplicadas, hayan desaparecido en el mismo proceso de «limpieza».

  2. Copperfile,

    Por el momento parece que Google esta haciendo algunas pruebas. Y como ya hemos visto en la ultima actualización del PageRank, mientras que los DC’s muestren resultados tan diferenciados, no sabes exactamente cual será el estado final.

    Esperemos que sea la limpieza tan esperada del índice que realmente va ha ayudar mucho a los webmasters, y no otra cosa 🙂

  3. Croquetilla,
    Google ha cambiado este año su infraestructura y muchos de sus algoritmos. Ahora la función site: es más exacta, aunque solo es una aproximación de todas las páginas indexadas.

    Eso no debe preocuparte mucho. Lo más importante es que siempre estes actualizando tu web con buen contenido y sobre todo con contenido único y no copiado.

Los comentarios están cerrados.