El número de páginas indexadas por Google esta bajando considerablemente

Desde ya hace varios días se esta discutiendo en varios foros, como por ejemplo en WMW, el problema que momentáneamente tienen muchos webmasters.

El número de páginas indexadas, que generalmente se puede obtener en Google con la función site:mi-dominio.com, esta bajando continuamente para muchos dominios.

Algunos webmasters mencionan por ejemplo que de 100.000 páginas indexadas han bajado a unas 600.

Pero hasta el momento, aun nadie tiene una explicación plausible sobre este fenómeno en la era de Bigdaddy. Solamente existen como siempre una serie de teorías. Entre estas, se puede mencionar:

1. Google esta roto, y tiene problemas con la indexación de las páginas.

2. El bajón se debe a que el googlebot ya hace algún tiempo que no esta escanenado los sitios con la frecuencia como lo hacia antes. Especialmente el deepcrawl, es decir el escaneo de las páginas internas. Y ya que estas no han sido actualizadas, estas páginas van desapareciendo del índice del buscador poco a poco.

3. Google esta borrando del índice las páginas con doble contenido (DC = duplicate content).

Sea cual fuese el verdadero motivo de este extraño fenómeno, esta causando mucho ruido entre los webmasters ya que la desaparición de muchas sus páginas del índice les resta una gran cantidad de visitantes. Sobre todo, aquellas web que reciben la mayoría sus visitas por el long tail y no por palabras claves especificias.

Y mientras algunos piensan que este será el nuevo índice, otros todavía tienen la esperanza que pronto todo vuelva a la normalidad.

7 Respuestas a El número de páginas indexadas por Google esta bajando considerablemente

  1. Copperfie 21/4/2006 a 04:20 #

    Se ha procedido a una limpieza del index. Observo muchas páginas que, por ejemplo, por un cambio de web, tenían muchas de sus páginas redirigiendo con un 301 al index (las anteriores páginas ya no existían y redirigen al index, por ejemplo), y todas estas páginas han desaparecido.

    Normalmente este proceso de desaparición/sustitución de páginas antiguas es mucho más progresivo, y, sin embargo, en los casos que controlo (unos 10), se ha producido de golpe hace unos días (aunque no en todos los datacenters, fue algo que observé ayer en un momento determinado, aunque ahora no lo veo).

    Posiblemente, muchas páginas, como bien indicas que puedan ser duplicadas, hayan desaparecido en el mismo proceso de “limpieza”.

  2. Administrator 21/4/2006 a 07:28 #

    Copperfile,

    Por el momento parece que Google esta haciendo algunas pruebas. Y como ya hemos visto en la ultima actualización del PageRank, mientras que los DC’s muestren resultados tan diferenciados, no sabes exactamente cual será el estado final.

    Esperemos que sea la limpieza tan esperada del índice que realmente va ha ayudar mucho a los webmasters, y no otra cosa 🙂

  3. Croquetilla 4/12/2006 a 06:24 #

    Yo no me aclaro esto es demasiado complicado para mi

  4. Max Glaser 4/12/2006 a 08:05 #

    Croquetilla,
    Google ha cambiado este año su infraestructura y muchos de sus algoritmos. Ahora la función site: es más exacta, aunque solo es una aproximación de todas las páginas indexadas.

    Eso no debe preocuparte mucho. Lo más importante es que siempre estes actualizando tu web con buen contenido y sobre todo con contenido único y no copiado.

Trackbacks/Pingbacks

  1. Blog de Max Glaser » Blog Archive » Qué sucede con el buscador de Google? - 3/5/2006

    […] 2. El numero de páginas indexadas (función site: ) de muchos sitios se esta reduciendo continuamente, como ya lo había informado en otro artículo. […]

  2. Blog de Max Glaser » Blog Archive » Novedades sobre las perdidas de páginas en el buscador de Google - 5/5/2006

    […] Finalmente, y después de unas semanas de silencio sobre el problema que la pérdida de paginas en el índice de Google que actualmente esta preocupando a muchos webmasters (ver nota, Matt a escrito en un comentario de su weblog lo siguiente: maxD, last week when I checked there was a double-digit number of reports to the email address that GoogleGuy gave (bostonpubcon2006 [at] gmail.com with the subject line of “crawlpages”). I asked someone to read through them in more detail and we looked at a few together. I feel comfortable saying that participation in Sitemaps is not causing this at all. One factor I saw was that several sites had a spam penalty and should consider doing a reinclusion request (I might do it through the webmaster console) but even that wasn’t a majority. There were a smattering of other reasons (one site appears to have changed its link structure to use more JavaScript), but I didn’t notice any definitive cause so far. There will be cases where Bigdaddy has different crawl priorities, so that could partly account for things. But I was in a meeting on Wednesday with crawl/index folks, and I mentioned people giving us feedback about this. I pointed them to a file with domains that people had mentioned, and pointed them to the gmail account so that they could read the feedback in more detail. So my (shorter) answer would be that if you’re in a potentially spammy area, you might consider doing a reinclusion request–that won’t hurt. In the mean time, I am asking someone to go through all the emails and check domains out. That person might be able to reply to all emails or just a sampling, but they are doing some replies, not only reading the feedback. […]

  3. Blog de Max Glaser » Blog Archive » El dilema de los data centers de Google - 8/5/2006

    […] Como ya lo había mencionado en anteriores notas, (aquí , y aquí) muchos sitios han perdido una gran cantidad de páginas que estaban en el índice ya hace mucho tiempo. […]