Qué sucede con el buscador de Google?

Como ya es conocido, cuando Matt Cutts anuncío la completa propagación de la nueva infraestructura de Google, Bigdaddy, también menciono que en los próximos meses habría sorpresas muy interesantes para los webmasters debido a las nuevas posibilidades de esta nueva infraestructura.

Ya ha pasado mas un mes desde que se hizo este anuncio, pero muchos de los webmasters ahora están muy preocupados debido a que se están observando en el índice 2 fenómenos inquietantes:

1. Nuevas páginas web no están siendo indexadas con la rapidez que buscador lo hacia anteriormente.

2. El numero de páginas indexadas (función site:) de muchos sitios se esta reduciendo continuamente, como ya lo había informado en otro artículo.

En los diferentes foros, especialmente en WMW se están discutiendo diferentes teorías:

1. Debido a los problemas que mostraban las páginas indexadas en Google antes de Bigdaddy, como ser el contenido duplicado, resultados suplementarios, url canónicas hijacking, ahora Google con su nueva infraestructura Biggdaddy esta comenzando a limpiar las páginas con estos problemas, lo que esta causando que muchos sitios están perdiendo una gran cantidad de paginas en el índice.

2. Debido a que últimamente las páginas antiguas en los niveles más profundos no ha sido refrescadas por el googlebot, estas están desapareciendo automáticamente del índice.

3. Google tiene grandes problemas técnicos con su nueva estructura para indexar las páginas. El numero de los adeptos a esta teoría hoy día se ha incrementado, debido a un entrevista del CEO de Google, Eric Schmidt, con el New York Times, donde entre otras cosas dice “We have a huge machine crisis”. El artículo también menciona que Google en este nuevo año invertirá unos 1.500 millones de dólares en servidores, equipos de red y espacio para los data centers. Esta teoría se esta discutiendo en este hilo de WebMasterWorld.

Se cual fuese la verdadera razón de estos dos fenómenos que se están observando en el buscador de Google, los webmasters esperan que todo se normalice a la brevedad posible, ya que observar que las nuevas páginas de un proyecto no aparecen en el buscador o que las páginas de proyectos bien posicionados van desapareciendo cada día en el buscador es muy furstante.

3 Respuestas a Qué sucede con el buscador de Google?

  1. Eric 4/5/2006 a 21:08 #

    Ya era hora que alguien de habla hispana se hiciera eco de esta situación… porque en todos los foros "SEO" en español cuando uno menciona estos problemas termina siendo acusado de "blackhat" o de "algo mal habras hecho…"

    Bien Max por bajar información de la buena.

  2. Administrator 4/5/2006 a 21:19 #

    Eric,

    Muy extraño lo que indicas. Pues estos fenómenos no se deben al uso de técnicas contra las normas de los buscadores, sino mas bien a posibles problemas del buscador que afectan a todo tipo de páginas….

Trackbacks/Pingbacks

  1. Blog de Max Glaser » Blog Archive » Novedades sobre las perdidas de páginas en el buscador de Google - 5/5/2006

    […] Finalmente, y después de unas semanas de silencio sobre el problema que la pérdida de paginas en el índice de Google que actualmente esta preocupando a muchos webmasters (ver nota, Matt a escrito en un comentario de su weblog lo siguiente: maxD, last week when I checked there was a double-digit number of reports to the email address that GoogleGuy gave (bostonpubcon2006 [at] gmail.com with the subject line of “crawlpages”). I asked someone to read through them in more detail and we looked at a few together. I feel comfortable saying that participation in Sitemaps is not causing this at all. One factor I saw was that several sites had a spam penalty and should consider doing a reinclusion request (I might do it through the webmaster console) but even that wasn’t a majority. There were a smattering of other reasons (one site appears to have changed its link structure to use more JavaScript), but I didn’t notice any definitive cause so far. There will be cases where Bigdaddy has different crawl priorities, so that could partly account for things. But I was in a meeting on Wednesday with crawl/index folks, and I mentioned people giving us feedback about this. I pointed them to a file with domains that people had mentioned, and pointed them to the gmail account so that they could read the feedback in more detail. So my (shorter) answer would be that if you’re in a potentially spammy area, you might consider doing a reinclusion request–that won’t hurt. In the mean time, I am asking someone to go through all the emails and check domains out. That person might be able to reply to all emails or just a sampling, but they are doing some replies, not only reading the feedback. […]