Archivo de la categoría: Buscadores

Google mejoró en 2005 su posición en el mercado de los buscadores

Realmente esta es una noticia que no la esperaba, pues yo estaba asumiendo que MSN iba ha aumentar considerablemente su posición en el mercado de los buscadores.

comScore Media Metrix presento un informe sobre el ranking del mercado de los buscadores en los Estados Unidos entre Noviembre de 2004 y Noviembre de 2005.

En este informe (ver la tabla de abajo) Google aumento su presencia en el numero de búsquedas realizadas por usuarios de Interntet (usuarios privados, empresas y universidades) de Estados Unidos en un 5.2% mientras que Yahoo perdió un 2.5% y MSN un 1.8%.

Otro de los ganadores en este mercado tan peleado es Ask Jeeves que logro mejorar en un 1.0%.


Ranking en el mercado de los buscadores
Ranking en el mercado de los buscadores

Quiere Google en el 2006 cooperar con los webmasters?

Hoy día he quedado sorprendido con los 3 artículos que Matt Cutts ha presentado en su blog:

El primer artículo describe el problema de las URL’s canónicas en forma muy clara y por primera vez oficialmente. Y lo más importante, da varias pautas para evitar este problema.

El segundo artículo discute el tema de la redirección 302, que desde mas de 18 meses estuvo causando el problema del hijacking.

Finalmente, en su tercera nota, Matt describe el operador inurl: que ha sido mal interpretado por los webmasters y a sido usado para analizar el problema del hijacking.

Todos estos problemas ya son muy bien conocidos por los webmasters que se dedican al posicionamiento en Google. Pero, esta es la primera vez que un empleado de Google describe oficialmente estos problemas que han estado ‘ensuciando’ los resultados del buscador desde ya hace mucho tiempo.

Una de las razones por las cuales Matt ha descrito estos problemas en su blog, es que finalmente Google se puso las pilas y se ha propuesto solucionar estos problemas. Los resultados de estos cambios estructurales se los puede ver en el data center que ha sido bautizado con el nombre de Bigdaddy.

Esperemos que esto no sea un caso aislado y que Google no mantenga la funcionalidad de su buscador como una caja negra cubierta de un manto misterioso.

Más informaciones sobre el data center Bigdaddy

Matt Cutts nuevamente esta pidiendo feedback de los SEO’s. Durante la actualización Jagger Matt pidió ayuda a los webmasters para informar sobre spam en los centros de datos (DC = data center) de prueba.

Esta vez parece que quiere realizar una acción similar, aunque esta dando muchas más informaciones sobre los propósitos de este nuevo índice. En su Blog explica con mucho detalle sobre la finalidad de bigdaddy.

De la nota de Matt, quiero resumir los siguientes puntos:

  • Los DC’s donde se puede observar a bigdaddy son 64.233.179.104 y 66.249.93.104.
  • La meta de este nuevo índice es resolver los problemas de
    las URL’s canónicas (ver nota sobre la URL canonica), contenido duplicado, la función inurl, y las redirecciones 302.
  • Bigdaddy no contiene mejoras en los algoritmos o los datos, sino más bien cambios estructurales, que según Matt, serán la base del trabajo y las mejoras del buscador de Google en este año. Así pues, estos resultados de bigdaddy van a ser muy importantes para el futuro del buscador.
  • Según Matt, los resultados de bigdaddy recién aparecerían en los índices oficiales en 1 o 2 meses. El 27 de Diciembre último, se realizo una actualización de los DC’s, pero no tiene nada que ver con bigdaddy. De este comentario, no puedo deducir, si las actualizaciones de los backlinks (BL) y del PageRank (PR), que todos esperan para este mes de Enero, también se mantendrán suspendidas hasta que bigdaddy alcance su fase final.
  • Finalmente. Matt ha escrito en su blog sobre las URL’s canonicas, el operador inurl y las redirecciones 302 para que no hayan confusiones entre los webmasters.

Como se puede apreciar, este año comenzamos con buenas noticias, esperando que los problemas anteriormente mencionados que aquejan a Google desde hace mas de 18 meses, se puedan finalmente resolver, y que sus ingenieros se puedan nuevamente concentrar en temas más interesantes 🙂

Actualización
Matt rectifica que Bigdaddy solo se puede observar en el DC 66.249.93.104.

Yahoo! presenta las búsquedas top del 2005

Yahoo! ha presentado la lista de las palabras más buscadas en ingles el año 2005 en su buscador.

El resumen de las palabras mas buscadas esta divido en generales, celebridades, deportes, productos, noticias y entretenimiento.

En la sección internacional se encuentran Corea, Australia, Alemania, Canada, Italia y Francia. Lamentablemente todavía no hay ningún país de habla hispana.

Sería muy interesante saber que es lo que más han buscado este 2005 los usuarios en español en Yahoo!.

Google tiene un servicio semejante, llamado Google Zeitgeist. Aquí las palabras más buscadas en español para el mes de Septiembre 2005. Y Aqui Google Zeitgeist en ingles.

5,100 millones de búsquedas en Octubre

El estudio que fue presentado por Nielsen//NetRatings (aquí el informe completo en formato pdf) menciona que en el mes de Octubre de 2005 se realizaron 5,100 millones de búsquedas en Internet. Ente los meses de Junio y Octubre el volumen de las búsquedas se incremento en 15%.

Google tuvo entre Junio y Octubre un crecimiento de 21%, Yahoo! creció en 16%, mientras que MSN logró un incremento del 8%. También cabe mencionar que el buscador Ask Jeeves creció un 77%.

Google mantiene todavía su supremacía en el mercado de los buscadores con un 47.7% del total de las búsquedas. Yahoo! tiene el 21.8% y MSN 11.3%

En el reporte también aparece AOL con 7.2%, que en realidad actualmente usa el buscador de Google. Si es que Microsoft, logra el mencionado acuerdo con AOL, este 7.2% se iría directamente a MSN.

El resumen del informe se lo puede apreciar en la siguiente tabla:


Net Ratings Report

Resumen de las actualizaciones de Jagger

Como ya es conocido, la ultima actualización tuvo tres grandes fases: Jagger 1 que comenzó mas o menos el 10.10.2005 (ver nota). El 20.10.2005 se realizo la actualización del PR visible, y el 26.10.2005 comenzó Jagger 2 (ver nota). Finalmente, el 05.11.2005 (ver nota) comenzaron a aparecer los primeros resultados de Jagger 3 en algunos centros de datos (DC’s) de prueba.

Hoy día, el 30.11.2005, casi dos meses después del comienzo de esta gigante actualización, el movimiento o flujo (flux como lo llaman los empleados de Google) del índice ya esta terminando, aunque aun muchos todavía ‘ven’ cambios sustanciales.

Yo quiero considerar a estos movimientos, como una fluctuación natural de Google, ya que en el ultimo tiempo, la actualización del índice se ha hecho muy dinámica con el objetivo de mantenerlo actualizado y así aumentar la ventaja sobre la competencia.

Es muy difícil explicar con exactitud todo lo que ha sucedido en esta actualización, pero se lo puede ver desde dos diferentes perspectivas:

Metas oficiales según Matt Cutts de Google

  • Mejora de los algoritmos para reconocer y penalizar el spam
  • Corrección de algunos problemas como el de las URL’s canónicas.

Recién en los últimos días se ha podido apreciar que ya no se están listando las páginas con www sin www. Google tuvo de decidirse por alguna de ellas, y en muchos casos a tomado la decisión equivocada y esta listando las páginas sin www.

Otro efecto interesante es que la función site: ahora ya muestra las páginas correctamente y ordenadas por la importancia que Google le ha asignado a las páginas del dominio. (ver nota). Por ejemplo, ahora aparece en primera posición la raíz del dominio y luego las páginas que se encuentran enlazadas desde la página raíz.

También se puede apreciar que la importancia que les da Google es por el orden de aparición: Cuanto más arriba, o mejor dicho más al inicio de la página, este posesionado un enlace de una página interna, esta aparecerá más arriba en el ranking de la función site:

Diagnostico de los SEO´s

Debido a que los cambios en los algoritmos de Google solo los podemos analizar indirectamente, observando los resultados que aparecen en el índice, es muy difícil saber exactamente, cuales han sido los cambios reales en los algoritmos. Este es el famoso efecto del black box.

Por las observaciones de muchos SEO’s y mis observaciones en la red de proyectos que estudio, se puede decir que los cambios más notables que se han observado son los siguientes:

  • Muchas páginas han sido liberadas del SandoBox
  • Los dominios antiguos tienen más valor.
  • Los enlaces de las redes de intercambio de enlaces masivos, así como los enlaces comprados ya no tienen valor.
  • Algunos mencionan que también los enlaces recíprocos ya no tienen valor.
  • Aumento desmesurado de enlaces en un corto periodo de tiempo.
  • El concepto del TrustRank parece que ya ha sido incorporado a los algoritmos que estan calculando el Rankig del índice.
  • Páginas con contenido duplicado han sido penalizadas.

Bill Gates cree que en un futuro no muy lejano, MSN presentará mejores resultados que Google

En el marco de la conferencia de super-computadoras en Seattle, Bill Gates, Chief Software Architect de Microsoft, dio una entrevista a InformationWeek en la cual entre otros habla sobre investigación y menciona lo siguiente:

Microsoft Research has always had a pretty broad set of activities …Search is an amazing example where we relied somewhat on an outside company, Inktomi, which Yahoo bought, then decided to build our own search effort essentially from scratch. Now, in a very short period of time, we will actually have more than matched the kind of relevance that Google can deliver. The role of Microsoft Research in that has been phenomenal.

BG indica que el departamento de investigación en Microsoft (Microsoft Research) esta realizando una gran cantidad de actividades. Un ejemplo muy interesante es la búsqueda en Internet. Mientras otras empresas como Yahoo compraron la tecnología de otras empresas, Microsoft comenzó con su buscador desde cero. Y ahora en un periodo muy corto de tiempo, los resultados del buscador serán más relevantes de los resultados que puede mostrar Google.

Como ya conocemos muchos de los emprendimientos de BG, él siempre ha logrado lo que se ha propuesto. Pero, personalmente pienso que, aunque la calidad de los resultados del buscador de MSN mejore considerablemente, todavía va durar mucho hasta que pueda romper con la popularidad que tiene Google en todo el mundo. Esto se puede ver claramente en el siguiente gráfico:


Porcentaje de visitas desde diferentes buscadores

El comando site: de Google ahora muestra resultados ordenados por importancia

Como ya es conocido, muchos de los comandos que son importantes para los SEO’s, no están funcionando correctamente en Google desde hace ya bastante tiempo.

Un ejemplo tipico es la función link:www.mi-pagina.html que debería mostrar todos los enlaces entrantes a la página www.mi-pagina.html

Existen 2 teorías acerca del porque de estos errores: La primera teoría sostiene que google no esta mostrando los resultados correctos para despistar a los SEO’s. La otra teoría sostiene que Google tiene masivos problemas en su base de datos después de que incremento el número de documentos indexados.

Ahora bien, la buena noticia: Desde hoy diá el comando site:www.mi-dominio.com esta mostrando los resultados de www.mi-dominio.com ordenados por su importancia en Google.

Esto puede ayudar mucho para poder analizar cuales y porque las páginas que aparecen en los primeros resultados, son las más importantes para Google.

Nuevamente grandes movimientos en el índice de Google

Después de que ayer se actualizaron los backlinks, hoy día nuevamente hay mucho movimiento en el índice de Google.

Debido a que Matt Cutts, el empleado de Google, esta de viaje en Kentuky por Thanks Giving, ya no hay más ‘weather reports’ (reportes del tiempo, como él llama a sus informes sobre las actualizaciones de Google). Por este motivo los SEO’s no saben realmente lo que esta sucediendo y no saben que centros de datos deben analizar. Actualmente se continua hablando de los efectos de la actualización Jagger, que ya esta durando más de dos meses.

Por los informes en varios foros, parece que muchas páginas que habían desaparecido a causa de Jagger, nuevamente se han posicionado en los primeros lugares del índice, lo cual hoy día esta generando mucho trafico.

Por lo que he podido observar, parecería que muchas páginas han salido del SandBox, o los triggers de los filtros han sido aflojados un poco.

Lo más interesante de esta actualización gigante (Jagger 1-2-3) es que aún no existen análisis precisos de lo que esta sucediendo, pues cuando se postula alguna hipótesis, siempre se la puede refutar con algún ejemplo.

Lo que más o menos ha quedado claro es que:

  • Los triggers del SandBox se han aflojado.
  • Las páginas antiguas tienen más valor.
  • Los enlaces de las redes de intercambio de enlaces masivos, así como los enlaces comprados ya no tienen valor.
  • Aumento desmesurado de enlaces en un corto periodo de tiempo.
  • Algunos mencionan que también los enlaces recíprocos ya no tienen valor.
  • Parecería que el concepto del TrustRank ya ha sido implementado en los algoritmos.
  • Páginas con contenido duplicado han sido penalizadas.

Actualización
Artículo sobre redes de intercambios en WebGuerrilla via xeoweb