Los buscadores vistos desde el otro lado de la medalla

Después de mas de 10 semanas de vacaciones en diferentes lugares de nuestro planeta, he regresado a mi base.

Durante todo este tiempo y con la ayuda de mi notebook solo me he concentrado en mantener en línea mis proyectos y los de mis clientes desde muchas ciudades del mundo.

Pero como ya es bien conocido, la ley de Murphy siempre es infalible. Justamente durante mis vacaciones, el numero de vistas en uno de mis proyectos aumento tanto (gracias al trabajo de optimización para Google 🙂 ) que en las horas pico el servidor web compartido llegaba a colapsar. Por este motivo, tuve que mover en una acción de emergencia todo mi proyecto a un servidor propio.

El resultado fue muy interesante: Después de la migración al nuevo servidor, el numero de visitas se incremento aun más, y esto debido a que este servidor es más rápido y puede gestionar una mayor cantidad de HTTP-Requests en el mismo lapso de tiempo.

Pero para mi sorpresa, este servidor también colapsaba en las horas pico. Por este motivo tuve que deshabitar algunas funciones del proyecto para bajar un poco la carga del servidor. Por suerte, de esta manera logré estabilizar la situación y evitar una gran perdida de visitas y sobre todo de que los robots de Google encuentren solo un servidor colapsado y de que las buenas posiciones de las diferentes páginas en el buscador caigan al abismo.

Ahora después de mi regreso, tendré un poco mas de tiempo para analizar cuidadosamente esta situación y realizar los cambios necesarios para que el proyecto no haga colapsar el servidor en las horas pico.

Pero bueno, ahora al tema de esta nota: Durante estas 10 semanas de vacaciones he intentado usar Internet y los buscadores como un usuario común sin ver las cosas con los lentes de un SEO. Y los resultados son muy interesantes:

En todo este tiempo no he usado ni una sola vez MSN Search o Yahoo para realizar mis búsquedas. Todo el tiempo necesitaba encontrar la información rápidamente ya que no tenia mucho tiempo, y en forma directa. Por este motivo siempre entraba solamente a Google.

Casi nunca llegué a pasar a la segunda página de los resultados. Solo buscaba entre los primeros 5 resultados, y si no encontraba lo que estaba necesitando, modificaba las palabras de la búsqueda. Cabe mencionar que en estas semanas me he concentrado en buscar lugares, direcciones, rutas, ofertas de viajes, descripciones de productos, comparación de precios y tiendas virtuales.

Para buscar direcciones en diferentes ciudades de Europa, Google Maps fue una de mis herramientas preferidas. Solo necesitaba copiar los datos de mi agenda de direcciones en el browser y ya obtenía un plano muy detallado de la dirección que estaba buscando.

En resumen puedo mencionar que la usabilidad y la rapidez para poder encontrar la información adecuada con ayuda de buscadores son los factores más importantes para los usuarios comunes. Y sin duda, Google cumple de gran manera con los 2 requisitos mencionados anteriormente.

Novedades sobre el buscador de Google

A pesar de que todavía estoy de vacaciones disfrutando del verano europeo y esperando los ultimos partidos del mundial 2006, voy a escribir una pequeña nota sobre los cambios que están ocurriendo en el buscador de Google en los últimos días.

Actualización del PageRank visible
Muchos foreros están mencionando de que actualmente se esta realizando una actualización del PR. Algunas páginas han cambiado de PR, especialmente páginas nuevas e internas.

Para los que deseen controlar el PR en diferentes data centers, pueden usar una de mis herramientas: PageRank Monitor.

Y para los que deseen concocer el PR de todas las páginas internas de una web pueden usar la herramienta para analizar enlaces internos.

Actualización de los algoritmos de Google
Entre el 30.06.2006 y el 01.07.2006 aparentemente Google ha cambiado algunos parámetros de sus algoritmos, lo que ha causado que muchas webs hayan perdido sus posiciones en el Ranking. Como ya es bien conocido, cuando suceden grandes cambios en el índice de Google, todos comienzan a especular y buscar el origen de los grandes movimientos. Por el momento no esta muy claro que es lo que ha sucedido.

Algunos mencionan, que los subdominios ya no son considerados por el buscador como acontecía anteriormente.

El jefe del equipo anti-spam de Google, Matt Cutts, retorna de sus vacaciones
Aquí su nota. Esto sin duda nuevamente va avivar las discusiones en los foros y los weblogs sobre Google y su buscador.

Marissa Mayer en una interesante entrevista con el Business Week
Marissa Mayer de Google, ha dado una entrevista interesante a Business Week sobre Google. Marissa revela que no todos los servicios que Google esta lanzando se podrán convertir en servicios estrella y que no podrán superar a sus similares que ya están en carrera.

Mas infos al respecto en el Ojo Buscador .

Data centers de Google con un nuevo índice?

Ya hace algún tiempo que no hay muchas novedades sobre el buscador de Google. Parece que todavía existen muchos problemas que deben ser solucionados después de la introducción la nueva infraestructura Bigdaddy.

Uno de los problemas que posiblemente hayan sido resueltos son: La función site: ahora muestra nuevamente más páginas y las páginas con resultados suplementarios, parece que han desparecido.

También parece que los ingenieros del googleplex están experimentando con nuevos índices en algunos DCs, como se menciona en WMW.

La lista de DCs que tienen los nuevos resultados que son muy similares a los mencionados en esta nota ya hace algún tiempo atrás, son:

64.233.167.104
64.233.167.147
64.233.167.99
64.233.179.104
64.233.179.107
64.233.179.99
64.233.187.99
64.233.187.104
64.233.187.107

También otra buena posibilidad de analizar la posición de una página para palabras claves definidas en varios DCs es usando esta herramienta.

Seguramente en los próximos días tendremos mas informaciones si realmente estos nuevos índices continúan propagándose por los demás DCs.

Numero de palabras por búsqueda?

Una de las preguntas más importantes que se hacen los SEOs cuando se ponen a optimizar una página web es: Cual es el número optimo de palabras claves que usan los usuarios cuando realizan sus búsquedas?

Randfish discute en su blog un documento en formato PDF del Yahoo! Analyst Day 2006.

Según este informe, en numero de palabras por búsqueda esta aumentando continuamente: Mientras que en el año 1998 el promedio era de 1,2 palabras, y en el año 2004 2,5 palabras, este promedio ha subido en el año 2005 a 3,3 palabras por búsqueda, como se puede apreciar en el siguiente diagrama:


Palabras por busqueda

Estos resultados son muy interesantes para los SEOs y demuestra que los usuarios cada vez realizan búsquedas más complejas y más largas. Por este motivo ahora ya no solo es necesario de optimizar las páginas para una o dos palabras claves sino más bien se debe procurar optimizar cada página para una serie de frases relacionadas al tema de la web y usar las búsquedas del long tail.

Cuales son los servicios de Google que realmente se usan?

Como ya es bien conocido, Google en su lucha por mantener su supremacía en Internet, presenta nuevos servicios casi semanalmente.

Pero la pregunta es: Son realmente todos estos servicios de interés para los usuarios? Cuales son los servicios que realmente se usan?

La siguiente tabla que ha sido realizada por hitwise, muestra cuales son los dominios de Google que son mas usados. De esta manera e indirectamente se puede obtener un buen detalle sobre la cantidad usuarios que usan los servicios de Google.


Servicios de Google

Y como era de esperar, los servicios de búsqueda, en la forma tradicional, imágenes, noticias, mapas, videos, etc. son los más usados. También el servicio gratuito de email parece que tiene buena llegada.

Mientras que los servicios de finanzas, calendario y de mensajeria instantánea no son muy populares.

Microsoft presenta el sucesor del legendario FrontPage

Con una nueva serie de productos en una serie llamada Expression Web Designer, Microsoft ha presentado un preview que tiene la menta de competir con productos como Adobe-Photoshop, Flash o Dreamveawer.

Esta serie de productos contiene un programa de diseño gráfico, Graphic Designer, una herramienta para objetos multimedia, Interactive Designer, y un editor WYSIWYG para documentos web (el sucesor de FrontPage).

Este paquete contiene una mejorada versión para el uso de CSS, XHTML, y la edición de archivos XML. También permite el el uso de XSTL para generar código HTML, a partir de XML.

También permite el uso de ASP.NET en la parte del servidor.

El preview se puede bajar gratis aquí.

Via heise online

Google Notebook ya esta en vivo

La semana pasada en el Google Press Day, además de la presentación de Google Trends, Google Coop, y la nueva versión de Google Desktop 4, se anuncio la presentación de Google Notebook. Y desde hoy este nuevo servicio ya esta activo.

Esta vez se trata de una pequeña herramienta para guardar notas y enlaces mientras se navega. La efectividad de Google Notebook se puede apreciar especialmente si es usa Firefox como navegador.

Para poder usar Google Notebook, se necesita bajar un plug-in, que después de ser instalado aparece en la barra de estado a la derecha. Cuando se hace clic en icono de Notebook, aparece una pequeña ventana como se muestra en la siguiente imagen:


Google Notebook

Como siempre, a la manera de Google, Notebook es una herramienta sencilla, fácil de entender y de usar. Además de poder generar diferentes categorías, y permitir la administración de las notas desde un panel de control directamente en Google Notebook, permite compartir las notas con otros usuarios, así como también buscar en las notas publicas.

A pesar de todas posibilidades que ofece Google Notebook, no creo que los usuarios que ya usan otras herramientas similares se pasen a este nuevo jueguito de Google.

Millonarios reales en mundos virtuales – Una utopía?

Parecería una verdadera utopía: Ganar dinero de verdad en un mundo totalmente virtual? Pues no! Uno de los primeros millonarios reales de los mundos virtuales y juegos de fantasía en Internet es Jon Jacobs (aka Neverdie). Se calcula que su fortuna llega a 1,5 millones de dólares y sus ingresos mensuales llegan a unos 12.000 dólares.

Jacobs ha comprado hace unos meses por 100.000,00 dólares un asteroide con un club nocturno Club Neverdie en el mundo virtual de Entropia Universe. En este universo la moneda que se usa se llama PED y es convertible a dólares americanos. Desde hace algunos días también es posible sacar ese dinero en cajeros automáticos de los Estados Unidos.

Los jugadores de Entropia que pasan por el asteroide de Jacobs compran materias primas y se pasean en su club nocturno. Jacobs invita regularmente a conocidos DJs reales para que animen las noches a los visitantes de su club nocturno. Jacobs también ha decorado su club con cuadros de artistas muy conocidos.

Una manera muy interesante de hacer dinero, no? Aunque actualmente existen grandes discusiones si en estos mundos virtuales se debiese usar, mejor dicho convertir, dinero real, y cuales son las consecuencias legales para los administradores de estos sitios en caso de estafas y otros problemas jurídicos.

Via heise online

Sobre la estabilidad del Google Ranking

Introducción
Después que de que hemos entrado en la era de Bigdaddy, muchas de las reglas y estrategias que han usado los SEO´s en los últimos años para posicionar sus webs han perdido su validez.

A pesar de que posiblemente esta nueva infraestructura todavía esta en la fase de estabilización, parece que Google ya esta comenzando a realizar algunos experimentos para analizar sus resultados y en caso de ser satisfactorios podrían ser introducidos en el algoritmo ‘oficial’ del buscador

Esta idea se origina en la observación de los diferentes data centers (DCs) de Google en las ultimas semanas. En la era pre Bigdaddy, los ingenieros de Google realizaban sus pruebas solamente en algunos DCs y luego, después haber logrado sus objetivos, propagaban esos datos a los restantes DCs.

En las ultimas semanas se ha podido apreciar algo diferente: Se han observado diferentes series o clases de índices repartidos por todos los DCs. Por este motivo las posiciones de las páginas web han estado variando mucho, hasta el punto de que los foreros en WMW, expertos en el análisis de los DCs, han quedado totalmente desconcertados, ya que no han encontrado ningún concepto o teoría clara sobre el comportamiento de los DCs.

Análisis
Ahora bien, cómo se puede analizar correctamente el ranking o posición de una página web, suponiendo que Google esta usando diferentes índices en sus data centers, como resultado de la aplicación de diversos grupos o clases de algoritmos?

Después de haber observado la posición de muchas páginas web de varios proyectos, o mejor dicho dominios, en los diversos data centers de Google durante estos últimos meses, he llegado a las siguientes conclusiones:

Páginas web que pertenecen a dominios bien establecidos en Google y que poseen algún tipo de autoridad, han mantenido su ranking o posición en casi todos o todos los data centers.

Mientras que páginas que por uno u otro motivo todavía son débiles, o que estaban afectadas por alguno de los filtros de Google (poca antigüedad, contenidos duplicados, efecto sandbox, etc.) han estado variando continuamente de ranking en los data centers.

Eso significa entonces que páginas fuertes son estables a las posibles variaciones de los diferentes algoritmos de Google, mientras que las páginas débiles, son muy susceptibles a las variaciones de los algoritmos aplicados en los data centers.

Esta observación me lleva a definir un nuevo concepto: Estabilidad del Ranking de Google, o en ingles Google Ranking Stability (GRS).

El GRS es entonces una métrica que define la fortaleza o estabilidad de una página web en relación a los diferentes algoritmos que se pueden aplicar para generar un índice.

Si podemos calcular el GRS de una página, entonces sabemos cuan resistente es a los cambios algoritmicos que Google pueda introducir.

La siguiente tarea es entonces, encontrar un método para poder calcular el GRS de una página. Para esto necesario desarrollar una nomenclatura formal y una metodología de cálculo.

Nomenclatura
Para poder crear una herramienta formal que pueda calcular el GRS es necesario realizar algunas definiciones:

– d1,…,dn sean los data centers de Google
– u sea la url de una página web
– kw sean las palabras claves con las que se realiza una búsqueda.

Entonces,

pi[u|kw] es la posición de la página u para las palabras claves kw en el data center i.

– num sea el numero máximo de posiciones que el buscador de Google nos permite observar. Este valor actualmente es 100.

Con esto podemos fácilmente definir la posición promedio de una página u para las palabras claves kw en los n data centers de Google de la siguiente manera:


P[u|kw] = SUMA(pi[u|kw], 1,n) / n

El Google Ranking Stability (GRS) de la página u para las palabras claves kw lo definimos de la siguiente manera:

Sea


D[u|kw] = (MAX{p1[u|kw],…, pn[u|kw]}\{ pi[u|kw]>num} – MIN {p1[u|kw],…, pn[u|kw]}\{ pi[u|kw]>num})

Entonces tenemos


GRS[u|kw] = ((num – D[u|kw])*100)/num

La anterior formula la podemos explicar de la siguiente manera:

El término MAX{p1[u|kw],…, pn[u|kw]}\{ pi[u|kw]>num}

es el máximo de todas las posiciones pi[u|kw] de la página u para la búsqueda kw, pero sin tener en cuenta las posiciones mayores a num.

Mientras que el término MIN{p1[u|kw],…, pn[u|kw]}\{ pi[u|kw]>num}

es el mínimo de todas las posiciones pi[u|kw] de la página u para la búsqueda kw, pero sin tener en cuenta las posiciones mayores a num.

En palabras sencillas, esta parte de la formula nos da el ruido de las posiciones de la página u para la búsqueda kw en cada uno de los data centers. Pero como estamos definiendo la estabilidad, restamos de num este valor, y obtenemos:

Cuanto más grande es el valor de GRS, entonces mas estable es la página u para la búsqueda kw.

La herramienta
Para poder comprobar los resultados del Google Ranking Stability (GRS) he desarrollado una pequeña herramienta que ahora es de uso publico y se encuentra aquí.

Para finalizar este artículo deseo presentar algunos casos con la mencionada herramienta.

Caso 1: Página con poca estabilidad

La siguiente página tiene una gran variación en las posiciones (desde la 4. a la 42.) para la búsqueda kw en los diferentes DCs. Por eso, solo tiene un GRS de 62%



Caso 2: Página con una estabilidad media

La diferencia de las posiciones de esta página para kw en todos los DCs es relativamente pequeña (entre 9 y 16). Por este motivo su GRS ya es del 93%, mucho mas alto que en el primer caso.



Caso 3: Página totalmente estable
En este ultimo caso, la posición de la página para la búsqueda kw es en todos los DCs la misma (posición 5). Esto significa que esta página es resistente a las variaciones de los algoritmos en los diferentes DCs.



Comentarios y opiniones sobre el tema son bienvenidos!

Google Trends – Una interesante herramienta de análisis cualitativo

Inicialmente no era mi intención de escribir un artículo completo sobre Google Trends. Pero a medida que comencé a ‘jugar’ con esta herramienta para colocar algunas imágenes en esta otra nota, me di cuenta del posible potencial de esta herramienta.
Y a pesar de que no muestra datos cuantitativos, el potencial que Google Trends tiene para ayudar a analizar keywords o palabras claves es inmenso.

Funciones
Entre las funciones principales se tienen:

1. Volúmenes de búsquedas generadas por noticias
Se puede observar muy claramente cuales noticias han generado un pico en el volumen de las búsquedas. Por ejemplo las palabras claves Evo Morales muestran claramente cuales noticias causaron el incremento del volumen de las búsquedas. En este caso concreto, solo 2: A) su elección y B) el día en que asumió la presidencia.


Volumén de busquedas de Evo Morales
Volumén de busquedas de Evo Morales

2. Volumen de búsquedas por categorías
Para cada keyword, Google Trends permite observar el volumen de las búsquedas ordenadas por diferentes categorías. Entre estas categorías se tienen

2.1 Ciudades
Por ejemplo para la búsqueda Festival de Cannes se obtiene el siguiente diagrama:


Volumen de la busqueda ordenada por ciudad
Volumen de búsquedas ordenadas por ciudad

2.2 Regiones o países
Para la mismas palabras claves se obtiene el siguiente diagrama del volumen de búsquedas, ordenadas por la regíon:


Volumen de búsquedas ordenadas por región o país
Volumen de búsquedas ordenadas por región o país

2.3 Idiomas
Para la mismas palabras claves se obtiene el siguiente diagrama del volumen de búsquedas, ordenadas por el idioma:


Volumen de búsquedas ordenadas por idioma
Volumen de búsquedas ordenadas por idioma

3. Comparación de keywords
Esta función me parece la más interesante ya que da una infinidad de posibilidades para analizar las tendencias de búsqueda de los usuarios y puede ayudar mucho a los webmasters o dueños de webs con temas específicos.

Si por ejemplo nos concentramos en el tema de los viajes, uno de los sectores más competitivos en Internet, podemos tratar de analizar el comportamiento de los usuarios y el volumen de las búsquedas más competitivas. En este ejemplo tendríamos la comparación viajes, hoteles, vuelos, last minute, vuelos baratos.

El resultado gráfico de esta consulta se la puede apreciar en la siguiente imagen


Comparación de palabras claves
Comparación del volumen de búsquedas para viajes, hoteles, vuelos, last minute, vuelos baratos

Analizando rápidamente y superficialmente la anterior gráfica, se pueden sacar las siguientes conclusiones:

a) Las palabras claves ‘last minute’ son solamente interesantes en la época alta del verano del hemisferio norte y en el mes de Diciembre. Mientras que en las otras épocas del año esta búsqueda no es tan relevante.

b) La palabra clave ‘hoteles’, tiene por el contrario un volumen de búsquedas alto durante todo el año.

c) Lo que para es nuevo para mi: Las palabras claves ‘vuelos’ y mas aun ‘vuelos baratos’, no son muy relevantes en comparación con las otras keywords.

Solamente con estas 3 conclusiones ejemplares un webmaster que administra un proyecto con este tema, tiene un montón de posibilidades para orientar y así mejorar el trafico en su web.

En lo que se refiere a los otros diagramas que presenta Google Trens, me parece que no son tan fiables, pues el volumen de las búsquedas ordenadas por ciudades me parece un poco sospechoso. Posiblemente se debe a que las bases de datos de los IP y de los ISPs no siempre son correctos.

El diagrama de los países, que se muestra a continuación, me parece mas interesante:

En lo que se refiere a los otros diagramas que presenta Google Trens, me parece que no son tan fiables, pues el volumen de las búsquedas ordenadas por ciudades me parece un poco sospechoso. Posiblemente se debe a que las bases de datos de los IP y de los ISPs no siempre siempre son geograficamente correctas.

El diagrama de los países, que se muestra a continuación, me parece mas interesante:



Volumen de búsquedas por país
Volumen de búsquedas por país

Después de un análisis del anterior diagrama, un webmaster puede por ejemplo orientar sus campañas a los usuarios de los países que generan la mayoría de las búsquedas.

Conclusiones
Como ya lo he mencionado inicialmente, a pesar de que Google Trends no muestra datos cuantitativos, la primera impresión que me ha dado es altamente positiva.

La extracción de información de alto valor para proyectos en Internet, queda ahora en manos de los webmasters, su inventiva y su imaginación.