Archivo de la categoría: Buscadores

Los sitelinks en la página de resultados se vuelven dinamicos en el tiempo

En los últimos meses Google ha cambiado la estructura de la primera página de resultados de su buscador. Para muchas palabras clave solo se muestran 7 resultados orgánicos (los clásicos enlaces azules)  dando más cabida a otro tipo de información.

Por ejemplo para búsquedas de marcas o palabras claves muy especializadas, Google muestra los stelinks en el primer resultado (ver los super sitelinks). Estos sitelinks se pueden controlar desde Google Webmaster Tools.

Ahora parece que Google quiere mostrar resultados más frescos también en estos sitelinks cuando se restringen las búsquedas a periodos de tiempo específicos.

Aquí les presento un ejemplo bien claro: Los sitelinks de mi blog. La primera imagen muestra los sitelinks para una búsqueda de cualquier fecha, la segunda imagen  muestra solo resultados de la última semana

 

 

Y efectivamente, en los resultados para la última semana aparecen mis últimos posts. Esto muestra una vez más que Google continua con su filosofía de mostrar a los usuarios resultados actualizados y frescos.

 

Via: seo.at (en alemán)

Cómo funciona el buscador de Google?

Los motores de búsqueda se han ido desarrollando en el transcurso de los años hasta llegar a los buscadores que tenemos hoy y que forman parte muy importante de la sociedad actual.

Especialmente Google ha mejorado su motor de búsqueda en los últimos 5 años de una manera impresionante y todo eso debido a un aumento considerable en su capacidad computacional. Ahora tenemos resultados en tiempo real, resultados localizados por países y hasta por ciudades, y también resultados personalizados, según tus preferencias o las de tus amigos.

Matt Cutts explica en el siguiente vídeo a grandes rasgos cómo funciona el buscador actual de Google.

Cómo funciona el buscador de Google

Vídeo: cómo funciona el buscador de Google

Está Google haciendo pruebas con las URLs en las páginas de resultados?

Haciendo una búsqueda en Google en alemán me he encontrado con los siguientes resultados:

Pruebas en el buscador de Google
(hacer clic en la imagen para ampliar)

En estos resultados, el link de las páginas aparece en la segunda linea de cada resultado, y no como ha sucedido hasta ahora, en la última linea

Resultados normales del buscador Google
(hacer clic en la imagen para ampliar)

Parecería que Google esta haciendo estas pruebas siguiendo los cambios que se hicieron hace poco en Google AdSense.

Personalmente no estoy seguro que este cambio mejore la legibilidad de los resultados, pero seguramente mediante este tipo de experimentos, Google encontrará qué posición de la URL mejora el CTR en los primeros resultados.

Los factores del ranking de los motores de búsqueda 2011

Como ya es costumbre SEOmoz publica los factores para el rankink en los motores de búsqueda en forma anual y desde hace mas de 6 años.

Esta publicación es el resultado de una encuesta a 132 «expertos» en posicionamiento en buscadores (SEO) a nivel mundial y por primera vez se realizó un análisis de una serie de keywords o palabras claves en los resultados del buscador de Google.

Se trata de un reporte que contiene una gran cantidad de datos que pueden ser descargados / visualizados en su forma original así como una serie de gráficos que muestran los resultados de la encuesta a los SEOs y del análisis de las palabras claves.

En resumen, es una lectura casi obligada para todo SEO que tome su trabajo en serio, ya que nos dá una radiografía actual, de cómo los SEOs del mundo están observando el comportamiento de los buscadores.

El siguiente gráfico resume los factores más importantes para el ranking en los buscadores en este momento

Factores para el ranking en los buscadores 2011

Los encuestados han definido las métricas de enlaces a nivel de página como el factor más importante para el ranking, seguido de la autoridad de un sitio a nivel de dominio, así como el uso de palabras claves a nivel de página y luego a nivel de dominio. Y por primera vez han incluido métricas sociales a nivel de página cómo un factor importante para el ranking en los buscadores.

Pero la encuesta también ha tratado de averiguar de cómo ven estos expertos el futuro del SEO, y los resultados están en el siguiente diagrama

Futuro del SEO
(hacer clic en la imagen para ver en tamaño orginal)

Los expertos indican, y esto posiblemente de cara al update de Panda, que el valor que perciban los usuarios a nivel de página y sitio aumentará considerablemente. También las señales sociales a nivel de página y de sitio se convertirán en un factor importante para el ranking, así como las métricas del CTR de la página, el porcentaje de retorno a la página de resultados, y otros más.

El reporte completo lo puedes encontrar en Search Ranking factors 2011, en ingles.

Infográfico de todas las actualizaciones de Google

Cómo ahora está de moda mostrar todo tipo de datos estadísticos e información en un gráfico gigante, aquí les presento un infográfico de las actualizaciones del buscador de Google.

En este infográfico se habla de Google Dance, pero cómo ya es conocido ya no existe desde hace varios años atrás, desde que Google mejoró sustancialmente su infraestructura de data centers y la generación dinámica y en tiempo real del índice del buscador.

Infográfico de las actualizaciones de Google

Hacer clic en la imagen para ver en tamaño original.

Fuente: Level343

Novedades y cambios en el buscador de Google

Después de que los resultados del buscador de Google fueron duramente criticados por la prensa y la opinión publica en general (ver La manipulación de los buscadores es tema de conversación en las grandes esferas, Google search and search engine spam), Google ha reaccionado rápidamente con el cambio de su algoritmo y lo ha puesto a prueba en los resultados de los Estados Unidos.

Se trata de la llamada actualización Panda o también Farmer Update como la denominó Danny Sullivan debido a que esta actualización está dirigida a las granjas con contendido de baja calidad. Es decir sitios web que copian contenidos de otros o que escriben artículos de baja calidad solo con palabras claves competitivas para posicionarse en el buscador y así generar tráfico para monetizar su publicidad.

En esta ocasión, se han usado «algoritmos inteligentes» para encontrar a estos sitios web. Según Google se han usado clasificadores de documentos: En una primera instancia y en base a encuestas de usuarios o datos estadísticos se clasifica un conjunto de páginas en paginas verdes, las que están bien y páginas rojas, es decir aquellas que son de contenido de baja calidad. Con está información, los algoritmos inteligentes pueden aprender a clasificar por si solos cualquier otra página que el  googlebot les presente.

Y para mejorar este nuevo algoritmo y poder comparar sus resultados con datos de los usuarios, Google creó inicialmente para Chrome una extensión que permite bloquear sitios en los resultados del buscador. Ahora, esta función también está disponible directamente en los resultados del buscador, por lo menos en los Estados Unidos. Así los ingenieros ahora tienen una forma más para alimentar o por lo menos poder comparar los resultados de su algoritmo de clasificadores de documentos.

Según Google, este algoritmo solo ha afectado más o menos el 12% de las búsquedas en los Estados Unidos, aunque muchos webmasters creen que este cambio ha afectado a más del 40% de los sitios web grandes. Por ejemplo, en este artículo Four Sites Impacted By Google’s “Farmer Update” Speak Out 4 sitios conocidos  hablan sobre la caída de su trafico después de la actualización Panda.

Cómo ya se sabe, los algortimos no son 100% eficientes y tampoco este de document level classifiers y con los sitios malos también han sido afectados muchos otros que según sus webmasters tienen contenido original y de calidad para sus usuarios. Por este motivo, Google ha abierto un hilo en el foro de ayuda de Google Webmaster para que los afectados se pronuncien y en una segunda fase, el algoritmo pueda ser mejorado.

Después de la actualización Panda los SEOs y webmasters han generado una infinidad de discusiones de cómo contrarrestar sus efectos. Se han dado todo tipo de consejos y han aparecido como siempre muchas teorías. Por ejemplo Greenlight aconseja a los webmasters a prepararse antes de que Panda se propague en forma global y en diferentes idiomas.

Un buen resumen sobre los efectos de la actualización Panda, lo dá Vanessa Fox en su nota sobre las lecciones aprendidas en el SMX West en el que da algunos consejos para evitar la penalización de Panda, habla del white hat cloacking, de link building y de cómo funcionan los reportes de spam de Google.

En lo que se refiere a la actualización Panda, lo más interesante es lo siguiente:

Bloquear contenido de baja calidad
Las páginas con bajo contenido también pueden afectar al ranking de otras páginas del sitio web. Todavía no está claro si es que la actualización Panda afecta solo algunas páginas o al sitio completo. En algunos casos, se han visto que sitios afectados todavía tienen páginas muy muy posicionadas para búsquedas del long tail.

Se consideran páginas de bajo contenido por ejemplo aquellas que hacen recesiones de usuarios de productos, pero inicialmente no tienen comentarios. Estas páginas contienen posiblemente la descripción de un producto que aparece en muchos otros sitios (contenido duplicado) y no se diferencia en nada de estos hasta que se llene de comentarios.

Por eso se aconseja bloquear estas páginas del rasterador usando < meta name=robots content=noindex > o en robots.txt

Otra posibilidad que ya se ha mencionado en otras discusiones es mover las páginas de bajo contenido a otro dominio.

Controlar la proporción anuncios / contenido
Matt Cutts ha comentado que tener publicidad en una página no reduce  su calidad, pero una exageración si. Páginas con más anuncios que contenidos generan un experiencia de usuario muy pobre y pueden ser clasificadas como de bajo contenido.

Controlar la frecuencia de rastreo del googlebot
Ya es bien conocido que la frecuencia de rastreo del googlebot es una métrica que muestra la popularidad de un sitio en Google. Un sitio web  saludable puede ser rastreado por el googlebot varias veces al día.

Vanessa aconseja revisar los logs del servidor web y ver qué páginas son rastreadas solo esporádicamente. Esto podría ser una señal de que esas páginas son consideradas por Google como de baja calidad.

Propagación a nivel internacional
Y finalmente algo que interesa a todos los SEOs y webmasters que no están en el mercado norte americano: Según Matt ya se están realizando pruebas con estos nuevos algoritmos  a nivel internacional y se espera que en las próximas semanas estos cambios también se propaguen a los buscadores en otros idiomas.

Pero también indica que este tipo de contenido de baja calidad se observa principalmente en los Estados Unidos, por lo que esperan que el impacto de Panda internacionalmente sea mucho más bajo que en USA.

Esta acotación final es casi una buena noticia para los SEOs de todo el mundo. Pero de todas maneras creo que ya se tienen que estar preparando para evitar que sus páginas sean atrapadas por Panda.

Se debe revisar los sitios webs y seguir los consejos antes mencionados para evitar cualquier penalización.

Cómo generar visitas reales desde los buscadores de imagenes

Justamente hoy día estuve leyendo este post en Pablogeo y me puse a investigar un poco más sobre el tema para saber qué es lo que realmente sucede con las visitas desde los buscadores de imagenes.

En el caso de este blog, hay por ejemplo una imagen que está bien posicionada para la búsqueda protector de pantalla con movimiento en el long tail. La siguiente imagen muestra el resultado en el buscador de imágenes de Google:

Resultado del buscador de imagenes de Google

Al revisar los datos de esta búsqueda en Google Webmaster Tools (GWT) obtuve los siguientes resultados

Resultados en Google Webmaster Tools

Y en Google Analytics (GA) obtengo los siguientes datos

Resultados en Google  Analytics

Según GWT se realizaron entre el 09.01.11 y el 08.02.11 90 clics desde esta búsqueda, y por ende desde los resultados del buscador de imágenes de Google. GA muestra en el mismo periodo 82 páginas vistas. La diferencia se debe a que GA no es muy exacto.

Lamentablemente, con estos datos es muy difícil saber cuantos visitantes del buscador de imágenes realmente han visto la imagen como se aprecia en el screenshot inicial sin haber generado una visita real. Pero de todas maneras son mucho más que los 90 clics realizados.

Pero, por la información que se obtiene en GWT se puede observar en muchas webs que un gran porcentaje de las búsquedas que podrían culminar en  visitas a una página son generadas por el buscador de imágenes como se puede observar en el siguiente diagrama

Porcentajes de los tipos de busquedas

Por este motivo, es que aparece la idea de redireccionar automaticamente las páginas de resultados del buscador de imágenes de Google hacia la página misma donde se encuentra la imagen y de esta forma generar una visita real.

El código JavaScript para redireccionar es el siguiente y debe estar en el <head>

Código JavScript para redireccionar a la página

Usando este sencillo código se aumentará considerablemente  el CTR de la página pero todavía queda una gran duda:  Google permite este tipo de redirecciones? Eso todavía no lo tengo muy claro y justamente en el post de Pablogeo un comentarista hace la misma consulta.

En algunos hilos antiguos de Digital Point se habla también de una posible penalización por parte de Google pero no hay una respuesta clara. Sabe alguien si el uso de este script realmente está prohibido?

Anatomía de los parámetros del buscador de Google

A medida que el buscador de Google está aumentando sus funcionalidades, y después de que introdujeron el uso de ajax en las páginas de los resultados, ya es casi imposible acordarse de todos los parámetros que usa el buscador.

Muchos de estos parametros son enviados en el referer, de modo que ahora se pueden analizar muchas más variables con los logs de los servidores web.

Ann Smarty de Blue Glass ha tratado de realizar una anatomía de los parámetros del buscador de Google, y aunque la lista todavía me parece incompleta, es una buena fuente de información. Aquí les paso el enlace al mencionado artículo: Google Search URL Parameters – Query String Anatomy.

Actualización
Por ejemplo con los siguientes parámetros

http://www.google.com/search?pws=0&gf=0&filter=0&q=busqueda

se puede obtener resultados sin ningún tipo de filtro como ser basados en la cuenta del usuario (pws=0), sin limitación de numero de resultados por sitio web (filter=0), o sin site clustering (gf=0).

Visto en Javier Casares