Las novedades del Google Press Day

Como ya lo había mencionado en otro artículo, hoy día Google esta realizado su día de la prensa (Google Press Day). La agenda del día es la siguiente:

9:30 am
Welcome – Elliot Schrage
9:40 am
How We’re Doing and Where We’re Going – Eric Schmidt
10:10 am
A Search Technology Overview – Alan Eustace
10:30 am
Be Global, Act Local – Omid Kordestani
11:00 am
Break
11:25 am
Innovation: Many Shapes, Many Sizes – Jonathan Rosenberg & Marissa Mayer
12:15 pm
Executive Q&A
1:00 pm
Lunch

Via Search Engine Watch

Uno de los primeros productos que se han presentado es Google Trends. Una herramienta interesante para analizar las búsquedas que hacen los usuarios del buscador en el transcurso del tiempo, ordenados en categorías, como ser por ciudad, región e idioma. Por ejemplo para las keywords mundial 2006 he obtenido los siguientes resultados:


Google Trends

Una interesante función son los triggers o disparadores con las noticias que han generado los picos en el volumen de las búsquedas. Por ejemplo para la búsqueda mission impossible, he obtenido los siguientes resultados:


Google Trends y los triggers

A pesar de que no se muestran detalles cuantitativos, Google Trends puede ayudar bastante a los SEOs a buscar las palabras mas usadas para sus proyectos.

A medida de que hayan mas novedades, como por ejemplo Google Health, estaré actualizando esta nota.

Actualización
Phillip Lensen esta haciendo una actualización en vivo de todo lo que esta sucediendo en el Google Day Press y descripiendo los nuevos productos que se estan presentando.

Matt Cutts también escribe sobre lo que sucede en el Google Press Day, y comenta las presentaciones desde un punto de vista tácnico.

Post de Marissa Mayer, Vice President of Search Products and User Experience en el blog oficial de Google.

El dilema de los data centers de Google

Después de que comenzó la era Bigdaddy, es decir la introducción de una ‘nueva infraestructura’ en todos los data centers de Google, todavía no existe mucha claridad cuales serán las nuevas características de este nuevo índice.

Como ya lo había mencionado en anteriores notas, (aquí , y aquí) muchos sitios han perdido una gran cantidad de páginas que estaban en el índice ya hace mucho tiempo.

Otro de los fenómenos que actualmente se puede observar es que a diferencia de la era pre Bigdaddy, los data centers todavía tienen diferentes índices y no se igualan después de una nueva actualización como ya era costumbre.

Actualmente, se pueden observar data centers con 3 o 4 grupos diferentes de datos. Uno de estos grupos contienen un índice con los conocidos filtros del Sandbox debilitados (ver nota) y los otros son todavía difíciles de definir.

Yo estaba esperando este fin de semana, para ver una definición de cual de estos grupos se propaga finalmente. Pero todavía no ha sucedido nada.

Lo único que he podido obrservar es que el índice con los filtros del SandBox bajos esta comenzando a tomar la supremacía en los DCs.

Esperemos que esta semana todos los DCs se sincronicen, ya que esta situación pone siempre nerviosos a los webmasters, ya que no saben si bajarán o subirán de posicion. Además, en este tipo de momentos no es aconsejable hacer cambios en los proyectos.

Por ejemplo, para unas palabras claves en uno de mis proyectos, obtengo en 40 diferentes DCs los siguientes resultados:

Posición No. de data centers
4 13
11 2
52 15
59 10

Novedades sobre las perdidas de páginas en el buscador de Google

Finalmente, y después de unas semanas de silencio acerca del problema de la pérdida de paginas en el índice de Google que actualmente esta preocupando a muchos webmasters (ver nota), Matt a escrito en un comentario de su weblog lo siguiente:

maxD, last week when I checked there was a double-digit number of reports to the email address that GoogleGuy gave (bostonpubcon2006 [at] gmail.com with the subject line of “crawlpages”).

I asked someone to read through them in more detail and we looked at a few together. I feel comfortable saying that participation in Sitemaps is not causing this at all. One factor I saw was that several sites had a spam penalty and should consider doing a reinclusion request (I might do it through the webmaster console) but even that wasn’t a majority. There were a smattering of other reasons (one site appears to have changed its link structure to use more JavaScript), but I didn’t notice any definitive cause so far.

There will be cases where Bigdaddy has different crawl priorities, so that could partly account for things. But I was in a meeting on Wednesday with crawl/index folks, and I mentioned people giving us feedback about this. I pointed them to a file with domains that people had mentioned, and pointed them to the gmail account so that they could read the feedback in more detail.
So my (shorter) answer would be that if you’re in a potentially spammy area, you might consider doing a reinclusion request–that won’t hurt. In the mean time, I am asking someone to go through all the emails and check domains out. That person might be able to reply to all emails or just a sampling, but they are doing some replies, not only reading the feedback.

Interpretando estos comentarios, y asumiendo que Matt no esta ocultando algún problema con la nueva infraestructura, como por ejemplo la falta de espacio de almacenamiento, se puede deducir los siguiente:

1. La flojera del googlebot para visitar muchos sitios, se debería al cambio de prioridades del crawler en BigDaddy.

2. La disminución de las páginas que aparecen indexadas con la función site: se debería a los filtros de SPAM que aparentemente se están aplicando en el índice del buscador.

3. Este fenómeno que también esta afectando sitios sin SPAM parece ser un efecto secundario e involuntario de los nuevos algoritmos que Google esta aplicando.

Ahora, solo falta esperar que los ingenieros del Googleplex que están analizando los emails que ha recibido GoogleGuy ayuden a resolver el problema rápidamente.

Qué sucede con el buscador de Google?

Como ya es conocido, cuando Matt Cutts anuncío la completa propagación de la nueva infraestructura de Google, Bigdaddy, también menciono que en los próximos meses habría sorpresas muy interesantes para los webmasters debido a las nuevas posibilidades de esta nueva infraestructura.

Ya ha pasado mas un mes desde que se hizo este anuncio, pero muchos de los webmasters ahora están muy preocupados debido a que se están observando en el índice 2 fenómenos inquietantes:

1. Nuevas páginas web no están siendo indexadas con la rapidez que buscador lo hacia anteriormente.

2. El numero de páginas indexadas (función site:) de muchos sitios se esta reduciendo continuamente, como ya lo había informado en otro artículo.

En los diferentes foros, especialmente en WMW se están discutiendo diferentes teorías:

1. Debido a los problemas que mostraban las páginas indexadas en Google antes de Bigdaddy, como ser el contenido duplicado, resultados suplementarios, url canónicas hijacking, ahora Google con su nueva infraestructura Biggdaddy esta comenzando a limpiar las páginas con estos problemas, lo que esta causando que muchos sitios están perdiendo una gran cantidad de paginas en el índice.

2. Debido a que últimamente las páginas antiguas en los niveles más profundos no ha sido refrescadas por el googlebot, estas están desapareciendo automáticamente del índice.

3. Google tiene grandes problemas técnicos con su nueva estructura para indexar las páginas. El numero de los adeptos a esta teoría hoy día se ha incrementado, debido a un entrevista del CEO de Google, Eric Schmidt, con el New York Times, donde entre otras cosas dice «We have a huge machine crisis”. El artículo también menciona que Google en este nuevo año invertirá unos 1.500 millones de dólares en servidores, equipos de red y espacio para los data centers. Esta teoría se esta discutiendo en este hilo de WebMasterWorld.

Se cual fuese la verdadera razón de estos dos fenómenos que se están observando en el buscador de Google, los webmasters esperan que todo se normalice a la brevedad posible, ya que observar que las nuevas páginas de un proyecto no aparecen en el buscador o que las páginas de proyectos bien posicionados van desapareciendo cada día en el buscador es muy furstante.

Como estafar a Google AdSense

En el weblog AdSenseCheats se ha publicado un artículo detallando varios métodos para generar clics fraudulentos.

La lectura de este artículo de recomendable para conocer los diferentes sistemas que usan los estafadores de los anuncios contextuales, pero NO es recomenbable aplicarlo en la propia cuenta, ya que se corre el peligro de ser baneado de Google AdSense para siempre.

Via Philipp Lenssen

Memo de Steve Ballmer después de la caída de las acciones de Microsoft

Como ya lo había mencionado en otro artículo, las acciones de Microsoft cayeron la semana pasada, alcanzando su nivel más bajo desde hace seis años.

Hoy día, el Seattle Times informa que Bloomberg a presentado un memo ‘interno’ de Steve Ballmer (SEO de MS) dirigido a los ejecutivos de Microsoft. Generalmente, cuando MS desea informar a la opinión publica sobre sus estrategias, hace filtrar emails o memos ‘internos’ a los medios de comunicación.

En este memo, Ballmer informa que ha ampliado su la paleta de negocios y que el año 2007 va ha ser crucial, especialmente por el lanzamiento de Windows Vista y Office 2007. Según Ballmer, será el lanzamiento más grande de la historia de la empresa que se hizo desde 1995, lo que significa que se están realizando grandes inversiones de marketing y ventas para este lanzamiento.

También menciona que deberán basarse en estos nuevos productos para capturar otras areas como gestión de negociós, servidores de alta performancia, y mercados emergentes en países en vías de desarrollo.

En el mercado de los video-juegos se espera aumentar la ventaja que tienen sobre Sony y Nintendo por haber lanzado la nueva consola Xbox 360 antes que sus competidores.

También menciona que se están haciendo grandes inversiones en las búsquedas por Internet, publicidad y almacenamiento de datos. Esto va a demostrar cuan serios e interesados estan en los servicios de Windows Live.

Ballmer también dice: “Nuestra meta es crear la red mas grande de publicidad para crear un motor que pueda monetizar nuestros servicios y que pueda competir contra Google… Estos son esfuerzos a largo plazo que no los podemos observar de la noche a la mañana. Pero estamos haciendo inversiones inteligentes que nos permitirán ganar en este área tan vital”

Inversionistas compran 150.000 dominios para colocar anuncios contextuales

El Wall Street Journal ha presentado un artículo sobre un grupo de inversionistas aglutinados en la empresa Demand Media Inc. que están poniendo unos 120 millones de dólares para crear miles de sitios en Internet con poco contenido, pero con anuncios contextuales.

Según el informe, esta empresa ya cuenta con 150.000 dominios, entre los cuales por ejemplo se puede mencionar a flashgames.com. Este dominio, que esta parqueado en sedo.com, tiene un promedio de 240.000 visitas mensuales e ingresos anuales de nada menos que 150.000 dólares en avisos contextuales.

Solo queda esperar que los buscadores (Google, MSN Search, Yahoo, etc.) consideren todos estos dominios como SPAM, pues de lo contrario el mercado publicitario en Internet, en base al PPC (Pay Per Click) corre el riesgo de desprestigiarse y posiblemente de desaparecer.

Google AdSense y el parqueo de dominios

Como el Seattle Time en un artículo informa, Google esta ganando millones de dólares con dominios parqueados.

En esta página, Google informa como generar ingresos con páginas parqueadas. El único requisito para poder colocar AdSense en dominios parqueados es tener por lo menos 750.000 impresiones mensuales.

Según el Seattle Time, personas y empresas se estan dedicando a crear nuevos dominios solamente para parquearlos y colocar avisos patrocinados de AdSense, Yahoo, etc. Por ejemplo una persona compro mas de 6.600 dominios para parquearlos con anuncios. Él índica de que se trata de una maquina que imprime dinero 24 horas al día.

La mayoría de estos dominios son typo-domains, es decir dominios similares a dominios conocidos que tienen muchos visitantes, pero que contienen errores de escritura. Un buen porcentajes de los visitantes escriben los dominios con algún error y aterrizan en estos dominios paqueados y tapizados con anuncios.

Microsoft Research ha creado un programa que busca estos dominios mal escritos, que ya lo he presentado en otro artículo.