Las acciones de Microsoft pierden 13% a causa de MSN Search

Como se puede apreciar en el siguiente diagrama de Google Finance, las acciones de Microsoft han caido en un 13%.


Las acciones de Microsoft

Según Search Engine Watch, esta caída se debe sobre todo al buscador de Microsoft, el MSN Search. Según TheStreet.com Microsoft no estaba preparada para realizar tantos gastos en el mercado de los buscadores para tratar de competir con los más grandes. También se menciona que los ingresos de MSN Search cayeron en este primer trimestre y se que espera que en 2006 seguirá perdiendo cuota de mercado en publicidad.

Windows Live Shopping, pero sin Firefox

Microsoft acaba de poner su nuevo servicio en linea Windows Live Shopping, pero si se abre el sitio con Firefox, solo aparece el siguiente texto:


Windows Live Shopping sin Firefox
Windows Live Shopping sin Firefox

Además de esta primera mala impresión, se nota que Microsoft esta muy pero muy lejos de dominar la tecnología Ajax, como ya lo conocemos de Google. Inicialmente al abrir la página, el browser se pone a cargar un montón de datos, y luego aparecen muchos errores, por ejemplo mencionado que no se pudo cargar la lista de categorías y que se pruebe nuevamente después.

Al cargar los productos de una búsqueda, muchas veces no aparecen las fotos, lo que da un sentimiento de que se trata de la página de una ama de casa o un escolar.


Errores en Windows Live Shpopping

También se nota que la base de datos es muy pobre, pues no se encuentran por ejemplo los productos más conocidos en la categoría de los iPaqs. Y lo peor de todo, cuando no se encuentra algún producto, no aparece ningún mensaje.

Es realmente una pena que MS, presionado por no perder mas terreno en la supremacía de Internet, este sacando este tipo de servicios que ni siquiera merecen la denominación de versión Beta.

Apache ya es líder en los servidores SSL

Según un informe de Netcraft , Apache ya encabeza las estadísticas de los servidores SSL y ya ha rebasado al servidor de Microsoft IIS (Internet Information Server).


Mercados de los servidores SSL
Según Netcraft, Apache tiene un mercado del 44,0% mientras Microsoft 43,8% y para esto han sido necesarios 10 años. Aunque cabe recalcar que inicialmente por la prohibición de la exportación de productos criptográficos impuesta por los Estados Unidos en los años 90, no ayudo a la propagación del servidor de Apache, ya que el módulo SSL no era parte estándar del software.Por este motivo, ISS todavía tiene una supremacía del 70% en los Estados Unidos, mientras que en Europa y Japon, Apache sigue avanzando a grandes pasos.

Crawl caching proxy – Un nuevo concepto en la era de Bigdaddy

Como ya es conocido, la semana pasada hubó gran revuelo en la escena de los SEOs cuando se reveló y comprobó que el bot de AdSense estaba ayudando a actualizar el caché del buscador.

Hoy día Matt Cutts, ha publicado una nota en su blog, tratando de disipar la desconfianza que ha generado esta nueva situación.

Matt explica que con la introducción de la nueva infraestructura Bigdaddy, también se ha creado un nuevo concepto para ahorrar ancho de banda para los Webmasters. Este concepto lo llama Crawl caching proxy, y funciona con el mismo principio de los cachés de los proxys como por ejemplo squid.

Cuando por ejemplo un usuario A llama la página www.mi-dominio.com squid guarda esta página en su caché, de modo que cuando un usuario B abre la misma página, ya no es necesario bajarla nuevamente desde el servido original. Squid le presenta la página que ya esta en el caché, ahorrando así ancho de banda.

Según Matt, el crawl caching proxy funciona de la misma manera: Cuando un servicio de Google (googlebot, AdSense, blogsearch, etc.) requiere una página, esta solo es descargada del servidor original si todavía no esta en el caché del crawler, lo que ahorra ancho de banda. Caso contrario el servicio usa la página que ya se encuentra en caché del crawler.

Este nuevo concepto ayuda a mejorar el trabajo del crawler pero no influye de ninguna forma en los diferentes servicios de Google. Según Matt, este caché respeta todas las reglas en robot.txt para los diferentes bots.

Además se debe destacar un aspecto interesante en la nota de Matt: Se menciona que el nuevo googlebot Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html) permite la codificación gzip de las páginas web, para así también ahorrar ancho de banda.

Datos económicos de Google mejoran nuevamente

Los datos económicos de Google del 4. trimestre de 2005 no fueron muy alentadores (ver informe) ya que las ganancias no cubrieron las expectativas de los accionistas.

Pero parece que Google aprende muy rápido de sus errores. El informe económico del 1. trimestre de 2006 nuevamente presenta datos impresionantes: Los ingresos han aumentado en nada menos que en 79% comparado con el mismo trimestre del año pasado.

Las ganancias en este trimestre después de descontar el TAC (Traffic Acquisition Costs), es decir el monto pagado a los asociados de AdSense, llego a 592,3 millones de dólares.

Y justamente esta noticia hizo subir la ación de Google a casi 450,00 dólares, que inicialmente hoy día se encontraba en 415,00.

Trimestre Ingresos Ganancias/
Perdidas
4/03 515,2 Mio. 27,2 Mio.
1/04 653,0 Mio. 63,0 Mio.
2/04 700,2 Mio. 79,1 Mio.
3/04 805,89 Mio. 51,98 Mio.
4/04 1.031,5 Mio. 204,1 Mio.
1/05 1.256 Mio. 369 Mio.
2/05 1.384 Mio.
(890 Mio. sin TAC)
343 Mio.
3/05 1.578 Mio.
(1.048 Mio. sin TAC)
381,2 Mio.
4/05 1.919 Mio.
(1.290 Mio. sin TAC)
372,2 Mio.
1/06 2,253 Mio.
(1,530 Mio. sin TAC)
592,3 Mio.


Fuente: heise onlineAquí se puede leer los datos oficiales

API para Google Calendar

Hoy día el Google Code Blog ha presentado la API para el nuevo servicio de Google: Calendar.

Esta API se basa en en las Google Data APIs (GData) que define un formato en XML que combina los formatos de sindicación Atom y RSS. El protocolo se basa en REST (Representational State Transfer).

Adicionalmente a las funciones de sindicación, este formato permite realizar consultas mediante parámetros en la URL, como por ejemplo rangos de fechas.

Adicionalmente con esta API, también se pueden crear nuevos eventos, modificarlos o borrarlos en Google Calendar.

En base a este protocolo, actualmente ya existen librerías para Java y C# para Calendar.

El número de páginas indexadas por Google esta bajando considerablemente

Desde ya hace varios días se esta discutiendo en varios foros, como por ejemplo en WMW, el problema que momentáneamente tienen muchos webmasters.

El número de páginas indexadas, que generalmente se puede obtener en Google con la función site:mi-dominio.com, esta bajando continuamente para muchos dominios.

Algunos webmasters mencionan por ejemplo que de 100.000 páginas indexadas han bajado a unas 600.

Pero hasta el momento, aun nadie tiene una explicación plausible sobre este fenómeno en la era de Bigdaddy. Solamente existen como siempre una serie de teorías. Entre estas, se puede mencionar:

1. Google esta roto, y tiene problemas con la indexación de las páginas.

2. El bajón se debe a que el googlebot ya hace algún tiempo que no esta escanenado los sitios con la frecuencia como lo hacia antes. Especialmente el deepcrawl, es decir el escaneo de las páginas internas. Y ya que estas no han sido actualizadas, estas páginas van desapareciendo del índice del buscador poco a poco.

3. Google esta borrando del índice las páginas con doble contenido (DC = duplicate content).

Sea cual fuese el verdadero motivo de este extraño fenómeno, esta causando mucho ruido entre los webmasters ya que la desaparición de muchas sus páginas del índice les resta una gran cantidad de visitantes. Sobre todo, aquellas web que reciben la mayoría sus visitas por el long tail y no por palabras claves especificias.

Y mientras algunos piensan que este será el nuevo índice, otros todavía tienen la esperanza que pronto todo vuelva a la normalidad.

Microsoft ha comenzado a mover su Passport Network al Windows Live ID

Como ya se había anunciado anteriormente, Microsoft ha decidido cambiar su servicio de identificación Microsoft Passport Network, por el Windows Live ID, para dar más fuerza a su nueva estrategia en Internet, Windows Live.

Ahora ya se puede ver por ejemplo en el login de Hotmail este nuevo servicio, aunque al hacer clic se abre nuevamente la página del servicio antiguo.


Hotmail & Windows Live ID

Esperemos que este nuevo servicio de identificación sea mucho mejor que el viejo Passwort Network ya que nunca llego a funcionar como se lo había planificado.

Esperanza para los que están en el Sandbox de Google?

Como se esta discutiendo en un hilo de WMW, muchas páginas que estaban en el Sandbox ya hace bastante tiempo, han aparecido por algunos momentos en el índice en buenas posiciones.

También se están observando varios data centers, como por ejemplo 64.233.187.104, que muestran un índice sin el filtro del sandbox.

Posiblemente es una prueba de Google y no se sabe a ciencia cierta si estos resultados serán propagados a todos los DCs.

Cómo mejorar los ingresos de AdSense?

En los últimos meses se han escuchado muchas quejas de webmasters que han sufrido bajas considerables en los ingresos de AdSense.

Este efecto se debe al Smart Pricing que se aplica a los anuncios de AdWords.

Una de las consecuencias más importantes del Smart Pricing es que se aplica a toda la cuenta de AdSense. Si un asociado (publisher) tiene AdSense en varios sitios, una página que no tenga buen rendimiento, puede hacer bajar los ingresos en todos los sitios, es decir el precio que Google paga por clic (PPC price per click) disminuye.

Ahora bien, como se puede mejorar, o mejor dicho evitar que los ingresos de AdSense bajen? Hace unos días este tema se ha discutido en un hilo de WMW.

En realidad, la clave para la solución del problema, es quitar AdSense de las páginas que tienen una conversión baja, para así hacer subir el PPC.

Pero encontrar las páginas que tienen una baja conversión es difícil. Páginas con baja conversión son aquellas que no ayudan a los anunciantes (los que pagan en AdWords) a conseguir sus metas, es decir a convertir.

Un ejemplo puede ser una página de software gratuito que muestra anuncios de programas caros. Posiblemente los visitantes van a hacer clics en los anuncios, pero no van a comprar nada, ya que estaban buscando algo gratis. Entonces, el valor de conversión de esta página es baja.

Por eso, páginas de baja conversión, no necesariamente tienen un bajo eCPM o un bajo CTR.

La única forma de encontrar una página de baja conversión es analizar la relación de precios en AdWords para palabras claves dadas y compáralas con el PPC que Google paga al publisher.

Esto solo se puede realizar haciendo mediciones por varias semanas en las propias páginas calculando el precio por clic que AdSense ha pagado, y luego comparando estos precios con las estimativas en AdWords para esas palabras claves.

Si la diferencia es muy grande, es decir si lo que Google paga por clic es muy bajo comparado con los precios en AdWords, entonces estos anuncios tienen un Smart Price bajo.

Y justamente estas son las páginas en las que se debe eliminar los anuncios de AdSense para conseguir, después de unos días, un incremento en el precio por clic.