Novedades y cambios en el buscador de Google

Después de que los resultados del buscador de Google fueron duramente criticados por la prensa y la opinión publica en general (ver La manipulación de los buscadores es tema de conversación en las grandes esferas, Google search and search engine spam), Google ha reaccionado rápidamente con el cambio de su algoritmo y lo ha puesto a prueba en los resultados de los Estados Unidos.

Se trata de la llamada actualización Panda o también Farmer Update como la denominó Danny Sullivan debido a que esta actualización está dirigida a las granjas con contendido de baja calidad. Es decir sitios web que copian contenidos de otros o que escriben artículos de baja calidad solo con palabras claves competitivas para posicionarse en el buscador y así generar tráfico para monetizar su publicidad.

En esta ocasión, se han usado «algoritmos inteligentes» para encontrar a estos sitios web. Según Google se han usado clasificadores de documentos: En una primera instancia y en base a encuestas de usuarios o datos estadísticos se clasifica un conjunto de páginas en paginas verdes, las que están bien y páginas rojas, es decir aquellas que son de contenido de baja calidad. Con está información, los algoritmos inteligentes pueden aprender a clasificar por si solos cualquier otra página que el  googlebot les presente.

Y para mejorar este nuevo algoritmo y poder comparar sus resultados con datos de los usuarios, Google creó inicialmente para Chrome una extensión que permite bloquear sitios en los resultados del buscador. Ahora, esta función también está disponible directamente en los resultados del buscador, por lo menos en los Estados Unidos. Así los ingenieros ahora tienen una forma más para alimentar o por lo menos poder comparar los resultados de su algoritmo de clasificadores de documentos.

Según Google, este algoritmo solo ha afectado más o menos el 12% de las búsquedas en los Estados Unidos, aunque muchos webmasters creen que este cambio ha afectado a más del 40% de los sitios web grandes. Por ejemplo, en este artículo Four Sites Impacted By Google’s “Farmer Update” Speak Out 4 sitios conocidos  hablan sobre la caída de su trafico después de la actualización Panda.

Cómo ya se sabe, los algortimos no son 100% eficientes y tampoco este de document level classifiers y con los sitios malos también han sido afectados muchos otros que según sus webmasters tienen contenido original y de calidad para sus usuarios. Por este motivo, Google ha abierto un hilo en el foro de ayuda de Google Webmaster para que los afectados se pronuncien y en una segunda fase, el algoritmo pueda ser mejorado.

Después de la actualización Panda los SEOs y webmasters han generado una infinidad de discusiones de cómo contrarrestar sus efectos. Se han dado todo tipo de consejos y han aparecido como siempre muchas teorías. Por ejemplo Greenlight aconseja a los webmasters a prepararse antes de que Panda se propague en forma global y en diferentes idiomas.

Un buen resumen sobre los efectos de la actualización Panda, lo dá Vanessa Fox en su nota sobre las lecciones aprendidas en el SMX West en el que da algunos consejos para evitar la penalización de Panda, habla del white hat cloacking, de link building y de cómo funcionan los reportes de spam de Google.

En lo que se refiere a la actualización Panda, lo más interesante es lo siguiente:

Bloquear contenido de baja calidad
Las páginas con bajo contenido también pueden afectar al ranking de otras páginas del sitio web. Todavía no está claro si es que la actualización Panda afecta solo algunas páginas o al sitio completo. En algunos casos, se han visto que sitios afectados todavía tienen páginas muy muy posicionadas para búsquedas del long tail.

Se consideran páginas de bajo contenido por ejemplo aquellas que hacen recesiones de usuarios de productos, pero inicialmente no tienen comentarios. Estas páginas contienen posiblemente la descripción de un producto que aparece en muchos otros sitios (contenido duplicado) y no se diferencia en nada de estos hasta que se llene de comentarios.

Por eso se aconseja bloquear estas páginas del rasterador usando < meta name=robots content=noindex > o en robots.txt

Otra posibilidad que ya se ha mencionado en otras discusiones es mover las páginas de bajo contenido a otro dominio.

Controlar la proporción anuncios / contenido
Matt Cutts ha comentado que tener publicidad en una página no reduce  su calidad, pero una exageración si. Páginas con más anuncios que contenidos generan un experiencia de usuario muy pobre y pueden ser clasificadas como de bajo contenido.

Controlar la frecuencia de rastreo del googlebot
Ya es bien conocido que la frecuencia de rastreo del googlebot es una métrica que muestra la popularidad de un sitio en Google. Un sitio web  saludable puede ser rastreado por el googlebot varias veces al día.

Vanessa aconseja revisar los logs del servidor web y ver qué páginas son rastreadas solo esporádicamente. Esto podría ser una señal de que esas páginas son consideradas por Google como de baja calidad.

Propagación a nivel internacional
Y finalmente algo que interesa a todos los SEOs y webmasters que no están en el mercado norte americano: Según Matt ya se están realizando pruebas con estos nuevos algoritmos  a nivel internacional y se espera que en las próximas semanas estos cambios también se propaguen a los buscadores en otros idiomas.

Pero también indica que este tipo de contenido de baja calidad se observa principalmente en los Estados Unidos, por lo que esperan que el impacto de Panda internacionalmente sea mucho más bajo que en USA.

Esta acotación final es casi una buena noticia para los SEOs de todo el mundo. Pero de todas maneras creo que ya se tienen que estar preparando para evitar que sus páginas sean atrapadas por Panda.

Se debe revisar los sitios webs y seguir los consejos antes mencionados para evitar cualquier penalización.

Nuevamente sobre el numero de enlaces en una página web

Hace unas semanas atrás comentaba este tema: Cuantos enlaces son muchos enlaces?. Y justamente ayer, en la nueva serie de vídeos de Google Webmaster se lo ha tocado.

En resumen se menciona que el valor mágico de los 100 enlaces es más bien histórico: Hace algunos años, el rastreador de Google, solamente podía guardar los primeros 100 KBytes de una página web. De está manera las guías de Google también mencionaban que solo los primeros 100 enlaces de una página eran considerados.

Pero ahora, con los grandes avances de infraestructura y de software que Google ha alcanzado en los últimos años, estos valores ya no son reales, y por eso esta regla también se ha retirado de las guías para webmasters.

Así pues, ahora se pueden colocar más de 100 enlaces en cada página, pero siempre hay que tener en cuenta que la herencia del PageRank se diluye entre todos los enlaces salientes (tanto los externos como los internos) por lo cual ya queda nuevamente limitado el numero de enlaces por página, si es que se desea crear un sitio con páginas internas robustas en PageRank y con un buen TrustRank en el buscador.

Y aquí el vídeo

Video en Youtube

La manipulación de los buscadores – el SEO – es tema de conversación en las grandes esferas

Todos los que están en metidos en el «posicionamiento en los buscadores» desde sus inicios, saben muy bien qué lo que siempre han hecho es analizar los resultados de los buscadores, hacer experimentos, y aplicar estos conocimientos en un sitio web para que sus páginas aparezcan en las primeras posiciones del índice de los resultados para así generar tráfico.

Inicialmente ésta era una tarea para técnicos y especialistas en informática, pero a medida que el posicionamiento se hizo más importante para los negocios en Internet, y sobre todo se puso de moda, todo tipo de sujetos se pusieron a optimizar… Surgieron un sinnúmero de agencias SEO qué por un puñado de Dólares o Euros ofrecen a sus clientes el paraíso y «resultados garantizados».

Esta avalancha de «manipuladores de los buscadores»  ha hecho que a pesar de las mejoras tecnologías que Google ha introducido en el último tiempo, como ser indexación casi en tiempo real, el inmenso incremento de la capacidad de procesamiento de datos y mejores interfaces, la calidad de los los resultados del buscador de Google cada vez vayan empeorando.

Y todo esto no ha pasado desapercibido por los usuarios comunes a tal punto que ya en varias ocasiones, el New York Times ha publicado artículos sobre SEO y la manipulación de los resultados de Google.

En el último de los casos el NYT ha mostrado cómo la conocida tienda J.C. Penny estaba en las primeras posiciones de Google para diferentes palabras claves gracias a un linkbuilding fraudulento. Vanessa Fox explica en esta artículo el esquema de linkbuilding que usaba J.C. Penny.

Todas las noticias negativas en la prensa sobre Google del último tiempo lo han puesto a la defensiva: Tuvo que pelearse con Microsoft por los resultados de Bing, tuvo que mostrar resultados del buscador del año 2001 para demostrar que ahora todo ha mejorado.

Adicionalmente, se ha anunciado que ya se han hecho mejoras en los algoritmos para penalizar granjas de enlaces, y que pronto también atacarán a las granjas con contenido de baja calidad. Uno de los ejemplos más conocido son los sitios de DemandMedia, por ejemplo eHow, que usando algoritmos para predecir las tendencias sobre cuales serán temas de moda en Internet, inspiran a sus autores freelance para crear contenido que luego genera grandes ingresos por la publicidad insertada en sus páginas.

Pero no todo queda ahí: Ahora Google acaba de publicar una extensión para Chrome para que el usuario pueda bloquear sitios en los resultados del buscador. Hace ya algún tiempo, los resultados del buscador mostraban un sistema de valoración para que los usuarios puedan dar su opinión, pero esta opción desapareció poco después. Parece que este sistema no ayudo a mejorar la calidad de los resultados. Según Google, los datos de esta nueva extensión serán usados para penalizar sitios web.

Por lo que parece, Google ya no tiene armas tecnológicas para combatir a los malos manipuladores del buscador y ahora está apostando por la valoración social. Solo queda esperar que esta nueva idea no abra una puerta para combatir a la competencia…

Nuevamente sobre la penalización de sitios web en Google

Este es un tema que siempre está latente entre los SEOs: Hasta donde se puede llegar a optimizar un sitio web sin que sea penalizado por Google.

Si solo se utilizan las técnicas recomendadas por Google en su guía para Webmasters, entonces no hay temor de que el sitio sea penalizado. Pero muchas veces esto no es suficiente para alcanzar buenas posiciones en el índice, sobre todo cuando se trata de keywords muy competitivas.

Es por eso que muchos SEO usan técnicas obscuras, las del llamado black hat SEO, para posicionarse rápidamente. Muchas de estas técnicas son fácilmente descubiertas por Google en forma algorítmica, mientras que otras tienen que ser descubiertas por denuncias de otros usuarios, como en estos días ha sido el caso de JCPenny. Luego de que Google descubre algún tipo de irregularidad, procede a penalizar al sitio web.

En el siguiente vídeo de Google Webmaster Tools se explica exactamente cuales son los tipos de penalidades que Google a definido, y de cómo procede para levantar las mismas:

Según Matt, existen 2 tipos de penalizaciones: Aquellas que son realizadas automáticamente (algortimicamente) y las manuales. Las automáticas son por ejemplo cuando el rastreador encuentra SPAM, key stuffing, cloacking, redirección mediante JavaScript, etc.

En este caso, la penalización puede ser revertida si se cambia la página web quitando lo que lo ha motivado. Cuando el rastreador visita nuevamente la página (OJO: por causa de una penalización la frecuencia de rastreo puede bajar considerablemente) y no encuentra la causa de la misma, entonces la página comienza nuevamente a subir a su posición original.

Si la web ha sido penalizada manualmente, por ejemplo por usar texto oculto, u otras cosas más maliciosas, generalmente se coloca un timeout de expiración. Por ejemplo en el caso de texto oculto, la penalización podría ser por unos 30 días. En otros casos puede ser mucho mayor.

Si se envía una petición de reconsideración, generalmente solo se controlan las penalizaciones manuales y en caso de que se hayan realizado las correcciones y la web ya no viole las reglas de Google, la web es liberada inmediatamente.

Me parece que esta es la primera vez que se explica en forma clara, cómo Google maneja internamente las penalizaciones…

Cómo generar visitas reales desde los buscadores de imagenes

Justamente hoy día estuve leyendo este post en Pablogeo y me puse a investigar un poco más sobre el tema para saber qué es lo que realmente sucede con las visitas desde los buscadores de imagenes.

En el caso de este blog, hay por ejemplo una imagen que está bien posicionada para la búsqueda protector de pantalla con movimiento en el long tail. La siguiente imagen muestra el resultado en el buscador de imágenes de Google:

Resultado del buscador de imagenes de Google

Al revisar los datos de esta búsqueda en Google Webmaster Tools (GWT) obtuve los siguientes resultados

Resultados en Google Webmaster Tools

Y en Google Analytics (GA) obtengo los siguientes datos

Resultados en Google  Analytics

Según GWT se realizaron entre el 09.01.11 y el 08.02.11 90 clics desde esta búsqueda, y por ende desde los resultados del buscador de imágenes de Google. GA muestra en el mismo periodo 82 páginas vistas. La diferencia se debe a que GA no es muy exacto.

Lamentablemente, con estos datos es muy difícil saber cuantos visitantes del buscador de imágenes realmente han visto la imagen como se aprecia en el screenshot inicial sin haber generado una visita real. Pero de todas maneras son mucho más que los 90 clics realizados.

Pero, por la información que se obtiene en GWT se puede observar en muchas webs que un gran porcentaje de las búsquedas que podrían culminar en  visitas a una página son generadas por el buscador de imágenes como se puede observar en el siguiente diagrama

Porcentajes de los tipos de busquedas

Por este motivo, es que aparece la idea de redireccionar automaticamente las páginas de resultados del buscador de imágenes de Google hacia la página misma donde se encuentra la imagen y de esta forma generar una visita real.

El código JavaScript para redireccionar es el siguiente y debe estar en el <head>

Código JavScript para redireccionar a la página

Usando este sencillo código se aumentará considerablemente  el CTR de la página pero todavía queda una gran duda:  Google permite este tipo de redirecciones? Eso todavía no lo tengo muy claro y justamente en el post de Pablogeo un comentarista hace la misma consulta.

En algunos hilos antiguos de Digital Point se habla también de una posible penalización por parte de Google pero no hay una respuesta clara. Sabe alguien si el uso de este script realmente está prohibido?

Penaliza Google el contenido oculto en una página web?

Con las mejoras en la usabilidad de las páginas web que se han introducido en los últimos años, ya se he hecho común en mostrar a los visitantes solo una parte del texto que contiene una página web.

Para mantener simplicidad y un layout claro de la página, se muestra por ejemplo inicialmente solo un extracto de un artículo o comentario y se coloca debajo del mismo un botón con el texto «Leer más…» Al hacer clic en este botón, se despliega el texto completo.

Otro ejemplo que se usa bastante es el de los textos desplegables como se muestra en la siguiente imagen

Ejemplos de texto desplegable

En todos estos casos se trata de usar contenidos ocultos que solo se muestran al usuario al ser requeridos. Pero cuidado: En realidad todo el texto se encuentra en el archivo HTML que es rastreado por los bots de los motores de búsqueda. Los algoritmos de los buscadores no saben cuales son los textos que finalmente aparecen en el navegador y son visualizados por los visitantes.

Por este motivo, esta es una técnica que bordea los limites de lo permitido por los buscadores, ya que para evitar el SPAM y el keyword stuffing Google no permite usar texto oculto y esto puede ser penalizado.

En el siguiente vídeo de Google Wemaster Central, finalmente se ha aclarado un poco este tema

En resumen se puede mencionar que Google no penaliza este tipo de técnicas si los botones o enlaces que contienen estos textos ocultos no son invisibles o muy pequeños para no ser vistos por el visitante.

También el tamaño de estos textos es muy importante: Si estos textos desplegables son muy largos, pueden ser considerados SPAM y corren el riesgo de ser penalizados.

Así pues, Google ya tolera oficialmente estos textos desplegables pero siempre se los debe usar con mucha  prudencia…

Sobre cómo están ordenados los resultados de la función site: en Google

Hace varios años atrás la función site: del buscador de Google era una buena fuente de información para conocer el numero de páginas indexadas de un sitio web. Analizando estos resultados, también se podía averiguar si un sitio web había sido penalizado o no.

En el transcurso del tiempo y debido a los grandes cambios de los algoritmos de Google, la función site: mostraba al último resultados aproximados, pero nada fiables. Por este motivo los SEOs y webamasters ya no dan mucha importancia a estos resultados. En su remplazo, por ejemplo ahora usan los valores de Google Webmaster Tools.

Pero a mediados de Noviembre 2010 sucedió lo inesperado: La función site: comenzó nuevamente a mostrar un numero de páginas indexadas que se aproxima bastante a la realidad. Posiblemente algunos ingenieros de Google se han dignado a actualizar esta función y adaptarla a la nueva infraestructura Caffeine. Así pues, site: es nuevamente una función interesante de la que se puede obtener informaciones para analizar el estado de salud de un sitio web.

Y justamente en la nueva serie de vídeos de Google Webmaster Central, Matt responde a la pregunta de cómo están ordenados los resultados que aparecen en el comando site:

Según Matt se trata de un orden con diferentes parámetros: Él menciona que es un poco de PageRank, también dice que las URLs más cortas aparecen en las primeras posiciones, y también aquellas páginas que se encuentran cerca de la página principal…

Primera actualización del PageRank visible en 2011

Pagerank de Google

Aunque el PageRank, según Google y muchos SEOs, ya no tiene ninguna importancia para el posicionamiento en el buscador, la actualización de los valores de la barrita verde en el toolbar de Google continua siendo un tema de discusión entre los SEOs.

Muchos foros y blogs informan que ayer, es decir el 20.01.2011 se ha realizado una actualización del PageRank visible. También se pueden seguir los comentarios sobre esta nueva actualización del PR en Twitter.

En el último tiempo se han reportado  mini actualizaciones o de cambios del PageRank en páginas especificas. Pero  según mis estadísticas, está es la primera actualización global desde la actualización de Julio 2010, es decir recién después de unos 6 meses.

Esto significaría que Google ha cambiado la frecuencia de sus actualizaciones. Oficialmente se había informado que estas actualizaciones se realizarían cada 3 meses. Pero, después de la puesta en marcha de la nueva estructura Caffeina, el año pasado, se han visto con frecuencia esas mini-actualizaciones y solo estas ultimas 2 actualizaciones globales.

Y cómo ya lo había mencionado anteriormente en varias ocasiones, Google está tratando de restarle valor al único parámetro de su algortimo que nos muestra para evitar que los webmasters y SEOs vendan enlaces o hagan otro tipo de negocios con sitios webs usando su buen PageRank.

A pesar de esto, el PageRank continua siendo un parámetro que rápidamente permite valorar una página web: Popularidad, frecuencia de rastreo del Googleboot, cantidad de enlaces entrantes con valor especifico, valoración según Google de la página, etc.

Finalmente, hasta que aparezca un nuevo parámetro y que sea reconocido por todos para poder valorar una página web, como lo podría ser por ejemplo Domain Rank de SEOmoz, vamos a tener que continuar usando el PageRank de Google.

Actualización
Otro punto que me olvidaba mencionar es que anteriormente el PageRank se distribuía según las formulas del PR en todas las páginas interiores de un sitio web. Ahora, solamente la página principal tiene un PR más o menos confiable, mientras muchas veces las páginas interiores ya no tiene PR o solo muestran 0.

GTech Network Tools – Más de 10.000 descargas desde el Android Market

El primero de Diciembre del año pasado, comencé una nueva área de investigaciones publicando mi primera aplicación para móviles, GTech Network Tools.

La meta es analizar el mundo de las aplicaciones para móviles que ya ha despegado el año pasado y que este 2011 se perfila como una de las áreas con más crecimiento debido a los nuevos sistemas operativos táctiles cómo IOS de Apple o Android de Google así cómo también por las Tablets (o tabletas cómo se las está denominando en español).

Después de poco más de un mes desde el lanzamiento de GTech Network Tools ya puedo comenzar a analizar los primeros resultados de este nuevo experimento.

Estadísticas del Android Market
Lamentablemente las estadísticas que presenta el Android Markt en el panel de control para desarrolladores no es bueno, ya que solo muestra algunos parámetros, cómo se puede apreciar en la siguiente imagen

Android Market Stats

Debido a que los datos sobre la app se muestran solo en forma acumulativa, es necesario realizar lecturas diarias y guardarlas para obtener más información sobre las tendencias de las descargas. Aquí algunos resultados:

Para las primeras 5.000 descargas se necesitaron 21 días con un promedio de 234 descargas diarias. Para las primeras 10.000 descargas se necesitaron 34 días con un promedio de 296 descargas diarias.

Analizando estas tendencias, para llegar a las 50.000 descargas (el siguiente hito que aparece en el Android Market) voy a necesitar 169 días, es decir más de 5 meses, asumiendo un promedio diario actual de 295 descargas.

El numero diario de descargas actualmente es casi constante lo que implica que no se ha logrado todavía ese efecto viral generando descargas casi en forma exponencial como ocurre en las aplicaciones mas populares.

Esto se debe principalmente a que GTech Net Tools es una app de tipo vertical, solo interesante para un pequeño grupo de usuarios, y no para la grandes masas. De todas maneras, comparando con apps similares, estos resultados son muy alentadores.

Generación de descargas
La generación de las descargas está a cargo del propio Android Market en su versión web que no es nada buena, y su versión móvil que se encuentra instalada en la mayoría de los dispositivos Android. Aquí también cuentan los diferentes servicios en Internet cómo AppBrain, AndroidLib y muchos otros que simplemente copian la base de datos del Market y presentan todas las apps en diferentes formatos con mayor o menor éxito.

Pero bueno, si se desea incrementar el numero de descargas esto no es suficiente ya que una aplicación de este tipo no es muy fácil de encontrar en el Market o en los otros servicios. Por eso es necesario realizar diferentes campañas que ya son conocidas en el mundo del Marketing por Internet.

Para popularizar mi primera aplicación para Android está vez he comenzado con una campaña bastante defensiva y tradicional. No he usado ninguna campaña viral y tampoco he usado «herramientas sociales» cómo Twitter o Facebook.

Me he enfocado en 3 áreas:

1) Posicionamiento en buscadores
Es el método que mejor conozco y que en proyectos tradicionales web, generan los mejores resultados. Después de un mes, las páginas de aterrizaje para la aplicación se encuentran para varias búsquedas con las palabras android y network tools en el top 10 de los resultados de Google.

Lo interesante de este caso es que las landing pages no han generado muchas visitas desde el buscador (ver más abajo). Y bueno, esto se debe a que generalmente los usuarios buscan las apps directamente en el Market y en los otros servicios para Android pero NO en un buscador general.

2) Publicaciones en blogs temáticos
La publicación de notas de prensa como por ejemplo en and.droid.es,   Notas Online y otros.  Estas publicaciones han generado visitas pero tampoco son el grueso del volumen total de las visitas a las páginas de aterrizaje. Todavía no  tengo muy claro el motivo de estos bajos resultados, pero posiblemente se debe a que los blogs en que se han publicado artículos sobre GTech Net Tools no son muy populares entre los usuarios de Android.

3) Publicidad Online
He usado este método en dos categorías:

a) Anuncios publicitarios en mi red de webs: Estos anuncios fueron colocados en posiciones estratégicas de las páginas principales, en proyectos con temas afines y en los idiomas que soporta la aplicación.

b) Publicidad de pago: Después de analizar un poco el universo de usuarios que pudieran tener interés en una app de este tipo, está vez decidí colocar solamente publicidad en Facebook.

Google conoce bastante bien a sus usuarios y también las páginas webs donde se muestran los anuncios contextuales, pero no tan bien como es necesario en el caso de una aplicación de este tipo para un dispositivo tan especifico. Y justamente esta es la gran ventaja de Facebook: Ellos conocen exactamente el perfil de cada usuario: Su edad, su genero, sus intereses (si son por ejemplo culinarios, sociales, tecnológicos, etc.) y mucho más. Por eso, los anuncios puede ser muy bien segmentados y dirigidos exactamente al publico deseado.

Por ejemplo, inicialmente había colocado como posibles interesados tanto a mujeres como hombres, pero luego de unos días lo cambie solo a hombres. Y como arte magia, al día siguiente el CTR se incremento considerablemente. Y bueno, esto es lógico: Los hombres son los que más se interesan por este tipo de aplicaciones.

Y justamente los anuncios de Facebook ha sido una de las fuentes que más visitas ha generado hacia la pagina de aterrizaje, demostrando así que para este tipo de productos que son muy específicos, es necesario una buena segmentación de los usuarios a los que se les muestra los anuncios.

Análisis de los resultados de las campañas
El mayor problema en este experimento es que desde los datos que muestra Android Market, es imposible conocer la fuente que ha generado la descarga, es decir la conversión.

La única forma de medir y analizar – por el momento – los efectos de las campañas realizadas, es usar las métricas que se pueden obtener de las páginas de aterrizaje que contienen toda la información sobre GTech Net Tools y que finalmente conducen por ejemplo mediante el barra de código QR a la descarga de la aplicación en el móvil.

Aquí un diagrama con las visitas a la landing page, según Google Analytics:

Estadísticas de las descargas de GTech Net Tools

Como se puede apreciar en este diagrama, el numero de visitas entre el 2 y el 19 de Diciembre es elevado, y este es justamente el periodo durante el cual los anuncios de Facebook estaban activos. Luego, se observa un numero constante de visitantes lo cual refleja en un buen porcentaje el numero constante de descargas diarias.

Finalmente, la siguiente tabla muestra el porcentaje de las fuentes de las visitas a la página de aterrizaje

Red de sitios 50,22%
Anuncios Facebook 45,72%
Notas de prensa 2,07%
Buscadores 1,90%
Twitter 0,09%

Primeras conclusiones
Después del primer mes de este nuevo experimento en el área de las aplicaciones móviles queda bien claro qué aquí no se pueden usar los métodos tradicionales del Maketing en Internet. Su principal herramienta, el SEO, aquí no tiene mucha efectividad ya que como he podido comprobar, las aplicaciones para móviles no se las busca en los motores de búsqueda tradicionales, sino más bien en los servicios especializados.

Por este motivo hay que usar otras estrategias para generar las descargas deseadas. Y aunque en este caso en especial, no he usado Twitter como herramienta para generar conversiones, me parece que puede ser bastante efectiva.

Solamente la publicidad en sitios webs con temas afines al producto, y los anuncios pagos, Facebook en este caso, han mostrado ser efectivos.

Los siguientes pasos
Después de que ya la tengo mucho más claro de cuales pueden ser las mejores fuentes para generar un mayor numero de descargas, me voy a concentrar en estas.

Otro tema que también queda por investigar, es cómo generar descargas en forma exponencial para así acortar el tiempo hacia el siguiente hito: 50.000 descargas.

Y bueno, finalmente comenzar a monetizar este pequeño proyecto: Como siguiente paso, tengo planificado la actualización de GTech Net Tools corrigiendo los 2 errores reportados por el Market, adicionar nuevas funciones e introducir en la aplicación anuncios de adMob, que ahora ya es de Google, para poder analizar cuales pueden ser los ingresos que se pueden generar con este tipo de aplicaciones móviles.

Cómo evitar contenido duplicado entre una web y su versión móvil

Cómo ya es conocido, cuando los algoritmos de Google encuentran el mismo contenido en varias páginas, tratan de encontrar el original qué es indexado en la «posición correcta» – según el algoritmo – y las otras páginas son penalizadas y por eso aparecen mucho más abajo en el indice.

Pero ahora con el boom de los smartphones y el Internet móvil, muchos sitios webs tienes 2 versiones de su contenido: La versión principal y la versión móvil.

Ahora bien, cómo maneja Google esta situación? Justamente esa es la pregunta que hace Biznick en Google Webmaster, y la respuesta la presenta Matt Cutts en el siguiente vídeo

Y además se hace una referencia a la siguiente nota:  ayuda a Google a indexar tu sitio wéb para móviles (en ingles).

En resumen, Matt menciona que cuando el Googlebot normal visita tu web, se debe presentar los resultados normales. Pero cuando aparece el Googleboot para el buscador móvil, se le debe presentar la versión móvil. Es decir una especie de cloaking.

Otra forma de evitar la indexación de contenido duplicado es colocar la versión móvil del sitio web, en un subdominio, como por ejemplo m.mi-sitio.com.

La respuesta en el vídeo no es muy clara por lo que quedan muchas dudas al respecto.

Actualmente existen 2 tipos de móviles: los antiguos que tienen browsers sencillos y un poco primitivos que no permiten navegar cómodamente por un sitio normal. Por este motivo, es mejor presentar a estos móviles una versión mucho más simple del sitio web.

Por el otro lado están los smarphones o móviles nuevos como el iPhone y los Android. Sus browsers permiten navegar por casi cualquier página normal sin ninguna dificultad y ya no es necesario la presentación de una página especial. Aunque siempre es recomendable tener una versión móvil para que el contenido pueda ser visualizado con mucha más facilidad.

La mejor posibilidad de tener las dos versiones (principal y móvil) es el uso de plantillas o templates (CSS/HTML) para cada una de las versiones, de modo que dependiendo del useragent del requerimiento HTTP del browser, se pueda devolver una de las 2 versiones aunque se trate de la misma URL.

Pero OJO: Esto podría ser visto por Google como cloaking. Es decir el servidor web devuelve diferentes resultados a diferentes requerimientos. Aunque parece que Google en esta situación no lo está considerando como cloacking.

Resumiendo: Para evitar la indexación de contenido duplicado de un sitio web con 2 versiones, se debe proceder de la siguiente manera:

1. Devolver a los diferentes Googlebots la versión correspondiente.

2. Usar subdominios, como por ejemplo m. para la versión móvil o usar plantillas (CSS/HTML) para cada versión.

Seguramente todavía habrán bastantes novedades en este año en lo que se refiere a este tema.