Archivo de la categoría: Know How

Cómo indexar tu contenido geográfico en Google

Hace un tiempo atrás mencionaba que Google Maps ya está indexando y mostrando contenidos en formato KML. En los comentarios surgió la pregunta de cómo conseguir que Google indexe este tipo de archivos y los muestre como resultados de búsquedas en Google Maps.

En esta entrada quiero describir con más detalle el procedimiento que se debe seguir para lograr exitosamente una geo-indexación. Los métodos que se deben usar para la geo-indexación se basan en el SEO clásico.

1. Geo-Indexación
Como ya es conocido, Google cada vez está presentando más resultados con mapas que muestran por ejemplo localizaciones de empresas, hoteles, restaurantes y otros tipos de lugares de interés.

Este fenómeno se puede observar sobre todo si se realizan búsquedas relacionadas a ciudades. Por ejemplo la simple búsqueda del nombre de casi cualquier ciudad del mundo, da como resultado en la primera posición un mapa de la ciudad y el enlace respectivo hacia Google Maps.

Si se realiza una búsqueda del tipo tema ciudad, donde tema puede por ejemplo ser hoteles, restaurantes, parques, farmacias, cines, teatros, etc. para ciudades en los Estados Unidos o Europa, el primer resultado es casi siempre un mapa de Google Maps, con diez resultados directos, y enlaces a Maps.

En América Latina, este tipo de resultados solamente se los puede observar para búsquedas de ciudades en Brasil, ya que Google actualmente solamente soporta la función Geocoding para Brasil.

Si un usuario hace click en uno de los enlaces hacia Google Maps, obtiene el mapa de la ciudad y las marcas de los llamados negocios locales. Pero al final de esta lista aparece el texto Contenido creado por los usuarios marcado con una etiqueta ¡Nuevo! como se puede ver en la siguiente imagen

Este resultado por ejemplo, fue obtenido desde el buscador de Google para la búsqueda gaudí barcelona.

Y justamente el contenido creado por los usuarios es el que se puede hacer geo-indexar.

Si en el ejemplo mencionado se entra a observar el contenido generado por los usuarios se encontrarán marcadores por ejemplo de Flickr, Panoramio, pero también de otras webs como se puede ver en la siguiente imagen

Esta empresa especializada ha logrado posicionar en el top 10 de los resultados de Google Maps, su archivo KML con 343 marcadores para la búsqueda gaudí barcelona.

Así pues, mediante el uso de archivos KML si es posible aparecer en los resultados de Google Maps para búsquedas especificas.

Ahora, solamente se debe tratar de hacer indexar los archivos KML y lograr que se posicionen en el top 10 de los resultados de Google Maps.

Para esto es necesario usar algunos métodos ya conocidos para en el posicionamiento de páginas web en general y aplicarlos a los archivos KML.

2. Generación de archivos KML
La indexación de un archivo KML es similar al de una página web. El bot de Google, conocido como googlebot, debe primero encontrar el archivo, leerlo, y almacenarlo en el sistema de cache de Google para que luego los algoritmos del buscador lo puedan analizar, valorar e indexarlo en Google Maps.

Este análisis se realiza sobre el texto plano (plain text) del archivo, sin considerar las etiquetas en XML del formato KML, de forma similar a lo que sucede con un archivo en HTML.

2.1 Densidad de palabras claves
Es muy importante analizar cuidadosamente el contenido de los títulos y descripciones de las marcas o items que componen cada archivo KML.

Se debe alcanzar una buena densidad para las palabras claves para las cuales se desea realizar el posicionamiento.

En el caso de que el archivo contenga marcas sobre temas muy variados, se debe separarlas en archivos diferentes, clasificadas por categorías para que la densidad de las palabras claves aumente en cada archivo.

2.2 Nombre de los archivos KML
En forma análoga a lo que sucede con la URL de una página web, aquí también se deben usar para los nombres de los archivos KML, las palabras claves que se desean posicionar, separándolas como ya es conocido mediante ‘-‘.

3. Posibles formas de geo-indexación
Después de que se han generado los archivos KML, ya sea en forma manual o automática, la tarea siguiente es lograr que el googebot los pueda encontrar. Aquí también valen los principios ya conocidos del SEO clásico.

Existen varias formas para lograr que los bots del buscador ‘descubran’ los archivos KML. Las tres formas que presento a continuación se las puede usar separadamente, pero como siempre, es mejor usar las 3 al mismo tiempo.

3.1 Enlaces a los archivos KML
En la página web que tiene o usa la información geo-localizada, se deben colocar enlaces a los archivos KML. Una posibilidad es crear una página especial por ejemplo para los usuarios de Google Earth para que pueden ver estos contenidos directamente mediantes este programa.

Es importante colocar enlaces a esta página índice de archivos KML, desde la página inicial y si es posible en todas las páginas internas para que así el googlebot comprenda la importancia de los archivos KML.

Yo no aconsejaría colocar enlaces a los archivos KML, como si fueran páginas internas de la web, ya que los visitantes solo verán los datos en formato XML.

3.2 Alimentar directamente a Google Maps con archivos KML
Otra muy buena posibilidad de mostrar al googlebot la existencia e importancia de los archivos KML, es alimentándolos directamente en Google Maps.

Esta alternativa es más interesante para los visitantes de la web, ya que pueden visualizar la información geo-localizada directamente en los mapas de Google Maps.

La forma de incluir estos enlaces es muy sencilla. Solamente se deben colocar enlaces con el siguiente formato:

http://www.google.es/maps?&q=url-del-archivo-kml

Este tipo de enlaces permite abrir una nueva página en Google Maps que automáticamente carga el contenido del archivo KML y lo visualiza en el mapa.

Esta es una manera sencilla y elegante de mostrar información geo-localizada sin la necesidad de embutir los mapas de Google Maps en las páginas de la web.

3.3 Usar Geo Sitemaps
El último método para presentar los archivos KML al googlebot, es el uso de Sitemaps. Desde finales de Mayo ya es posible crear sitemaps especiales para archivos en KML, los llamados Geo Sitemaps.

En el blog de Google Code se pueden leer más informaciones sobre los Geo Sitemaps, especialmente el formato. La creación de un Geo Sitemap es muy sencillo, y tiene la siguiente estructura en XML

<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9"
        xmlns:geo="http://www.google.com/geo/schemas/sitemap/1.0">
<url>
   <loc>http://www.mi-dominio.com/archivo.kml</loc>
   <geo:geo>
       <geo:format>kml</geo:format>
   </geo:geo>
</url>
<url>
   <loc>http://www.mi-dominio.com/archivo-georss.xml</loc>
   <geo:geo>
       <geo:format>georss</geo:format>
   </geo:geo>
</url>

</urlset>

Si se usan los Geo Sitemaps, no se debe olvidar de inscribirlos en Google Webmaster y/o colocarlos en el archivo robots.txt de la web, siguiendo las reglas para el uso de Sitemaps en robots.txt.

4. Conclusiones
Hay que tener muy en claro que la indexación de contenidos geo-localizados es una forma más de generar tráfico hacia una web y no se debe apostar solamente a este tipo de indexación.

También se debe tener en cuenta que la geo-indexación no es aplicable a cualquier proyecto web, pero para las webs que usan mucha información localizada puede ser una interesante posibilidad para posicionarse en los resultados de Google Maps y así ganar popularidad y también generar tráfico adicional.

Debido a que esta nueva forma de indexación recién está comenzando, es muy difícil predecir los resultados finales. Se puede observar que Google está experimentando diferentes formas de presentar los resultados geo-indexados, pero todavía está bastante inseguro, ya que es una nueva forma de generar SPAM y parece que están tratando de evitar que los spammers la descubran y la puedan explotar.

Finalmente, como en toda tarea de posicionamiento, se debe tener mucha paciencia para obtener algún resultado. Por lo que he podido observar, la indexación de contenidos geo-localizados mediante archivos KML es muy pero muy lenta, y durá por lo menos varios meses…

De todas maneras el uso de archivos KML en una web puede ser de mucha utilidad para sus usuarios y si adicionalmente aparecen como resultados en Google Maps es un enriquecimiento para el proyecto.

Algunos consejos interesantes de Google Webmaster Central

A pesar de que la conferencia PubCon se realizo a finales del año pasado, Michael Wyszomierski, del equipo de Search Quality de Google recíen ha publicado una nota con algunas interesantes respuestas de una sesión de Q&A en la menciona conferencia. Aquí puedes leer el artículo completo.

Varias cosas ya son bien conocidas, pero otras me han llamado la atención. Esas respuestas interesantes las resumo aquí:

Diferencias entre barras ‘-‘ y barras bajas ‘_’ en una URL?
Google valora las barras ‘-‘ como separadores de palabras, mientras que a las barras bajas ‘_’ no. Pero considerando las mejoras que Google constantemente va incluyendo en su buscador, no sería imposible que en un futuro próximo URL como blogposicionamiento.html puedan ser valoradas como «blog posicionamiento».

También se menciona que no hay la necesidad de modificar en URLs existentes las barras bajas ‘_’ con las barras ‘-‘ separadoras.

En esta respuesta no se hace ninguna mención sobre la noticia que curso entre SEOs hace algún tiempo que decía que las ‘_’ también serián valoradas como ‘-‘.

Palabras clave en las URLs
Cómo siempre las respuestas de Google son bastante difusas, pero creo que se puede extraer lo siguiente: Si, es recomendable colocar las palabras claves en las URLs. Esto ayuda a los motores de búsqueda, así como también a los usuarios que al ver la URL ya se pueden dar una idea sobre el contenido. Por ejemplo, si la página contiene datos sobre un gato, entonces si por ejemplo la URL es mi-gato-negro.html, el usuario y el motor de búsqueda saben exactamente cual es el contenido de la página.

También se recomienda el uso del tag ALT en las imágenes así como también de usar palabras claves en los archivos de las mismas. Esto ayuda mucho a los buscadores.

Cómo cambiar de dirección IP
El artículo presenta una lista de pasos a seguir para cambiar la IP de una web y así evitar probelmas con los buscadores:

1. Cambiar el TTL (Time To Live) del servidor de DNS a unos cuantos minutos (por ejemplo 5 minutos, es decir 300 segundos). Esto informa a los browsers de controlar la dirección IP de la página cada 5 minutos.

2. Copiar el contenido al nuevo hosting y tester su funcionamiento con la nueva dirección IP.

3. Cambiar la configuración del servidor DNS, apuntando a la nueva dirección IP.

4. Comprobar, en los logs del hosting nuevo, cuando el googlebot comienza a escanear la web nuevamente. Aquí instrucciones de cómo hacerlo. también se puede controlar en Google Webmaster Tools si existen errores en el rastreo o escaneo de la web.

5. Informar sobre el cambio y monitorear el estado de la nueva dirección IP para evitar posibles problemas.

A proposito de este tema, hace ya algún tiempo, publique la nota Cómo realizar correctamente un cambio de hosting?.

Guia de diseño para la web 2.0

Leo en Online un post con un interesante enlace a un artículo de Web design from de scratch, que presenta una guía para diseñar una web en el estilo 2.0.

El artículo menciona los siguientes aspectos:

1. Simplicity
2. Central layout
3. Fewer columns
4. Separate top section
5. Solid areas of screen real-estate
6. Simple nav
7. Bold logos
8. Bigger text
9. Bold text introductions
10. Strong colours
11. Rich surfaces
12. Gradients
13. Reflections
14. Cute icons
15. Star flashes

Creo que para todos los que están interesados en actualizar sus proyectos al estilo web 2.0 o quieren comenzar nuevos proyectos, este artículo les va ha ser de mucha ayuda.

Cómo instalar Apache, MySQL y PHP en Windows Vista

Después de varios días de intentos finalmente he logrado instalar Apache, MySQL y PHP en una máquina con Windows Vista.

Este tema lo hemos tratado en un hilo de los foros de Xeoweb, y también ha sido comentado por Roberto Herrero.

El Problema
Ya he instalado varias veces Apache, MySQL y PHP en diferentes sistemas operativos como por ejemplo Linux, Windows 2000 o Windows XP. La instalación generalmente la realizo desde cada una de las distribuciones originales, ya que los paquetes integrados como XAMPP instalan muchas otras aplicaciones más y nunca sé sabe exactamente lo que hacen.

La instalación de cada uno de los paquetes se realiza en el siguiente orden:

1. El Servidor web, es decir Apache en la versión actual 2.2.6, descargando los instaladores desde aquí. Después de la instalación de Apache, se debe parametrizar el archivo http.conf, que se encuentra generalmente en la carpeta C:\My Programs\Apache Group\Apache2\conf.

2. La base de datos MySQL, todavía en la versión 4.1, descargando los instaladores desde la esta página. La instalación es sencilla, y aquí, generalmente ni siquiera es necesario configurar el archivo my.ini en la carpeta C:\Program Files\MySQL\MySQL Server 4.1. Solamente, si por ejemplo se necesita guardar los datos de las bases de datos en una carpeta especifica para realizar backups o syncronizaciones con otras máquinas, se debe editar la variable datadir.

3. PHP todavía en la versión 4.4.7, desde esta página. Pero debido a que esta distribución de PHP no contiene un instalador para Windows, se puede usar este instalador. La parte que generalmente es un poco más compleja es la integración de PHP con Apache, pero generalmente funciona sin problemas.

Las instrucciones para configurar cada uno de los paquetes, se las encuentra por ejemplo en este tutorial. Luego de haber realizado los 3 pasos anteriores todo funcionaba correctamente, pero la carga de las extensiones de PHP en DLLs no se podía cargar, a pesar de que todas las rutas estaban correctas. El error que aparecía era el siguiente:

PHP Warning: Unknown(): Unable to load dynamic library ‘C:\Program Files\php4\extensions\php_xslt.dll’ – The specified module could not be found.

Soluciones

1. XAMPP
la instalación de este paquete integrado me fue recomendado en el foro de Xeoweb, y efectivamente logre solucionar mi problema. Se debe evitar instalar xampp en la carpeta por defecto, por ejemplo Program Files, debido a que Windows Vista controla esta carpeta mediante el UAC o User Account Control para evitar accesos extraños como spyvware, virus, etc.

Pero como ya lo mencione anteriormente, esta instalación realiza un montón de cosas extrañas, como por ejemplo copiar las DLLs de PHP y el archivo de configuración php.ini en las carpetas de Apache, lo que en realidad no es correcto ya que cada programa debería usar su espacio determinado.

2. Microsoft Virtual PC 2007
Microsoft Virtual PC 2007 (ver demo) es una herramienta que Microsoft distribuye gratuitamente justamente para ayudar a solucionar los problemas actuales con Windows Vista. Mediante Virtual PC 2007 se pueden crear en una computadora una serie de máquinas virtuales.

En el caso que no se desee o no se pueda hacer un downgrade a Windows XP debido a los múltiples problemas con Vista, se puede instalar una máquina virtual, por ejemplo con Windows XP o W2K y correr ahí los programas problemáticos. Microsoft Virtual PC 2007 tiene la posibilidad de compartir los archivos de la máquina host con la máquina virtual.

En el presente caso, se puede instalar fácilmente en la máquina virtual un servidor web con Apache y PHP. Mediante el uso común de los archivos, el desarrollo de las páginas web se puede realizar fácilmente desde Windows Vista.

Bueno, por el momento con estas 2 soluciones he logrado finalmente correr mis proyectos web en forma local en Windows Vista, pero siempre queda el sabor amargo y el tiempo perdido…

Cheklist de seguridad para webmasters

Hace algunos años los hackers se dedicaban a desfigurar (conocido en ingles como defacement) páginas web substituyendo generalmente la página inicial con otra como prueba del ataque.

Esta forma de ataque a los servidores web era visto solamente como un deporte y mostraba la vulnerabilidad del servidor. Con el paso del tiempo, los hackers se han dado cuenta de que colocar sus páginas y nicks en servidores ajenos no es muy interesante y tampoco rentable.

Por este motivo, en el último tiempo cuando encuentran una vulnerabilidad en un servidor web no lo comunican a todo el mundo, sino más bien lo mantienen en secreto para poder usar estos servidores para sus fines. Son los llamados servidores zombies. Desde estos servidores se pueden por ejemplo enviar emails masivos con SPAM o usarlos como base para otros ataques.

Lo peor de esta situación es que el webmaster ni se entera de que su servidor esta siendo usado por terceros en acciones dudosas.

Por eso, como webmaster, es muy importante controlar los logs continuamente y a la más minima sospecha de uso fraudulento, se debe revisar el servidor y cambiar las contraseñas de acceso.

Justamente hoy día se ha publicado en el blog de Webmaster central una interesante nota con una lista de control de seguridad para webmasters.

Os recomiendo leerla ya que contiene información interesante sobre seguridad de servidores. También veo que Google ha creado un blog de seguridad en Internet.

Como entrenar a un nuevo SEO

El conocimiento de un SEO no se lo puede obtener simplemente leyendo un libro o algunos artículos sobre el tema en Internet.

El posicionamiento en motores de búsqueda no es una ciencia extracta ya que sus efectos no son reproducibles. Tampoco las técnicas SEO son validas por siempre. Como es conocido, los algoritmos de los motores de búsqueda se van modificando constantemente, lo que lleva a que un especialista en posicionamiento siempre tenga que estar experimentando y aprendiendo.

Por este motivo, el entrenamiento de un nuevo SEO, por ejemplo en una empresa especializada al posicionamiento de webs en motores de búsqueda puede ser una tarea bastante difícil y costosa.

Eric Enge de SearchEngineWath ha presentado una nota interesante sobre este tema, en la cuál da algunas pautas de como entrenar a un SEO.

  • Un buen SEO debe tener buenas habilidades en el negocio del marketing así como también habilidades técnicas. SEO implica tener una comprensión de los detalles técnicos del manejo de una web, pero es también una actividad de marketing. SEOs de calidad saben que ellos son solamente un componente del marketing de una web, saben que de vez en cuando y debido a otros aspectos de las necesidades del cliente se debe llegar a compromisos.
  • Cerciorarte de que tu SEO en el entrenamiento tenga una personalidad emprendedora. SEOs deben ocuparse de una variedad amplia de problemas, y necesitan ser flexibles y adaptables.
  • Escoge inicialmente solo un área de trabajo. Hay centenares de cosas que aprender en el campo SEO. No trates de enseñarle todo. Déjalo enfocarse y dominar un área específica.
  • Comienza lentamente. No le des 5 clientes a la vez. Comienza con un solo cliente y ayúdalo a obtener buenos resultados con este cliente.
  • Procura que la carga de trabajo con este primer cliente aumente paulatinamente. Entrenar a nuevos SEOs es un trabajo duro y adicionalmente te debes asegurar que el trabajo para el cliente se haga correctamente. Esta es la primera prioridad. Adicionalmente al trabajo normal tendrás que usar mucho tiempo en el entrenamiento de tu SEO. Posiblemente, y después de un tercer cliente recién puedas obtener algún beneficio efectivo del trabajo del aprendiz.
  • Haz que todo el trabajo de tus primeros 2 o 3 clientes pase a través de ti. El cliente viene primero. Esto también te dará una mejor visión de lo que tu SEO ha aprendido y todavía le falta aprender.
  • Sé paciente. Es fácil desconocer la complejidad de SEO. No existen temas complejos. Lo que hace difícil es que los algoritmos de los motores de búsqueda son secretos y que se van desarrollando constantemente.
  • Finalmente, la misión principal es aumentar el tráfico del sitio para tu cliente, y para eso actualmente existen muchas posibilidades, como por ejemplo las redes sociales, y otros tipos de web marketing.

Como ahorrar volumen de transferencia en tu servidor web

Como ya es bien conocido, la mayoría de los servicios de webhosting limita el volumen de la transferencia de datos entre el servidor y los clientes en forma mensual. Este limite de transferencia depende de los paquetes que ofrecen y puede variar entre 1GByte y unos 15-20GByte por mes.

Si se ha contratado un paquete económico con volumen de tráfico limitado, entonces uno comienza a preocuparse cuando el tráfico en la web se incrementa considerablemente.

Este tráfico no solamente es generado por los visitantes de la web, sino también por los bots o robots de los diferentes motores de búsqueda y otros servicios que escanean la web.

Por ese motivo, y pensando en los webmasters Google hace poco mas de un año ha centralizado todos sus servicios de bots, como ser el googlebot, bot de imágenes, AdSense, news, etc. y ha creado en un cache centralizado de paginas web que puede ser usado por todos sus servicios. Solamente, en caso de que la página en el cache ya sea antigua o todavía no haya sido registrada salen los bots del servicio especifico a visitar la página requerida. De esta manera Google ha contribuido a disminuir el volumen de transferencia generado por los bots.

Pero a pesar de esto, muchas veces es necesario disminuir el volumen de transferencia de la web.

Ahora te presento una serie de procedimientos que te pueden ayudar:

1. Análisis
La meta principal para disminuir el volumen de transferencia es la reducción del tamaño de las páginas de la web. Aquí se debe considerar tanto el código HTML así como imágenes y otros componentes de multimedia.

Seleccionar las páginas que más trafico generan
No es necesario disminuir el tamaño de todas las páginas de una web, sino más bien solamente de las páginas que generan más trafico. Generalmente estas páginas hacen un 80% a 90% del tráfico total.

Para encontrar estas páginas, solamente se debe analizar los logs del servidor web u otras herramientas como Google Analytics.

Analizar los componentes de la página
Después de haber detectado y seleccionado las páginas con más tráfico, se debe analizar su tamaño, y el tipo de componentes que contienen.

Para esto, existen en Internet muchas herramientas que te pueden ayudar, como por ejemplo Web Optimization.

Esta herramienta muestra todos los tipos de objetos de la página, así como también sus tamaños, y los tiempos de descargas para diferentes velocidades de acceso, como se puede apreciar en la siguiente imagen:

Resultados del análisis de una página web

2. Optimización del tamaño de la página
Con el reporte anteriormente mencionado se puede comenzar a optimizar el tamaño de las páginas seleccionadas.

Imágenes
Una de las grandes sorpresas de este reporte, es que las imágenes hacen el grueso del tamaño de las páginas. Aquí, nuevamente, uno debe concentrar la atención solamente en las imágenes más pesadas.

Estas deben ser optimizadas con herramientas gráficas y/o modificando sus formatos. También se debe analizar la posibilidad de suprimir imagenes o por ejemplo remplazarlas con objetos css o atributos de color en HTML .

Código HTML
A pesar de que el código HTML generalmente es mucho más pequeño que las imágenes y objetos multimedia, es muy importante generar un archivo de HTML compacto por los siguientes motivos:

  • Descarga y rendering rápidos Si el código HTML es pequeño, la página puede ser descargada y visualizada rápidamente por los navegadores. Luego, las imágenes y los otros componentes se van descargando poco a poco. Este efecto causa en el usuario la impresión de que la web es rápida y lo anima a continuar navegando.
  • Reduce el volumen de transferencia de los bots Generalmente los robots de los buscadores se interesan solamente por el texto de la página y por eso solo leen el código HTML. Si este código es pequeño, el volumen de transferencia usado por los robots puede disminuir considerablemente. En muchos casos, esto también podría mejorar la frecuencia de las visitas de los bots.

El tamaño del código HTML se puede optimizar de muchas maneras:

Generar código compacto
Se deben evitar en el código los espacios y los cambios de carril (carridge return) , se debe usar nombres cortos para los identificadores de las clases y otros objetos. Por ejemplo, en vez de usar un identificador como ClasseDeCabecera se podría usar la abreviación cdc. El mejor ejemplo para aprender como optimizar el código HTML es leer el código fuente de las páginas de Google.

También se debe evitar en lo posible colocar comentarios en el código. En varios casos, he comprado que quitando los comentarios de una página – por ejemplo mediante un pequeño script que lea el código HTML y quite todos los comentarios antes de enviaro al cliente – se puede ahorrar unos 2 a 3 KBytes por página.

Si se asume por ejemplo, que esa página es descargada 10.000 veces al día, entonces se puede lograr un ahorro de unos 29,29 Megabytes de tráfico por día.

Comprimir el código HTML
Si se usa PHP para generar las páginas web, existe la posibilidad de comprimir el código HTML y enviarlo así al cliente. Los navegadores o browsers de ultima generación reconocen este código comprimido y lo descomprimen para visualizarlo. Por ejemplo, si un archivo HTML tiene unos 50 KB en estado normal, su tamaño comprimido es de unos 7 a 8KBytes que son los que realmente se transmiten desde el servidor web hasta el cliente. Esto significa nuevamente un gran ahorro en el volumen de transferencia de los datos.

El código en PHP que se debe colocar al inicio de cada página es el siguiente:

// Set HTML Compression on
if (extension_loaded('zlib'))
{
$_zlib_included = strtolower(ini_get('zlib.output_compression'));
if (empty($_zlib_included) || $_zlib_included == 'off')
{
ini_set('zlib.output_compression_level', 7);
ob_start('ob_gzhandler');
}
}

En caso de que el servidor web tenga la extensión zlib habilitada, el código generado (output) es comprimido antes de ser enviado al cliente.

Un ejemplo claro del resultado que ha causado el uso de compresión en uno de mis proyectos se lo puede observar en la siguiente imagen:

Kilobytes descargados diariamente por del bot de Google

Después de que la compresión del código HTML fue habilitada, el volumen descargado diariamente por los bots de Google se ha reducido considerable, mientras que el número de páginas escaneadas no ha disminuido.

El otro efecto positivo de esta compresión ha sido que la carga del servidor ha disminuido considerablemente a pesar de que el numero de visitas no ha caido. Esto se debe a que que la cantidad de paquetes de datos transmitidos entre el servidor y el cliente ha disminuido también.

3. Conclusiones
Como se puede observar, el incremento del tráfico en una web, no necesariamente debe obligar a contratar un paquete con mas transferencia que siempre resulta ser más caro.

Lo que primero se debe hacer es analizar el origen del problema, y en caso de poder optimizar el tamaño de las páginas se lo debe realizar con todos los métodos explicados anteriormente.

La reducción del tamaño de las páginas tiene también otra ventaja adicional: El usuario percibe una mejor usabilidad lo que puede llevar a mejorar el tiempo de permanencia en la web y también a aumentar el numero de las visitas.

Como controlar los referer en Google Analytics

El referer o referencia es parte del protocolo HTTP y se encuentra en la cabecera de la operación GET que es enviada por los navegadores al servidor web para visualizar una página.

El siguiente ejemplo muestra la cabecera que ha sido enviada desde la raíz de mi blog para obtener la página de herramientas de mi web:

GET /lista-herramientas/ HTTP/1.1
Host: www.maxglaser.net
Referer: https://www.maxglaser.net/

O aquí un ejemplo desde el buscador de Google para acceder a mi blog:

GET www.maxglaser.net
Host: www.google.es
Referer: http://www.google.es/search?hl=es&q=max+glaser

Como se puede observar en los ejemplos, el referer muestra la URL y los parámetros que han originado el requerimiento de una página en el servidor web. Esta información es muy importante para analizar el origen de las visitas de una web, y en el caso de visitas generadas desde los buscadores ayudan a obtener las palabras claves con las que fue encontrada la página.

Los servidores web graban toda esta información en los logs y existen muchas herramientas que permiten analizar esta información. Google Analitycs también almacena toda esta información, pero como es bastante sofisticada, es bastante difícil de encontrar esta información en sus reportes.

Por este motivo se puede leer recurrentemente en muchos blogs y foros de que Analytics no muestra toda la información que se requiere para analizar el tráfico de una web.

Pero esto es incorrecto. Aquí les presento una pequeña guia de como aprovechar la información recolectada por Analytics para analizar en forma muy elegante el origen de las visitas a una página (los refereres) y también las palabras claves con las que la página fue encontrada en los buscadores.

1. Encontrar la función
Aunque yo uso la versión en ingles, el menu no es difícil de encontrar y se encuentra en la posición celeste (Referring Source) de la siguiente imagen:

Menu de los referers

Despues de elegir esta función se obtiene, por ejemplo el siguiente reporte:

gráfico del porcentaje de todos los referers del blog

Este grafico muestra los más importantes referers del blog. Es decir el origen de todas las visitas.

2. Análisis del origen exacto de las visitas
El anterior diagrama solo muestra el volumen de las visitas desde un dominio dado, pero muchas veces es interesante conocer la página exacta desde la que se han originado las visitas y también su numero.

Para esto, se debe elegir un dominio de la lista, abrir el menu y elegir la función content, de la opción Cross Segment Performance, como se muestra en la siguiente imagen:

Menu para analizar el origen exacto de las visitas

Como resultado se obtiene la lista completa de todas las páginas del dominio elegido que han generado las visitas. También se obtiene el numero de los visitantes que han venido desde estas URLs y el promedio de las páginas vistas por estos usuarios. Un ejemplo se puede observar en la siguiente imagen:

URLs que han generado visitas

3. Análisis de las palabras claves de los buscadores
Cuando las visitas provienen de los buscadores, es muy importante poder analizar las palabras claves mediante las cuales los visitantes han llegado hasta la página web. Google Analytics también tiene toda esta información.

Para esto, se debe elegir de la lista a los dominios de los buscadores y elegir la opción Keyword, como se muestra en la siguiente imagen:

Menu para analizar las palabras claves

Con la ayuda de esta función se obtiene la lista completa de todas de las palabras claves que se han buscado en los motores de búsqueda y que han generado las visitas, como se puede observar en la siguiente imagen:

Palabras claves que han generado visitas en el blog

Como se puede observar, Google Analytics es realmente una herramienta poderosa y muy sofisitacada para poder analizar el trafico de una web. El mayor problema de Google Analytics es que debido a la cantidad de funciones que contiene, muchas veces es muy difícil encontrar la función adecuada.

Como mejorar la velocidad de tu Firefox

Acabo de encontrar un pequeño truco para mejorar la velocidad de Firefox. Debes seguir los siguientes pasos:

  1. Arrancar el navegador Firefox
  2. En la caja de la URL ingresa about:config y teclea enter
  3. En la caja Filter: ingresa network.http
  4. Ahora busca el registro network.http.pipelining
  5. Haz clic doble en el registro para que se coloque en true
  6. En el siguiente registro network.http.pipelining.maxrequests aumenta el valor de 4 a 10
  7. Cierra todas las ventanas de Firefox
  8. Arranca nuevamente Firefox

Ahora la la velocidad de tu navegador Firefox debería aumentar en por lo menos el doble.

Cómo realizar correctamente un cambio de hosting?

Muchas veces se hace necesario cambiar de hosting por diferentes motivos: mejor precio, problemas de carga, servicio deficiente, cambio de geo posición, etc.

Para evitar largos periodos de baja de la página web (downtime), lo que puede causar perdidas de tráfico y de posicionamiento en los buscadores, así como también bajas en los ingresos que pueda generar la web, es necesario planificar cuidadosamente el cambio del hosting.

Los pasos que se deberían seguir para minimizar el tiempo de baja son los siguientes:

  1. Si es que el dominio esta administrado por el antiguo webhosting, primeramente se lo debe mover a un administrador de hostings como GoDaddy, Moniker, etc. manteniendo los DNS’s antiguos.
  2. Se debe crear en el nuevo hosting el dominio.
  3. Bajar todos los scripts del antiguo hosting al PC local mediante un programa de FTP, como por ejemplo SmartFTP y replicarlo en el nuevo hosting.
  4. Si se esta usando una base de datos, esta debe ser exportada del antiguo al nuevo hosting, por lo menos en forma temporal para hacer las pruebas respectivas.
  5. Realizar pruebas exhaustivas de la web en el nuevo hosting, usando solamente la dirección IP. Si se usa una base de datos, se debe probar todas las funciones.
  6. Después de haber concluido todas las pruebas en forma satisfactoria, se puede iniciar el cambio de DNS.
  7. En caso de que la web use una base de datos, como por ejemplo un foro o un blog, entonces se debe detener la operación de la antigua web para garantizar su concistencia. En este caso, en la página raíz se debe colocar un mensaje de que la web se encuentra en mantenimiento.
  8. Ahora se pueden transferir los datos de la DB del antiguo dominio al nuevo, como se lo hizo para las pruebas en el paso 4.
  9. Finalmente, el cambio de DNS se realiza fácilmente en el administrador de dominios (ver paso 1.). La propagación de los nuevos datos del DNS puede durar hasta unas 48 horas, pero generalmente, si uno se encuentra cerca de un servidor DNS primario, el cambio dura solo algunos minutos. Navegando al dominio, debería entonces aparecer ya la web en el nuevo hosting.
  10. Finalmente, después de que el traslado haya funcionado correctamente, se debe monitorear algunos días el comportamiento de la web para encontrar posibles problemas.

Si es que el cambio de hosting se realiza de la forma recomendada, entonces el tiempo de baja se reducirá al mínimo y los bost de los buscadores ni siquiera lo notarán. Solo se darán cuenta del cambio de IP.