Como mejorar la velocidad de tu Firefox

Acabo de encontrar un pequeño truco para mejorar la velocidad de Firefox. Debes seguir los siguientes pasos:

  1. Arrancar el navegador Firefox
  2. En la caja de la URL ingresa about:config y teclea enter
  3. En la caja Filter: ingresa network.http
  4. Ahora busca el registro network.http.pipelining
  5. Haz clic doble en el registro para que se coloque en true
  6. En el siguiente registro network.http.pipelining.maxrequests aumenta el valor de 4 a 10
  7. Cierra todas las ventanas de Firefox
  8. Arranca nuevamente Firefox

Ahora la la velocidad de tu navegador Firefox debería aumentar en por lo menos el doble.

Visualiza el PageRank y el Anchor text de tus enlaces entrantes

Como ya lo había mencionado hace algún tiempo, la herramienta de Google para webmasters (Google Webmaster Tools) permite visualizar los enlaces entrantes o backlinks de una web.

Ahora y con la la ayuda de un pequeño script en JavaScript es posible obtener más información sobre los enlaces entrantes que se muestran en el Google Webmaster Tools (GWT) usando el navegador de Firefox.

Para poder instalar el Google Webmaster Tools External Links ++ es necesario instalar un pequeño Plugin para Firefox, Greasemoenkey que permite costumizar la forma en que se muestran páginas web especificas con pequeños scripts en JavaScript.

Después de la instalación y de reiniciar Firefox, solo necesitas abrir la página de GWT y visualizar los enlaces externos de la web que estas analizando. Automáticamente aprecen informaciones adicionales al enlace entrante, como se puede apreciar en la siguiente imagen:

GWT External links

Las informaciones adicionales que muestra esta herramienta son:

  • El PageRank de la página con el enlace entrante
  • El texto del anchor
  • El texto es marcado en amarillo si el enlace contiene el atributo nofollow
  • Link not found, si la página ya no existe

Aunque la herramienta tarda un momento en visualizar las informaciones adicionales, creo que puede ayudar mucho a los webmasters a analizar sus enlaces entrantes y así ayudarles en su trabajo de intercambio de enlaces y en la mejora del PageRank.

Vía SEOBook

Ventas online aumentaron 18% en Alemania

Según el GfK las ventas online el año 2006 llegaron a más de 15.3000 millones de Euros, lo que significa un aumento del 18% comparado con 2005.

Los artículos y servicios más comprados en Internet fueron libros, música, ropa, electrodomésticos, viajes y equipos electrónicos.

De todas las vías de comercialización, Internet a mostrado el mayor crecimiento y dinámica en los últimos años.

Un trend que se pudo apreciar es el aumento en las ventas de artículos y servicios caros. Ahora no solo se compra libros y CD´s por Internet, sino también viajes y tickets para conciertos (aumentaron en 5%), electrodomésticos y ropa (aumentaron en 1%).

Los internautas alemanes confían sobre todo en empresas de renombre como Amazon, eBay, Neckermann, Otto-Versand, Quelle, Expedia, Odopo, etc.

Esta es una prueba muy convincente de que el mercadeo por Internet también aumentará considerablemente en los próximos años en España y los países latinoamericanos a medida de que el numero de conexiones de banda ancha vaya aumentando.

Uno de los aspectos más importantes que también se deben considerar de este estudio es que los usuarios, debido a los muchos casos de estafas por Internet, confían y compran sobre todo en webs de renombre y buena reputación.

Consejos para los emprendedores de proyectos en Internet

Después de que reventó la burbuja de Internet el año 2000, el último año las empresas y nuevos emprendimientos del llamado web 2.0 han alcanzado un nuevo auge en las bolsas de valores.

Por este motivo, este año será el año de las inversiones en Internet y muchos emprendedores ya están invirtiendo mucho dinero en todo tipo de proyectos como se puede leer en la blogsefera en español. Los proyectos más populares son los weblogs dirigidos a un publico especializado. Se están creando una infinidad de blogs de deportes, viajes, salud, mujeres, tercera edad, de tecnología, etc.

El modelo de negocios que todos estos nuevos proyectos usan es generar contenido especializado, posicionarse en los primeros lugares de los motores de búsquedas, generar mucho trafico y producir ingresos con publicidad de afiliados. El servicio más usado es Google AdSense, y la publicidad de partners específicos al tema de los blogs.

De todos los nuevos proyectos de este tipo que ya han comenzado a finales del 2006, solamente un pequeño porcentaje logrará sus metas, y la mayoría cerrará nuevamente sus puertas antes de los primeros 12 meses o tratará de fusionarse con proyectos mayores.

Por este motivo, es muy importante antes de comenzar un nuevo proyecto estudiar con mucho detenimiento el mercado y analizar las posibilidades de éxito.

El diario Expansión, ha escrito un interesante articulo sobre las dudas y los pasos más importantes que deben analizar los emprendedores: Las 10 grandes dudas de los emprendedores

A pesar de que es un artículo para emprendedores en general, lo recomiendo a todos los que estén iniciando o planificando un nuevo proyecto en Internet para evitar cometer errores que pueden significar una ruina financiera.

Las 10 dudas son las siguientes:

  1. En dónde y cómo consigo el dinero?
  2. Existen subvenciones o ayudas?
  3. Qué forma jurídica debo adoptar?
  4. Qué trámites tengo que seguir?
  5. Cómo consigo mi primer cliente?
  6. Cómo puedo darme a conocer?
  7. Qué tipos de contrato tengo que hacer?
  8. Me pongo sueldo o vivo del beneficio?
  9. Qué precio han de tener mis servicios?
  10. Es fácil crear un nuevo negocio?

Posiblemente para los pequeños emprendedores que estan comenzando sus proyectos desde sus casas, con su trabajo propio y con mínimas inversiones, muchos de estos puntos todavía no sean de interés, pero siempre se debe tener en mente: Comienza pequeño, pero siempre piensa en grande.

Sobre los meta tags para los robots

Como es bien conocido, los robots de los diferentes motores de búsqueda, permiten el uso de meta tags para ayudar a los webmasters a controlar la indexación de las webs.

La sintaxis y el uso de estos meta tags es unívoca, pero lo que siempre ha causado confusión es la forma en que son interpretados por los diferentes motores de búsqueda y si es que realmente funcionan efectivamente.

Ayer, Vanessa Fox ha escrito un artículo en el blog de Google Webmaster Central explicando como se deben usar los meta tags para que los robots de Google los pueden interpretar correctamente.

Según este artículo, esta es la lista de meta tags que son reconocidos e intepretados por Google:

  • NOINDEX evita que la página sea indexada
  • NOFOLLOW Evita que el Googlebot siga los enlaces de una página, o mejor dicho los valore para la propagación del PageRank. Aquí se debe mencionar la diferencia del atributo NOFOLLOW en los enlaces que evita seguir los enlaces de una página en forma individual.
  • NOARCHIVE Evita que Google genere, mejor dicho muestre la página de cache en los resultados de búsqueda.
  • NOSNIPPET Evita que en los resultados de la busqueda se muestre una pequeña descripción de la página, que también se la conoce como snippet.
  • NOODP Evita que Google use la descripción de la página en ODP (Open Directory Project) como descripción o snippet en los resultados de búsqueda.
  • NONE es equivalente a «NOINDEX, NOFOLLOW».

Los meta tags deben tener la siguiente sintaxis:

donde VALOR es una de las palabras clave anteriormente mencionadas.

Actualización

Aqui una lista de articulos relacionados con el Googlebot

Todo sobre el Googlebot
Como usar el archivo robots.txt
Testear URL´s bloqueadas

Como combatir el plagio

Hace varios meses descubrí casualmente que una web española había plagiado uno de mis artículos (ver Cómo ganar con AdSense mediante artículos ajenos, Y el plagio continua…, hilo similar en meneame). Luego de enviar un email a la ‘responsable’ de la web, mi artículo fue retirado y copiado en otra web. Pero la bien conocida señora creo a su manera (nicks, emails, IPs falsos) una gran polémica en los comentarios de mi blog para evitar el desprestigio de su red de proyectos de plagio.

Casualmente (ya que esa web esta baneada de mis favoritos), hace unas semanas encontré nuevamente en Google un enlace a la página que había sido retirada meses atrás, y para mi sorpresa estaba mejor posicionada que mi propio artículo para varias frases relacionadas al tema.

Nuevamente envié un email a la mencionada señora para que retirase mis artículos de sus webs, pero esta vez ni se digno en contestar.

Después de consultar a algunos amigos abogados en España, me informaron que las leyes españolas actualmente no pueden hacer mucho en este tipo de situaciones. Por el contrario, por ejemplo las leyes alemanas sobre temas de Internet y de derechos de autoría de contenidos en Internet, ya estas más avanzadas.

Con esta situación, me puse a pensar de cual sería la mejor solución para evitar este tipo plagio y la respuesta fue rápida: Evitar que este tipo de redes y webs obtengan tráfico. Si es que estas páginas no se pueden posicionar bien en los buscadores, entonces el negocio generado por AdSense con artículos copiados, ya no será tan rentable y estas personas pronto perderán el interés de hacerse de la propiedad ajena.

Con esta motivación, comencé un experimento: Posicionar mi artículo! Con un poco de trabajo SEO conseguí fácilmente obtener mejores posiciones que el articulo falso en unas poca semanas.

Ahora, mi artículo aparece en las primeras búsquedas para diferentes frases y ha desplazado a la página plagiadora, como lo demuestran estas imágenes:

Resultados del 28 de Enero de 2007

Resultados en el buscador de Google del 28 de Enero de 2007

Resultados en el buscado de Google del 07 de Febrero de 2007

Resultados en el buscador de Google del 07de Febrero de 2007

Y aunque este ejemplo solo es una pequeña prueba de como combatir este tipo de webs, si todos los damnificados logran posicionar sus artículos por encima de los plagiados, los usuarios que buscan información en los motores de búsqueda, siempre encontrarán primero al artículo original. Y por consecuencia, esto causará la caída dramática del trafico de estas webs.

Y para finalizar algunos consejos más para evitar el auge de las redes de webs plagiadoras.

  • No enlazar naturalmente a ninguna de las páginas de estas webs
  • No realizar intercambio de enlaces
  • Divulgar en foros, blog, y otros medios de comunicación el modo de trabajo de estas webs y siempre mencionar que el fin de este modelo es simplemente conseguir ganancias con los avisos contextuales como AdSense en contenidos robados.

Espero que todos los afectados se puedan unir para luchar contra este tipo de plagio.

Sobre la localización de los resultados del buscador de Google

Hace más o menos un año atrás Google comenzo cambiar su infraestructura de servidores para su servicio de búsqueda. Este emprendimiento fue bautizado con el nombre de Bigdaddy. Según algunos de los ingenieros de Google, esta nueva infraestructura permitiría mejorar considerablemente la calidad de los resultados y la flexibilidad del buscador.

Antes de Bigdaddy, el conjunto de data centers (DCs) de Google, es decir el conjunto de servidores con bases de datos que tiene Google repartidos por el mundo, contenían el mismo índice, es decir para una búsqueda dada desde una computadora en cualquier parte del mundo, se mostraba siempre el mismo resultado.

El único efecto que irritaba a los webmasters era el llamado Google Dancing, que ocurría periódicamente cuando los ingenieros de Google calculaban nuevamente el índice y los datos eran propagados poco a poco a todos los DCs. Esta propagación de datos duraba generalmente algunos días, y en este tiempo los resultados de las búsquedas ‘bailaban’ continuamente. Luego de la completa propagación de los datos, el índice volvía a la calma y era absoluto para todos los usuarios de nuestro planeta.

Con la implementación de la nueva infraestructura, que recién concluyo en Septiembre/Octubre del año pasado, los resultados del buscador se han vuelto completamente relativos y dependientes de muchos factores.

Entre estos factores se pueden contar:

  • La forma de actualización del índice ha variado completamente, las pequeñas variaciones, también llamadas data push, son inyectadas en cada uno de los DCs casi diariamente. Es decir, páginas nuevas, páginas que han mejorado su popularidad, etc. se posicionan en los nuevos lugares y desplazan a las otras. Este es uno de los motivos por el cual, ahora los webmasters siempre ven bajar y subir sus páginas en algunas posiciones.
  • Ya que la propagación de datos es casi continua, ya no existe un momento en el tiempo t en el cual todos los DCs contengan el mismo índice. Ahora todo siempre esta fluctuando, y eso también lo pueden percibir tanto los usuarios como los webmasters.
  • Otro aspecto que ahora también juega un rol muy importante en los resultados que muestra el buscador de Google es la localización geografica del usuario. Por ejemplo, si un usuario en España hace una búsqueda especifica con el parámetro ‘buscar en la web’, obtendrá resultados diferentes a los de un usuario que hace la misma búsqueda en México. Parece ser que la nueva infraestructura contiene filtros que consideran la posición geográfica del usuario, información que se puede se puede obtener por el IP de su computadora.
  • Finalmente, parece que también existen otros filtros que se aplican cuando se usa un buscador especifico a un país, independientemente del DC que procese la búsqueda. Un ejemplo de esta situación se puede observar en la siguiente imagen:Resultados de Google por países

    Por ejemplo, para una búsqueda muy competitiva una página web puede aparecer en google.es en la posición 248, en google.com.ar en la posición 187 o en google.com.bo en la posición 3. Aquí se debe mencionar que en todos los casos el numero de páginas indexadas es casi igual. Y en dos de los casos, el DC que ha procesado la búsqueda ha sido el mismo. La única explicación para esta gran diferencia en los resultados es que la página web en cuestión tiende a contener más temas del país donde aparece en las primeras posiciones.

Todo esto nos muestra que de ahora en adelante va ha ser mucho mas difícil posicionar una web en el mismo idioma para diferentes países.

Aunque también se debe mencionar que webs que tienen mucha autoridad en un tema especifico, alcanzan buenas posiciones en todos los buscadores de los diferentes países y no fluctúan en sus posiciones por las inyecciones de datos diarios. Un ejemplo de esta situación se puede observar en la siguiente imagen:
Resulatos de Google por paises para una página con autoridad

Nota: las imágenes se han realizado con la siguiente herramienta: Google Ranking por país.

Novedades en algunos productos de Google

Como ya es costumbre, los ingenierios de Google no descansan y de quantum en quantum hacen mejoras en sus diferentes productos. Hoy día tenemos:

Gmail para todos
Desde hoy día ya es posible inscribirse al servicio de email de Google Gmail directamente y sin la necesidad de tener una invitación.

Google Docs en Español
Como ya es bien conocido, Google esta tratando de imponerse con diferentes servicios en linea para tratar de romper la supremacía de Microft Office. El paquete de Google ya tiene un calendario (Google Calender) y Google Docs & Spreadsheets. Hoy día, Google ha incorporado nuevos idiomas idiomas a este servicio (Frances, italiano, Alemán, Español, chino tradicional, chino simplificado, coreano, turco, polaco, holandes y portugués brasileño). Mas informaciones en el blog oficial de Google.

Google Docs en varios idiomas

Finalmente Google muestra los backlinks correctamente

Ayer, la noticia más importante fue la presentación de la función de los links en Google Webmaster Tools (pestaña links).

El blog oficial de Google Webmaster Central da más detalles sobre como usar esa nueva herramienta para los webmasters.

En principio existen 2 funciones:

External Links
Esta función muestra una lista de páginas de una web y las páginas externas, es decir de otras webs que las enlazan.

Internal Links
Esta función muestra una lista de páginas de una web y las páginas internas que las enlazan.

En el blog de Google se menciona que estos datos no muestran el 100% de todos los enlaces, pero de todas maneras es mucho más fiable que la función link: del buscador. Cada registo tiene una fecha de descubrimiento o actualización, lo que permite conocer cuando Google ha encontrado a cada uno de los enlaces.

Ambas funciones permiten descargar todos los datos en el formato csv.

Es muy interesante analizar todos estos datos, ya que por ejemplo he encontrado enlaces que apuntan a mis webs que no conocía. También es muy interesante analizar qué páginas internas reciben mas enlaces, etc.

Con seguridad, esta nueva herramienta de Google va ha ayudar a los webmasters a demostrar y/o revocar muchas de las teorías que que habían construido alrededor de los backlinks. Por el momento, estos datos deben ser analizados cuidadosamente para poder sacar conclusiones.

Actualización
Cuando estaba escribiendo esta nota, ya tenia algunos problemas al ingresar a las páginas de esta herramienta. Ahora veo que la pestaña link ha desaparecido. Posiblemente el ataque de los webmasters ha hecho colapsar los servidores de Google, como ya ocurrió por ejemplo luego del lanzamiento de Google Analytics.

Otro de los motivos para la desaparición repentina es un bug que permitia ver los enlaces de cualquier web, cambiando solamente en la URL la página propia con una página de la competencia.

Actualización
Una interesante discusión sobre el tema en el blog de Matt Cutts.

pidiendo por ejemplo mostrar marcados los enlaces con con el atributo nofollow. Según Matt no todos los enlaces que se muestran con esta nueva herramienta tiene ‘peso’, es decir que no cuentan para la valoración de la popularidad de una página web.

Dos años después del lanzamiento de Microsoft Search Live

Microsoft Live Search

Ya hacen 2 años desde el pomposo lanzamiento del nuevo buscador de Microsoft, Search Live (ver historia de los buscadores, MSN ya redirecciona a Live Search) y todavía no han logrado dar batalla a Google como fue pronosticado por Steve Ballmer, el CEO de Microsoft.

Por el contrario, desde que MSN esta usando Live Search la penetración de mercado del buscador ha caído considerablemente.

Justamente son los webmasters los que primero notan que el tráfico que genera Live Search hacia las web, no es considerable. Hasta resultados en las primeras posiciones no logran generan visitas considerables en las webs. Esto muestra, que por lo menos en los países hispano parlantes, Search Live no juega un rol protagonico en el mercado de los buscadores.

Por ejemplo, en la siguiente imagen se puede apreciar el origen de las visitas de uno de mis proyectos durante el año 2006.

Visitas de Search Live

Mientras que desde Google se obtuvieron el 64.37% y de Yahoo el 12.95% de las visitas, Live Search (aka MSN) generó solamente 1.83% del total de las visitas.

Justamente en WMW se esta discutiendo sobre el tema.

Visto en Seo Roundtable