Archivo de la categoría: Posicionamiento

Principios del posicionamiento en buscadores

Sobre las estrategias para generar enlaces

Todos ya se han acostumbrado a la serie de vídeos de Google Webmaster Central que presenta Matt Cutts respondiendo en 1 a 2 minutos a las preguntas que envían los webmasters y SEOs de todo el mundo.

Pero el vídeo de esta semana es diferente: Esta vez Matt responde a la pregunta sobre cuales son las mejores estrategias – a parte de la respuesta estandard de Google de generar buen contenido – con un vídeo de casi 8 minutos de duración.

Además de las respuestas conocidas también hay ideas interesantes para conseguir enlaces: hacer estudios de investigación para diferentes servicios similares y presentarlos en forma de comparación, realizar tutoriales que puedan interesar a un gran numero de lectores, responder a preguntas postuladas en redes sociales para así obtener las gracias de la comunidad y convertires en una autoridad en temas específicos.

Pero también dice: Piensa donde pasa la tiempo más tiempo: Twitter, Facebook, etc. No se debe olvidar estos servicios y se debe mostrar presencia para generar enlaces.

Pero también se pueden usar herramientas clásicas como las newsletters.

Y aquí el vídeo, que a propósito se puede subtitular en español, usando el nuevo servicio de Youtube de subtitulación automática en varios idiomas

Sobre cómo Google valora los enlaces de de Twitter y Facebook

Nuevamente Matt Cutts ha grabado una serie de vídeos – su nuevo corte de cabello demuestra que son nuevos – en los que responde a preguntas que se envian a Google Webmasters por email.

Esta vez responde a la pregunta de cómo Google valora los enlaces desde Twitter y Facebook.

En resumen, Matt menciona que estos enlaces son tratados como los de las webs normales, pero también menciona de que para Google es difícil valorar enlaces de perfiles privados de Facebook, ya que no lo puede ver y tampoco les puede asignar PageRank.

En lo que se refiere a los enlaces de Twitter menciona que estos contienen el atributo nofollow, y según él esto está muy bien para evitar SPAM, por lo cual estos enlaces tampoco no pueden aumentar la popularidad o PageRank de una página.

Sobre cómo Google calcula la relevancia de los tweets

El mes pasado Google anunciaba que en el marco de sus mejoras para llegar a ser el buscador en tiempo real, había incorporado en los resultados del buscador varios servicios como por ejemplo  Facebook, Twitter y FeedFriend.

Pero como ya es conocido, no toda la información que se publica en estos servicios sociales es realmente relevante, de interés para los usuarios y confiable.

Así pues, nuevamente nos encontramos con un viejo conocido problema 🙂 En el buscador clásico, Google lo soluciona usando el PageRank y los famosos 200 parámetros del algoritmo de Google.

Pero cómo hacerlo con la información de servicios sociales que no tienen enlaces directos y no se comportan como páginas web?

En una reciente entrevista Amit Singhal, un googler, nos da algunas luces de cómo Google calcula la relevancia de los tweets.

The key is to identify “reputed followers,” says Amit Singhal, a Google Fellow, who led development of real-time search. […] “You earn reputation, and then you give reputation. If lots of people follow you, and then you follow someone–then even though this [new person] does not have lots of followers”.

En otras palabras: La clave es identificar followers con buena reputación. Se puede heredar reputación, pero también se la puede dar. Si una persona tiene muchos seguidores, y esta a su vez sigue a algunas otras personas, entonces estas personas seguidas heredan una buena reputación.

Entonces, los tweets de una persona con «buena reputación» se poscionan mejor. En resumen, se trata de algo similar al PageRank clásico que se basa en el numero de enlaces.

Amit también menciona:

Google also developed new ways to choose which (if any) tweets to surface for common terms like “Obama”–and to avoid spam or low-quality tweets–all within seconds.

Google ha desarrollado formas para posicionar tweets con terminos comunes y populares como Obama, pero evitar el spam de tweets con baja calidad, y esto en segundos.

Bueno, esto es lo más importante que se puede obtener de la mencionada entrevista y aunque no es mucha información, nos da algunas pautas para lograr que los que publicamos tweets puedan aparecer en las primeras posiciones de los resultados del nuevo buscador en tiempo real de Google.

Todavía no quedo muy convencido, si un trabajo de posicionamiento para tweets pueda generar un incremento del tráfico en una web en forma continua. Lo veo más como un efecto meneame.

Sobre la velocidad de descarga de una página como factor del ranking en Google

Ya hace algún tiempo que  unos de los parámetros del Quality Score de AdWords para las landing pages es la velocidad de descarga de la misma.

Según Google, si una página se descarga y se muestra rápidamente al visitante, esto aumenta la aceptación de los usuarios y mejora la usabilidad de la web.

En el PubCon 2009 parece que hubó varias discusiones al respecto, y ahora en el siguiente vídeo, Matt explica que posiblemente en el 2010, la velocidad de una página será un factor para el ranking en el buscador de Google.

Será uno más de los 200 y pico factores que usa Google para el ranking del buscador, y no tendrá mucho peso, mientras que la página no sea muy lenta.

Parece que se tomará el mismo principio / algoritmo que ya se usa en AdWords para valorar la velocidad de una página.

Finalmente, Matt aconseja a los webmasters revisar la velocidad de carga de sus webs con ayuda de herramientas online que circulan en la red.

Actualización
Y para los que ya se quieren preparar, aquí Google Page Speed, una herramienta para controlar la velocidad de descarga de una página web.

Actualización
Otra herramienta interesante para analizar y/o corregir la velocidad de descgara de una página web: WebPageTest.

Google posiciona mejor dominios con palabras claves

Ya hace algunos meses atrás había notado que dominios que contienen las palabras claves de una búsqueda se posicionan mejor, y también mucho más rápidamente.

Pero como siempre, es bastante difícil comprobar si este tipo de  teorías realmente es cierto. Ahora leo en el blog de Sistrix (en Alemán) que han realizado un estudio sobre el tema.

Se han analizado 25.000 palabras claves que son generan bastante tráfico, y los resultados son contundentes en las siguientes gráficas

google-domain-keywords-01

Dominios .de, .com, .net y .org

google-domain-keywords-02

Dominios .info, .biz, .in y .cc

En la primera imagen se pueden observar el porcentaje de dominios .de, .com, .net y .org con palabras claves que se encuentran en el top 10 del buscador de Google  desde el 01.01.2009 hasta Octubre 2009.

En el mes de junio se puede observar muy claramente que el porcentaje de dominios .com en el top 10 aumentó de 11.4% a 14.6% lo que demuestra claramente la suposición.

Otro de los resultados interesantes de este estudio es que los TLD también si son importantes para el posicionamiento en Google. En el buscador alemán google.de, el porcentaje de los  dominios .de es el más elevado, luego le siguen los dominios .com y en la segunda imagen se puede observar que los TLDs exóticos como .info, .biz, .in y .cc realmente son los más despreciados por Google.

En resumen estos datos son muy utiles para los SEO y demuestran muchas de las teorías que circulan en la red:

1. Las palabras claves en los dominios SI son muy impotentes para el posicionamiento en Google.

2. Los TLDs también  son importantes para el posicionamiento en el buscador de Google. En el caso que se desee posicionar un proyecto web para un país especifico, primero se debe elegir un TLD local, en caso de que no se pueda, se debe elegir un dominio .com y finalmente siempre se deben evitar los TLDs exoticos ya que a largo plazo NO sirven para posicionar.

Sobre las metadescripciones y el uso de guiones en las URLs

Aquí nuevamente 2 vídeos interesantes de Google Webmaster Central.

Google ya no valora las metadescripciones para el ranking en el buscador?

Transcripción
Resulta que no solíamos usar para nada las metadescripciones. Solíamos usar un fragmento relacionado para determinadas búsquedas. Y sólo en los últimos años las estamos usando, donde haya una metadescripción, a veces usamos esto antes que un pequeño fragmento de la página. Así que estamos yendo en la dirección contraria. Empezamos con fragmentos de la página, y ahora es cada vez más probable que usemos metadescripciones. Pero no las usamos siempre. Si creemos que es útil para la palabra clave, así que ya sabes, no crees la misma metadescripción para todas las páginas como un molde, porque pensaremos que no es muy útil. Así que no es que nos alejemos de las metadescripciones. Las usamos más que antes, hace 7 u 8 años. Pero, al mismo tiempo, tenemos que creer que son útiles antes de usarlas. Así que lo mejor es crear una metadescripción realmente útil y entonces tendrás más posibilidades de verla en lugar del texto de la página. Aunque si no quieres hacerlo, eso también está bien. Sólo intentamos hacer lo que creemos más inteligente y mejor para los usuarios, y esperamos que los usuarios hagan clic y encuentren tu contenido.

Es mejor usar guiones bajos (_) o guiones (-) en las URLs?

Transcripción
Yo usaría guiones (-) si pudiera elegir, pero si tienes guiones bajos (_) y todo funciona bien, no me molestaría en cambiar su arquitectura. Hace algún tiempo, dije que estábamos mirando el uso de guiones bajos (_) como separadores. La razón por la que normalmente nunca hablamos de cosas futuras es que nos da la libertad de cambiar de opinión. De hecho la gente que estaba trabajando en ese proyecto, trabajaba en algo un poquito diferente; puntuación en la URL, que de hecho tenía mayor impacto. Pero podríamos seguir con eso, gracias por recordarlo. Intentaré preguntar para que lo revisen de nuevo, pero mientras tanto, los guiones bajos (_) se tratan como separadores, oh perdón, los guiones (-) se tratan como separadores y los guiones bajos (_) no. Esto podría cambiar más adelante, pero es así como está ahora mismo.

Vía blog de Google Webmaster en español

En resumen, no es nada nuevo ni espectacular, pero aclaran algunas de las dudas y confusiones que siempre es están discutiendo en los foros de posicionamiento..

Consejos para el posicionamiento en Bing

Aunque el nuevo buscador de Microsoft todavía esta muy lejos de ser una amenaza real para Google, la cooperación entre Yahoo y Microsoft para usar Bing en todos los portales y servicios de Yahoo alertó a muchos SEOs y webmasters a tomar más en serio el buscador de Microsoft.

También las estadísticas de los últimos meses han mostrado de que Bing está ganando terreno poco a poco.

Por estos motivos, es importante echar un vistazo a las técnicas que se deben usar para posicionar una página web en Bing.

En el blog oficial de Bing se ha publicado un pequeño artículo con algunas pautas para posicionar en Bing.

En resumen, no presentan nada nuevo, y lo que se puede resaltar del artículo es lo siguiente:

Principios básicos de SEO en Bing

  • Genera contenido bueno, original, con palabras claves bien colocadas en el texto, dirigidas a tu audiencia.
  • Estructura en forma limpia el código de tus páginas web, incluyendo las imágenes y usando mapas del sitio, para que los rastreadores puedan escanear e indexar tus páginas.

Las herramientas que Bing ofrece a los webmasters son las siguientes:

La similitud de las herramientas y demás ayudas con Google es innegable 🙂

Optimiza tus URls

Optimiza tus URls es el título de una presentación de Google Webmasters en Español que explica muestra alguna recomendaciones para mejorar el rastreo e indexación.

Se trata de una guia básica, pero que siempre hay que tener en cuenta para lograr que los rastreadores puedan escanear una web con facilidad

Aquí la presentación

Ah… y hablando de cómo mejorar el escaneo de una web, aquí algunos consejos de Matt Cutts para asegurar que Google alcance las páginas profundas de una web. Un vídeo con subtitulos en español

La solución: las páginas más importantes deberían ser enlazadas directamente desde la página principal. También una manera muy efectiva de hacer indexar páginas profundas , que no menciona Matt, es el uso de Sitemaps.