Archivo de la categoría: Posicionamiento

Principios del posicionamiento en buscadores

Los trends del SEO en 2013

SEO Trends 2013

En la ultima semana del año, todos comienzan a recapitular los acontecimientos más importantes del año que se acaba y a realizar pronósticos de lo que sucederá en el próximo año.

En lo que se refiere al posicionamiento en buscadores y en especial en Google, este año hubo mucho movimiento pero se puede resumir en con dos términos: Panda y Penguin

Con estas 2 series de actualizaciones, Google ha tratado de quitar valor a las webs con contenido de baja calidad y combatir a las redes de enlaces artificiales que hasta ahora eran la clave del posicionamiento. También con los cambios en el layout de las páginas de resultados y el aumento de anuncios y de servicios de Google, el posicionamiento en las primeras posiciones del indice se ha complicado mucho.

Para el próximo año queda esperar si Google finalmente logra modificar sus algoritmos que todavía se basan en la cantidad de enlaces entrantes y su popularidad, a otro método diferente. No creo que los enlaces de redes sociales sean mejor valorados en las próximas actualizaciones, ya que ahora ya se puede observar que estos enlaces son de muy baja calidad y solamente virales.

En mi opinión, los SEOs van ha tener que cambiar sus estrategias y apostar a un mix de fuentes de tráfico para sus webs: 

  • Tráfico desde buscadores (tráfico orgánico)
  • Tráfico desde redes sociales
  • Tráfico comprado (SEM, search engine marketing)
Para finalizar, les presento una pequeña lista de posts que también hablan de las tendencias del SEO en el 2013
 

Tendencias SEO 2013 de Miguel Orense
Tendencias SEO y predicciones para 2013 de Digiworks
¿Cómo integrar el SEO a las estrategias del 2013? de Internet es Mercadeo
Tendencias SEO para el 2013 de baluart.net
SEO Innovation 2013 de  Catalyst en inglés

OnPage SEO en el año 2012

 

Es evidente que en los últimos 20 meses el panorama del posicionamiento en los buscadores (SEO Search Engine Optimization) ha cambiado dramáticamente. La propagación de la primera actualización de Panda el 25. de Febrero de 2011, una nueva clase de algoritmos del buscador Google, hicieron temblar al mundo SEO.

Para una relación de  todos cambios más importantes de los algoritmos de Google se puede consultar aquí, aunque Google ha mencionado que anualmente se realizan más  de 500 actualizaciones.

Con el uso de clasificadores  y técnicas de inteligencia artificial la primera actualización de Panda en el espacio de habla inglesa, Google introdujo otro tipo de parámetros para calificar la calidad de una página: «La usabilidad de las páginas web, el contenido único y de valor para los usuarios, así como también varias métricas de uso.»  (Sobre la actualización Panda de Google).

Adicionalmente a esta actualización que ya anda en su versión 20, Google  lanzó más o menos el 24 de Abril de 2012 la actualización llamada Penguin (el llamado link and webspam algorithm  que actualmente ya esta en  su tercera 3 versión) y que tiene como objeto penalizar sitios con contenidos de baja calidad, con spam y una gran cantidad de enlaces.

Con Penguin se hizo realidad la pesadilla de los SEOs y webmasters:  el SEO negativo, es decir  ser penalizado por enlaces entrantes malos, o sea enlaces hacia el sitio desde webs con spam, granjas de enlaces etc. Así, de esta manera es posible hacer caer en el ranking del buscador a un sitio de la competencia sin muchos esfuerzos. Lo cuál efectivamente ha sucedido y fue reportado en la blogsfera. Y justamente hace unos días atrás Google ha presentado una nueva herramienta para desautorizar o privar de autoridad a enlaces entrantes (ver nota en WebmasterTools) y que como indican «debe ser usada con mucho cuidado y solo en caso necesario».

Y para concluir el año 2012, Google recientemente ha propagado otro tipo de cambio: La actualización EDM (exact match domains) es decir que ahora también se penaliza  a los dominios que tienen frases exactas de keywords en sus dominios.

Con esta gran avalancha de actualizaciones es comprensible ver a los SEO totalmente desconcertados. Solamente basta visitar los foros sobre el tema. Ahí nadie todavía ha encontrado una receta clara para poder contrarrestar todos estos nuevos algoritmos.

Antes, como las actualizaciones afectaban de igual manera  a webs similares, era posible hacer cambios especificos para contrarrestar algún tipo de penalización. Adicionalmente, estos cambios eran más o medibles y se los podía verificar en los resultados del buscador en cuestión de días o semanas.

Ahora todo es diferente: No se puede saber con exactitud cual es la razón del porqué una web ha sido penalizada, ya que ahora también entran en juego muchos  parámetros que son generados por los usuarios al visitar la web, como por ejemplo el tiempo de permanencia,  el porcentaje de rebote, etc.

De ahí que el desconcierto de los SEOs es total! Pero bueno, la vida continua y quien que no lucha, ya ha perdido.

Justamente para poner en claro esta situación y ayudar a los SEOs a ver una pequeña luz al final del túnel, Rand Fishkin de SEOmoz ha presentado un vídeo en el que explica los nuevos aspectos que ahora  se deben tomar en cuenta al momento de posicionar una web.

Se distingue entre un OnPage SEO clásico y el SEO de 2012 en adelante

OnPage SEO clásico

Se caracteriza por colocar:

  • Palabras claves en el título de la página y al inicio del texto.
  • Palabras clave  repetidas varias veces en el texto para aumentar su densidad.
  • Palabras clave en la URL.
  • Palabras clave en los tags H1, H2, etc. o en negrita para realzar su relevancia en el contenido.
  • Palabras clave en los metatags.
  • Palabras clave en el atributo alt de las imágenes.
  • Palabras clave en los enlaces que apuntan a páginas internas.
  • Términos relacionados a las palabras clave en el texto.

Usando estas técnicas sencillas era posible subir relativamente fácil en las posiciones  de los resultados del buscador. También si un usuario del buscador encontraba una de las palabras clave en los resultados hacia directamente clic suponiendo que ya había encontrado lo que buscaba y que la página contenía exactamente lo que necesitaba.

Pero ahora con todos los últimos cambios en el buscador, esto ya no es suficiente para un buen posicionamiento.

El nuevo OnPage SEO de 2012

* Traslapar la intención de búsqueda con el contenido de la página. Y justamente se debe agrandar lo más posible la intersección de lo que el usuario busca  y lo que la página ofrece.

* Destacar el contenido que aparece en los resultados del buscador, los llamados snipets. Para optimizar el snipet se debe optimizar el metatag description.  La frase clave debe ser atractiva para el usuario. Aquí también se pueden usar datos estructurados que últimamente Google los está mostrando gráficamente en la página de los resultados. Por ejemplo si se usa el tipo autor aparece la foto del autor. Una documentación sobre los microformatos o datos estructurados se puede encontrar en schema.org Para poder aparecer como autor en los resultados hay que realizar una verificación mediante Google+. Más información aquí. También la URL debe mostrar la marca y atraer para hacer clic. El ranking o posición en la página de resultados ya no es tan interesante ya que ahora con resultados más atrayentes y gráficos, el usuario no hace clic directamente en el primer resultado. Se deben evitar dominios muy largos y con muchas keywords (ver el EDM update más arriba).

* También la usabilidad de la página es importante: La descarga de la página debe ser rápida para no aburrir al usuario e incentivarlo a navegar por el sitio. Esto lleva consigo a un incremento del tiempo de permanencia, así como también a bajar el porcentaje de rebote.  Aqui ya se ha hecho popular el termino WPO (Web Performance Optimization). Más sobre este tema en Google Developers.

* Incentivar al usuario a compartir el contenido de la página de manera fácil y sencilla en las diferentes redes sociales. Colocar botones y cosas llamativas para animar al usuario a compartir la página. Es decir hacerla social shareable o más compartible socialmente.

* Las técnicas del  OnPage SEO clásico todavía tienen validez.

Así pues los SEOs se tienen que ir adaptando a estos nuevos tiempos y aprender nuevamente, aunque las cosas se van a poner cada vez más difíciles, sobre todo por que no se puede comprobar directamente y en forma rápida los efectos de los cambios realizados en una página web.

Via: SEOmoz

Y finalmente llega Google Panda a la mayoría de las webs e idiomas

Justamente hoy día Google ha anunciado oficialmente que su algoritmo para sitios web de alta calidad, es decir la conocida actualización Panda ha sido lanzada en casi todos los idiomas.

Hoy continuamos ese esfuerzo lanzando nuestras mejoras de búsqueda algorítmica en diferentes idiomas. Nuestra evaluación científica de los datos muestra que este cambio mejora nuestra calidad de búsqueda en todos los ámbitos y la acogida por parte de los usuarios de Panda ha sido muy positiva.

Para la mayoría de los idiomas este cambio va a tener un impacto en el 6 al 9% de las consultas realizadas en el idioma en cuestión. Un impacto mucho menor que el del lanzamiento inicial de Panda que afectó, con impacto notable, a casi el 12% de las consultas en inglés. Estamos lanzando este cambio para todos los idiomas excepto chino, japonés y coreano, donde seguimos trabajando en las mejoras.

Y también mencionan que los sitios afectados pueden buscar orientación en el artículo recomendaciones para construir sitios web de alta calidad. En esta nota se postulan una serie de preguntas / encuestas que se deben contestar para una página afectada. En realidad esas son las preguntas que se han realizado a personas para generar la información necesaria sobre la cual algoritmos con inteligencia artificial, deciden qué páginas son de poca calidad para los usuarios.

Cómo ya se puede observar los sitios más afectados son los sitios de comparación de precios y productos, algunos shops, páginas amarillas, directorios específicos, etc.

En la red ya existe una gran cantidad de información para tratar de contrarrestar los efectos de la actualización Panda, cómo por ejemplo esta infografía sobre Panda.

Ahora todos los webmasters deben comenzar a analizar cuales son los efectos que ha causado Google Panda en sus diferentes proyectos, y bueno comenzar a trabajar para recuperar nuevamente sus antiguas posiciones. Inicialmente se había mencionado que los sitios afectados en idioma ingles ya no se podían recuperar, pero con las ultimas mejoras /actualizaciones de Panda, parece que muchos sitios si han podido recuperarse y alcanzar el tráfico que tenían antes de Panda.

Actualización
Aquí otro interesante artículo sobre Panda en otros idiomas

Infografía sobre la actualización Panda de Google

Un gráfico como ya lo había mencionado en la tabla periódica del SEO ayuda mucho a obtener una vista general y panoramica sobre un tema o problema especifico.

Hoy día les presento una infografía sobre la actualización Panda del buscador de Google que en el mundo de los SEOs anglosajones ha causado gran revuelo y qué en algún momento también alcanzará a las webs en otros idiomas

Google Panda Update
(hacer clic en la imagen para ampliar)

Y para los que están interesados en el tema, aquí una interesante entrevista con Vanessa Fox sobre Google Panda.

Interesantes listas sobre errores en SEO y linkbuilding

Hoy dia se han publicado 2 interesantes listas de errores que se pueden cometer en el posicionamiento de páginas web en los buscadores.

La primera lista se ocupa con los principales errores de los SEOs: Top SEO Mistakes You Must Avoid y la segunda comenta algunos errores que se comenten cuando se trata de hacer linkbuilding: The Five Linking Mistakes You Didn’t Know You Were Making.

A pesar de que estas listas están en ingles son fáciles de entender y pueden ayudar a mejorar el trabajo de los SEOs.

La tabla periódica del SEO

Siguiendo el proverbio chino Más vale una imagen que mil palabras, Search Engine Land ha creado un infográfico en forma de tabla periódica de los elementos, en los que se muestra los factores más importantes del ranking en los buscadores. El articulo completo que explica como interpretar esta tabla lo encuentras aquí (en ingles).

Tabla periódica SEO
(hacer click en la imagen para ampliar)

Y aquí una vista de los factores más fundamentales para posicionar una página web en los buscadores

Tabla periódica SEO
(hacer click en la imagen para ampliar)

En resumen, esta tabla es una forma magnifica de orientarse rápidamente al momento de posicionar un sitio o una página web en el ranking de los buscadores, especialmente de Google.

Si deseas descargar la tabla en formato PDF, la tienes aquí: Tabla Periódica del SEO.

Nuevamente sobre el numero de enlaces en una página web

Hace unas semanas atrás comentaba este tema: Cuantos enlaces son muchos enlaces?. Y justamente ayer, en la nueva serie de vídeos de Google Webmaster se lo ha tocado.

En resumen se menciona que el valor mágico de los 100 enlaces es más bien histórico: Hace algunos años, el rastreador de Google, solamente podía guardar los primeros 100 KBytes de una página web. De está manera las guías de Google también mencionaban que solo los primeros 100 enlaces de una página eran considerados.

Pero ahora, con los grandes avances de infraestructura y de software que Google ha alcanzado en los últimos años, estos valores ya no son reales, y por eso esta regla también se ha retirado de las guías para webmasters.

Así pues, ahora se pueden colocar más de 100 enlaces en cada página, pero siempre hay que tener en cuenta que la herencia del PageRank se diluye entre todos los enlaces salientes (tanto los externos como los internos) por lo cual ya queda nuevamente limitado el numero de enlaces por página, si es que se desea crear un sitio con páginas internas robustas en PageRank y con un buen TrustRank en el buscador.

Y aquí el vídeo

Video en Youtube

La manipulación de los buscadores – el SEO – es tema de conversación en las grandes esferas

Todos los que están en metidos en el «posicionamiento en los buscadores» desde sus inicios, saben muy bien qué lo que siempre han hecho es analizar los resultados de los buscadores, hacer experimentos, y aplicar estos conocimientos en un sitio web para que sus páginas aparezcan en las primeras posiciones del índice de los resultados para así generar tráfico.

Inicialmente ésta era una tarea para técnicos y especialistas en informática, pero a medida que el posicionamiento se hizo más importante para los negocios en Internet, y sobre todo se puso de moda, todo tipo de sujetos se pusieron a optimizar… Surgieron un sinnúmero de agencias SEO qué por un puñado de Dólares o Euros ofrecen a sus clientes el paraíso y «resultados garantizados».

Esta avalancha de «manipuladores de los buscadores»  ha hecho que a pesar de las mejoras tecnologías que Google ha introducido en el último tiempo, como ser indexación casi en tiempo real, el inmenso incremento de la capacidad de procesamiento de datos y mejores interfaces, la calidad de los los resultados del buscador de Google cada vez vayan empeorando.

Y todo esto no ha pasado desapercibido por los usuarios comunes a tal punto que ya en varias ocasiones, el New York Times ha publicado artículos sobre SEO y la manipulación de los resultados de Google.

En el último de los casos el NYT ha mostrado cómo la conocida tienda J.C. Penny estaba en las primeras posiciones de Google para diferentes palabras claves gracias a un linkbuilding fraudulento. Vanessa Fox explica en esta artículo el esquema de linkbuilding que usaba J.C. Penny.

Todas las noticias negativas en la prensa sobre Google del último tiempo lo han puesto a la defensiva: Tuvo que pelearse con Microsoft por los resultados de Bing, tuvo que mostrar resultados del buscador del año 2001 para demostrar que ahora todo ha mejorado.

Adicionalmente, se ha anunciado que ya se han hecho mejoras en los algoritmos para penalizar granjas de enlaces, y que pronto también atacarán a las granjas con contenido de baja calidad. Uno de los ejemplos más conocido son los sitios de DemandMedia, por ejemplo eHow, que usando algoritmos para predecir las tendencias sobre cuales serán temas de moda en Internet, inspiran a sus autores freelance para crear contenido que luego genera grandes ingresos por la publicidad insertada en sus páginas.

Pero no todo queda ahí: Ahora Google acaba de publicar una extensión para Chrome para que el usuario pueda bloquear sitios en los resultados del buscador. Hace ya algún tiempo, los resultados del buscador mostraban un sistema de valoración para que los usuarios puedan dar su opinión, pero esta opción desapareció poco después. Parece que este sistema no ayudo a mejorar la calidad de los resultados. Según Google, los datos de esta nueva extensión serán usados para penalizar sitios web.

Por lo que parece, Google ya no tiene armas tecnológicas para combatir a los malos manipuladores del buscador y ahora está apostando por la valoración social. Solo queda esperar que esta nueva idea no abra una puerta para combatir a la competencia…

Sobre cómo están ordenados los resultados de la función site: en Google

Hace varios años atrás la función site: del buscador de Google era una buena fuente de información para conocer el numero de páginas indexadas de un sitio web. Analizando estos resultados, también se podía averiguar si un sitio web había sido penalizado o no.

En el transcurso del tiempo y debido a los grandes cambios de los algoritmos de Google, la función site: mostraba al último resultados aproximados, pero nada fiables. Por este motivo los SEOs y webamasters ya no dan mucha importancia a estos resultados. En su remplazo, por ejemplo ahora usan los valores de Google Webmaster Tools.

Pero a mediados de Noviembre 2010 sucedió lo inesperado: La función site: comenzó nuevamente a mostrar un numero de páginas indexadas que se aproxima bastante a la realidad. Posiblemente algunos ingenieros de Google se han dignado a actualizar esta función y adaptarla a la nueva infraestructura Caffeine. Así pues, site: es nuevamente una función interesante de la que se puede obtener informaciones para analizar el estado de salud de un sitio web.

Y justamente en la nueva serie de vídeos de Google Webmaster Central, Matt responde a la pregunta de cómo están ordenados los resultados que aparecen en el comando site:

Según Matt se trata de un orden con diferentes parámetros: Él menciona que es un poco de PageRank, también dice que las URLs más cortas aparecen en las primeras posiciones, y también aquellas páginas que se encuentran cerca de la página principal…

Cómo evitar contenido duplicado entre una web y su versión móvil

Cómo ya es conocido, cuando los algoritmos de Google encuentran el mismo contenido en varias páginas, tratan de encontrar el original qué es indexado en la «posición correcta» – según el algoritmo – y las otras páginas son penalizadas y por eso aparecen mucho más abajo en el indice.

Pero ahora con el boom de los smartphones y el Internet móvil, muchos sitios webs tienes 2 versiones de su contenido: La versión principal y la versión móvil.

Ahora bien, cómo maneja Google esta situación? Justamente esa es la pregunta que hace Biznick en Google Webmaster, y la respuesta la presenta Matt Cutts en el siguiente vídeo

Y además se hace una referencia a la siguiente nota:  ayuda a Google a indexar tu sitio wéb para móviles (en ingles).

En resumen, Matt menciona que cuando el Googlebot normal visita tu web, se debe presentar los resultados normales. Pero cuando aparece el Googleboot para el buscador móvil, se le debe presentar la versión móvil. Es decir una especie de cloaking.

Otra forma de evitar la indexación de contenido duplicado es colocar la versión móvil del sitio web, en un subdominio, como por ejemplo m.mi-sitio.com.

La respuesta en el vídeo no es muy clara por lo que quedan muchas dudas al respecto.

Actualmente existen 2 tipos de móviles: los antiguos que tienen browsers sencillos y un poco primitivos que no permiten navegar cómodamente por un sitio normal. Por este motivo, es mejor presentar a estos móviles una versión mucho más simple del sitio web.

Por el otro lado están los smarphones o móviles nuevos como el iPhone y los Android. Sus browsers permiten navegar por casi cualquier página normal sin ninguna dificultad y ya no es necesario la presentación de una página especial. Aunque siempre es recomendable tener una versión móvil para que el contenido pueda ser visualizado con mucha más facilidad.

La mejor posibilidad de tener las dos versiones (principal y móvil) es el uso de plantillas o templates (CSS/HTML) para cada una de las versiones, de modo que dependiendo del useragent del requerimiento HTTP del browser, se pueda devolver una de las 2 versiones aunque se trate de la misma URL.

Pero OJO: Esto podría ser visto por Google como cloaking. Es decir el servidor web devuelve diferentes resultados a diferentes requerimientos. Aunque parece que Google en esta situación no lo está considerando como cloacking.

Resumiendo: Para evitar la indexación de contenido duplicado de un sitio web con 2 versiones, se debe proceder de la siguiente manera:

1. Devolver a los diferentes Googlebots la versión correspondiente.

2. Usar subdominios, como por ejemplo m. para la versión móvil o usar plantillas (CSS/HTML) para cada versión.

Seguramente todavía habrán bastantes novedades en este año en lo que se refiere a este tema.