Algoritmos para posicionamiento Web

Autor: Ales Gutierres

Tecnología e internet

20-02-2013

El acelerado avance de los asuntos relacionados con el posicionamiento Web no afloja. Sin embargo, y por eso hablo casi con sorna, un alto porcentaje de sitios online, llámeseles empresas o Webs, siguen tan tranquilos.

La necesidad está servida: democratizar Internet

Estos años están siendo vertiginosos para los webmasters, o por lo menos para los que nos ocupamos del SEO y demás bestias actualizadas del nuevo marketing. El marketing como tal muere para dar paso a una serie de divergencias, convergencias y tendencias. Decenas de nuevos puestos laborales surgen también. En la búsqueda de información más relevante con el fin de potenciar el posicionamiento de nuestros productos, marcas, vamos, nuestros clientes; en este diario maremágnum de información, se siguen desarrollando nuevas técnicas, tácticas, herramientas, pero también estratagemas.

A nosotros los webmasters 2.0 nos falta tiempo para estudiar, programar e implantar los nuevos procesos, para regenerar los que traemos, mucho, mucho trabajo nos ocupa en el SEO y demás.

Los geeks del carácter SEO y el posicionamiento debemos cumplir también, y lo queremos, con la parte de la documentación, si, a pesar de que no tengamos tiempo, pues nuestros clientes solo desean que les pongamos “long tails y backlinks las 24 horas”; entonces nos vemos abocados a usar las raudas silenciosas madrugadas en editar el valor técnico agregado: “documentación”. ¿Y para quién? Quizá para los webmasters más neófitos, los aprendices y los curiosos, pero sobretodo, para el ancho estómago de información de Internet:

Paisaje que se divisa en el corredor del último quinquenio del SEO. Variaciones en los algoritmos:

  • En 2009 el algoritmo Vince genera cambios entonados en la mejora de los resultados hacia las marcas y hacia las Webs con la mejor reputación.
  • En 2010 el algoritmo Mayday plantea cambios enrutados a la mejora de las calidades del “long tail”
  • En 2010 el Caffeine trabaja en las mejoras de la velocidad de rastreo.
  • En 2011 el Panda comienza a penalizar las Webs con contenidos copy/pega o muy escasos.
  • En 2011 el Freshness premia las Webs que planteen contenidos más actualizados.
  • En 2012 el Penguin comienza a penalizar las páginas web con vínculos entrantes malos (observa la calidad del enlace, el anchor text y las técnicas de Blackhat)
  • En 2012 el algoritmo Venice le da más importancia a los resultados locales.

En medio de estos cambios principales de los algoritmos, han habido decenas de pequeños ajustes más. Sobre todo desde 2011, se podrán imaginar los saltos que habrá habido en los resultados.

Es aconsejable estar pendiente de los cambios, pues los errores pueden quitarnos muchas posiciones en los resultados, hoy día que los clientes están aprendiendo a exigir en aspectos más técnicos.

Ales Gutierres - ales@alesgutierres.es

Community manager, Content strategist y webmaster SEO en Cali y Barcelona. Redactor de contenidos Web y corporativos.

Comentarios
comments powered by Disqus

Nuevas publicaciones

⇐ Hazte Fan en Facebook
⇐ Síguenos en Twitter
⇐ Agréganos en Google +
⇐ Suscríbete vía Email
"Si tú tienes una manzana y yo tengo una manzana e intercambiamos las manzanas, entonces tanto tú como yo seguiremos teniendo una manzana. Pero si tú tienes una idea y yo tengo una idea e intercambiamos ideas, entonces ambos tendremos dos ideas"
George Bernard Shaw
Comparte conocimiento
Contenidos publicados con licencia CC BY-NC-SA 3.0 a excepción de los casos en los que se indican derechos de autor específicos. Sugerimos contactar a los autores al usar material públicamente.