Facebook y su nuevo algoritmo

Facebook cambia las reglas del juego


por Redacción | 5 febrero, 2016

El Feed Quality Panel controlará a partir de ahora el contenido de la red con el fin de luchar contra el click fácil.

La noticia nos llegaba esta semana. El gigante de Facebook modificaba su algoritmo para evitar el “click fácil” como tráfico de conversión. Parece que la compañía ha plantado cara a los clickbait o “contenidos anzuelo” con el fin de acabar con los títulos sensacionalistas llenos de contenido vacío. Y esto para las consultoras como Promora, que utilizamos las RR.SS y las plataformas digitales para la difusión de contenido, siempre es una buena noticia.

¿Acaso no nos ha pasado a todos en algún momento abrir un artículo con titular gancho y descubrir que el contenido no merece la pena? Mentiras, verdades a medias y en el peor de los casos contenido escaso y nulo que no nos dice nada.

Algunos titulares fáciles que son carne de cañón de los clickbait pueden ser las recopilaciones varias, los montajes fotográficos de personas conocidas, los listados enumerados de lugares insólitos que visitar… estas acciones han sido utilizadas repetidamente entre muchos Community Manager, que tras comprobar que los títulos fáciles venían cargados de conversiones altas de visitas, comenzaron a utilizarlos como medio para ganar seguidores, clicks y por tanto posiciones entre la competencia. Y es que entre todos es sabido que, un hábil manejo de las RR.SS  es directamente proporcional a un aumento de tráfico SEO (Search Engine Optimization), algo demasiado valioso para dejarlo escapar.

Ante la avalancha de quejas que Facebook ha ido recibiendo de la plataforma social más grande del mundo, la compañía ha decidido penalizar las malas prácticas y premiar al contenido de calidad, ese que hace que el usuario tenga una lectura satisfactoria con lo esperado.  En su nota de prensa oficial han expuesto la realidad del problema y las soluciones a poner en práctica si no queremos que nuestras publicaciones se resientan a partir de ahora.

Y es que no es raro que Facebook haya dado importancia a este parámetro cuando otro grande del paradigma digital ya lo ha hecho con anterioridad: Google. Si en los comienzos la empresa tecnológica también tenía problemas para diferenciar las publicaciones de calidad frente a los contenidos basura, bien hay que decir que poco queda de ese problema. Sus sistemas robotizados se han convertido en infalibles para detectar cualquier contenido probre y descentralizado.

Hablamos de un potente robot de rastreo web capaz de organizar, a modo de índice, cada contenido y actualización que se genera en Internet. Un rastreo cada vez más humano que no sólo distingue si el contenido está relacionado con el título, sino también , si utiliza sinónimos, frases bien construidas, enlaces de calidad, contenido duplicado o copiado…

Lo que está claro es que, tendremos que esperar para conocer si Facebook ha decidido cambiar las reglas del juego por beneficio a su comunidad o por repetir los pasos del gigante Google en busca del mismo respeto mundial.

 

 

Etiquetas :