Para combatir la proliferación de bulos en línea, Google desarrolla «Knowledge-Based Trust», un algoritmo especial contra los bulos: ¿cómo funciona?
Tiempo de actualizaciones en casa de Google, estrechamente ligadas a los resultados de búsqueda propuestos por el motor.
De hecho, se sabe que el personal que trabaja día a día para proponer los mejores resultados de búsqueda a las peticiones de los internautas está trabajando en un nuevo algoritmo.
Parece que este último va a ser propagado a la brevedad, para proporcionar respuestas cada vez más pertinentes y, sobre todo, cada vez más exactas.
Se trataría de un algoritmo «antibulo», capaz, por tanto, de alguna manera de evaluar la fiabilidad de la información y las nociones contenidas en una página específica y, más en general, en un sitio.
Si hasta hoy el buen posicionamiento en SERP se ha basado principalmente en una serie de factores, entre los que destacaba la cantidad de enlaces entrantes y el número de comparticiones de una determinada página, en el futuro Google podría servirse de nuevos parámetros para actualizar los resultados de búsqueda.
La guerra a los sitios que buscan clics fáciles ya ha comenzado y no solo por parte de Google: también en Facebook se ha intentado introducir una herramienta para limitar la visibilidad de todas aquellas páginas que, utilizando títulos sensacionalistas o «llamativos», inducen a los usuarios a buscar más información, entrando así en una página que de hecho no contiene ninguna noticia de valor.
Así, en los laboratorios de Google se está poniendo a punto el algoritmo con el nombre «Knowledge-Based Trust»: se basará en el Knowledge Vault, una base de datos que contiene una cantidad de datos increíblemente vasta.
En este enorme archivo virtual se han catalogado, a lo largo de los años, sitios y páginas consideradas por Google como fuentes fiables.
El nuevo algoritmo irá, por tanto, a cruzar la información reportada en una determinada página con este archivo en constante actualización, para realizar una estimación de la veracidad del sitio mismo que se está «analizando».
Cuanta menos información errónea parezca haber, más crecerá automáticamente la fiabilidad de un sitio; esto irá a integrar la lista de los otros parámetros en los que se basa el posicionamiento en SERP, proporcionando así un nuevo criterio de evaluación de tipo cualitativo y no solo cuantitativo (basado solo y únicamente en los enlaces entrantes).
Un cambio de paradigma relevante que ciertamente podría no escapar a errores incluso groseros.
Sin embargo, su aplicación aún está por evaluar.

Sé el primero en comentar