Pour lutter contre la prolifération des fausses nouvelles en ligne, Google met au point le « Knowledge-Based Trust », un algorithme spécial anti-fausses nouvelles : comment fonctionne-t-il ?
Temps de mise à jour dans la maison Google, étroitement liés aux résultats proposés par le moteur de recherche.
On apprend en effet que l’équipe qui travaille chaque jour pour proposer les meilleurs résultats de recherche aux requêtes des internautes travaille sur un nouvel algorithme.
Il semble que ce dernier soit sur le point d’être déployé prochainement, afin de fournir des réponses toujours plus pertinentes et surtout toujours plus exactes.
Il s’agirait d’un algorithme « antibuf » (anti-fake news), capable donc d’évaluer dans une certaine mesure la fiabilité des informations et des notions contenues dans une page spécifique et – plus généralement – sur un site.
Si jusqu’à aujourd’hui le bon positionnement dans les SERP a été basé principalement sur une série de facteurs, parmi lesquels se distinguaient la quantité de liens entrants et le nombre de partages d’une page donnée, à l’avenir Google pourrait s’appuyer sur de nouveaux paramètres pour mettre à jour les résultats de recherche.
La guerre aux sites en quête de clics faciles est déjà commencée et pas seulement de la part de Google : même sur Facebook on a tenté d’introduire un outil pour limiter la visibilité de toutes ces pages qui, en utilisant des titres sensationnalistes ou « accrocheurs », incitent les utilisateurs à chercher plus d’informations, en entrant donc dans une page qui n’en contient en fait aucune valeur informative.
Ainsi, dans les laboratoires Google, on met au point l’algorithme nommé « Knowledge-Based Trust » : on se basera sur le Knowledge Vault, une base de données contenant une quantité de données incroyablement vaste.
Dans cette énorme archive virtuelle ont été catalogués – au fil des ans – des sites et des pages considérés par Google comme des sources fiables.
Le nouvel algorithme va donc croiser les informations rapportées dans une page donnée avec cette archive en constante mise à jour, afin d’effectuer une estimation de la véracité du site lui-même qui est en cours « d’analyse ».
Moins il semble y avoir d’informations erronées, plus la fiabilité d’un site augmente automatiquement ; cela viendra compléter la liste des autres paramètres sur lesquels repose le positionnement dans les SERP, fournissant ainsi un nouveau critère d’évaluation de type qualitatif et non plus seulement quantitatif (basé uniquement et exclusivement sur les liens entrants).
Un changement de paradigme pertinent qui ne pourrait certes pas échapper à des erreurs même grossières.
Son application reste cependant encore à évaluer.

Soyez le premier à commenter