BERT, qui signifie Bidirectional Encoder Representations from Transformers, est tout simplement la plus grande mise à jour que Google ait publiée depuis le lancement de RankBrain. Google affirme que BERT aura un impact sur 1 requête de recherche sur 10 et qu'il s'agit - pour faire simple - de sa technique de traitement du langage naturel basée sur un réseau neuronal. 

Pour faire encore plus simple, Google essaie d'améliorer la façon dont ses machines interprètent nos recherches pour nous fournir de meilleurs résultats. Il s'agit de la plus grande tentative, depuis la sortie de RankBrain, de faire en sorte que l'utilisateur n'ait plus à taper la phrase idéale et que ce soit le moteur de recherche qui fournisse les bons résultats.

Au fur et à mesure du déploiement de BERT, de plus en plus d'utilisateurs remarqueront que leurs résultats sont plus précis et que Google sera en mesure de mieux comprendre les nuances et les contextes des requêtes de recherche. L'impact sur 10 % de toutes les recherches peut sembler insignifiant, mais il l'est, car à l'avenir, il ne fera que croître.

BERT affectera bientôt toutes les recherches effectuées sur Google et, malheureusement pour les spécialistes du référencement, il n'y a pas grand-chose qu'ils puissent faire en termes d'optimisation.

D'une certaine manière, c'est une bonne chose, les sites web et ceux qui cherchent à être bien classés peuvent maintenant se concentrer sur la fourniture d'une valeur réelle à leur public cible, au lieu de s'inquiéter excessivement des mots-clés.

avatgar kawuk