Mise à jour BERT de Google: le plus grand changement d’algorithme de Google depuis des années

 

Présentation de la mise à jour de Google BERT
Toute la discussion dans l’arène SEO concerne la mise à jour Google BERTrécemment annoncée . Comme les autres mises à jour de l’algorithme de Google, il y a un peu de confusion parmi les SEO concernant l’impact de ce que Google appelle le plus grand changement dans son algorithme au cours des cinq dernières années.
L’annonce officielle de Google indique que l’algorithme BERT (Bidirectional Encoder Representations from Transformers) est une technique basée sur un réseau de neurones pour comprendre le langage naturel. Cela semble déroutant, non? Mais le concept est assez simple.
Qu’est-ce que le modèle NLP BERT?
BERT est un modèle de traitement du langage naturel (NLP) pré-formé open-source développé par Google qui est capable d’interpréter l’intention et le contexte de la requête de recherche en fonction de la relation de l’expression de recherche entière. Le modèle BERT essaie de comprendre le contexte d’un mot sur la base de tous les autres mots environnants, ce qui rend les résultats de recherche des requêtes conversationnelles plus précis.
Voici un exemple du modèle BERT:
Surtout, BERT rejoint le club d’élite de Google des algorithmes d’apprentissage machine qui apprennent à mesure qu’ils rencontrent de nouvelles informations.
Les capacités de compréhension du langage de BERT donneront aux utilisateurs de meilleurs résultats qui satisferont leur intention réelle.
Étant donné que l’intention de l’utilisateur est davantage basée sur l’intérêt personnel généralement alimenté par des requêtes complexes ou conversationnelles, il est difficile pour les moteurs de recherche comme Google d’interpréter l’intention souhaitée.
Selon Google, la raison pour laquelle les gens utilisent la chaîne de requête complexe est due à la crainte que les moteurs de recherche ne comprennent pas les requêtes autrement conversationnelles. Cependant, avec la mise à jour Google BERT, le géant des moteurs de recherche tentera de combler cette lacune spécifique.
Google BERT utilisera le traitement linguistique bidirectionnel au lieu des modèles traditionnels de traitement linguistique de gauche à droite et de droite à gauche. Contrairement au traitement de langage bidirectionnel superficiel qui va de gauche à droite et de droite à gauche, BERT utilise un modèle de langage masqué plus sophistiqué qui essaie de comprendre la relation entre chaque mot et l’autre.
Google a maintenant intégré BERT à son traitement du langage naturel pour fournir la meilleure représentation contextuelle de chaque mot, pas seulement le contexte gauche ou droit.
Regardez cette vidéo Meetup de Danny Luo expliquant les aspects techniques de Google BERT
Algorithme BERT: impact sur la recherche vocale
La recherche vocale est sans aucun doute la prochaine grande chose dans le monde du référencement et sur Internet. Google a poussé les fonctionnalités axées sur les assistants vocaux au cours des dernières années, et BERT peut être considéré comme le dernier.
L’annonce indique que la mise à jour de l’algorithme BERT est le fruit d’années de travail acharné de l’équipe de recherche linguistique dans le cadre de son département d’apprentissage automatique. Google affirme que le BERT marque une étape importante dans la recherche, car il s’agit du plus grand bond en avant de l’entreprise dans toute son histoire.
Avec l’avènement des recherches vocales et des dispositifs d’assistance personnelle, tels que Google Home, faisant désormais partie de la famille de tous, il existe un besoin important de meilleurs résultats de recherche contextuelle.
L’origine de l’algorithme BERT
L’origine de l’algorithme BERT remonte à 2017 lorsque l’équipe Google AI a commencé à travailler sur le projet Transformers . Le modèle de compréhension du langage Transformer développé par Google était basé sur le concept d’une nouvelle architecture de réseau neuronal.
Le concept d’une nouvelle architecture de réseau neuronal essaie de traiter les mots en relation avec les autres mots dans une phrase plutôt que l’un après l’autre.
Le concept d’encodage des Transformers a été utilisé pour formuler le modèle BERT , qui essaie de comprendre le contexte d’un mot par rapport aux mots qui le précèdent et lui succèdent.
Cela permet à Google de mieux comprendre l’intention de la requête de recherche et de fournir un résultat de recherche conforme à l’intention de l’utilisateur.
Le géant des moteurs de recherche a également confirmé que la nouvelle mise à jour de l’algorithme de recherche ne se limitait pas aux changements logiciels mais également à l’ensemble de l’infrastructure.
Pour repousser davantage les limites de la recherche, Google a introduit des TPU Cloud pour fournir rapidement des informations plus contextuelles.

In case you beloved this informative article and you wish to be given details regarding google bert kindly stop by the web page.

Le matériel traditionnel peut limiter les performances de BERT car de nouveaux processus impliqués nécessitent une technologie avancée.
Les TPU dans le cloud, également appelés unités de traitement Tensor, sont des applications personnalisées de Google qui peuvent aider à accentuer les performances des algorithmes d’apprentissage automatique.

Leave a Reply

Your email address will not be published. Required fields are marked *