Aller au contenu principal
Google webmaster trends analyst Gary Illyes

Gary Illyes vous invite à revenir aux bases du SEO

Gary Illyes est un porte-parole de Google. Récemment, il s’est confié aux internautes sur le réseau social Reedit. Pendant une séance de Questions-Réponses (plus communément appelées AMA Ask Me Anything), il a révélé de nouvelles informations concernant le fonctionnement du moteur de recherche et les performances de Rankbrain, l’intelligence artificielle qui traite les requête des internautes. Les déclarations de Gary Illyes brisent certains mythes et confirment aussi que le succès d’une campagne SEO ne dépend pas de ces facultés à pouvoir appréhender une technologie opaque… Décryptage !

RankBrain est votre ami

L’intelligence artificielle de Google a été développée pour mieux interpréter les recherches réalisées par les internautes. Le système est plus performant qu’un algorithme classique. Rankbrain s’appuie sur une technologie d’apprentissage et un historique de qui lui permettent de prédire des intentions de clic sur une nouvelle recherche.

RankBrain is a PR-sexy machine learning ranking component that uses historical search data to predict what would a user most likely click on for a previously unseen query.

Le taux de clic est un mythe et c’est officiel

Gary Illyes est plutôt virulent avec Rand Fishkin, co-fondateur de Moz et expert en SEO. Il déclare que ses théories sur le taux de clic ne sont que des élucubrations et que cette suranalyse est inutile.

Dwell time, CTR, whatever Fishkin’s new theory is, those are generally made up crap. Search is much more simple than people think.

Il y a quelques mois de cela, John Mueller (Webmaster Trends Analyst et remplaçant de Matt Cutts chez Google) s’était déjà fendu d’un tweet ironique concernant l’impact de cette métrique développée par Moz. D’une manière générale, on a bien compris que Google n’était pas particulièrement impressionné par la technologie développée par Rand Fishkin and co.

Google rages against the machines

Le géant du web pénalise les sites internet qui proposent du contenu généré automatiquement car il est utilisé pour manipuler les SERP. Gary Illyes évoque des avancées technologiques qui peuvent désormais permettre d’améliorer la manière d’écrire du contenu, de le rendre plus original et donc, conforme aux exigence de l'internaute.

If you can generate content that’s indistinguishable from that of a human’s, go for it. I’m actually planning to write something up on how to use Machine Learning for SEO.”

Make image & video search great again… Again

Google planche sur une version optimisée de la recherche « media ».

We simply know that media search is way too ignored for what it’s capable doing for publishers, so we’re throwing more engineers at it as well as more outreach.

Sur mobile, la recherche images est criblée d’options inutiles alors que la recherche vidéo est dénuée de filtres permettant d’affiner sa sélection… Gary Illyes a raison, il y a de nombreuse améliorations à entrevoir afin de proposer une expérience utilisateur bonifiée.

Suroptimisation du maillage interne et pénalités

Voici un autre mythe égratigné par Gary Illyes.

Internal linking is good. Internal linking by using keyword-rich anchor text is bad.
Neil Patel

Dites (enfin) adieu aux spéculations d’experts et revenez aux bases du SEO qui consistent à optimiser la crawlabilité de votre site internet (Gary Illyes le suggère aussi).

you can abuse your internal links as much as you want AFAIK.
Gary Illyes

Robots.txt 

Le fichier robots.txt est un fichier texte qui est placé à la racine de votre site internet. Ce fichier transmet des instructions aux moteurs de recherche et lui indique ce qui doit être indexé ou non. Quand il est bien configuré, le fichier robots.txt devient un véritable rempart face aux robots d’exploration : il restreint les droits d’accès à Google et empêche l’indexation de fichiers sensibles.

Gary Illyes a mis fin aux rumeurs qui concernent la prise en charge (aléatoire) de ce fichier et l’interprétation des données qui lui sont associées :

Robots.txt is respected for what it’s meant to do. Period. There’s no such thing as ‘sometimes can be ignored

Et pour finir, here comes Google Pornyness…

Le porte-parole de Google a aussi été questionné à propos des facteurs de référencements additionnels qui pourraient être pris en compte dans un processus d’indexation. La réponse de Gary Illyes (empreinte d’humour) a interpellé les internaute car un nouveau facteur de référencement a été nommé : Pornyness !

Country the site is local to, RankBrain, PageRank/links, language, pornyness, etc.

L’emploi de ce terme a suscité beaucoup d’interrogations et depuis quelques jours, les posts qui concernent ce pseudo algorithme abondent sur la toile. Je pense qu’en utilisant le terme Pornyness, Gary Illyes a voulu évoquer l’attractivité du site internet. Google anticipe les attentes des internautes et souhaite que le site internet apporte une véritable valeur ajoutée à la recherche. Si RankBrain s’appuie sur des données publiques pour proposer de nouveaux résultats, ceux pris en compte doivent refléter une certaine qualité… D’où l’emploi de ce terme assez décalé.

Page Builder
Web design et SEO

J’ai toujours milité pour une expertise SEO exempte de ce florilège d’élucubrations techniques. Les stagiaires qui assistent à nos formations en référencement naturel le savent… La toile pullule d’informations qui mettent en péril les véritables objectifs d’une stratégie de référencement : en bâtissant votre propre réputation, vous envoyez des signaux à Google. Inutile d’exploiter des techniques de suroptimisation et de sombrer dans la suranalyse pour comprendre que ce sont bel et bien ces signaux qui valorisent votre présence en ligne et votre classement dans les SERP.

Matt Cutts, responsable de la Google Webspam team jusqu’en 2014, a souvent expliqué ce qui fait la qualité d’un site internet.

By doing things that help build your own reputation, you are focusing on the right types of activity. Those are the signals we want to find and value the most anyway.

La démarche de Google n’a jamais changé. Le travail réalisé par le géant américain s’inscrit dans une continuité et consiste à déployer des moyens de techniques qui permettent de mieux traiter l’information et l’interprétation qui peut en être faite par l’internaute. Grâce aux AMA organisés sur Reedit et aux fameux Google Webmaster Hangouts, la communauté SEO obtiens de données viables qui permettent d'améliorer les techniques de référencement.

Commentaires