Search Menu

Compte-rendu du Seocamp’us Lille 2014 (Partie 4)

Eh oui ! Toutes les bonnes choses ont une fin. Et ce n’est pas cette dernière partie de compte-rendu sur le SEOCamp’us Lille 2014 qui dérogera à la règle. Dans cette 4ème et ultime partie, on abordera la notion de signaux faibles, les évolutions sémantiques de Google et le parcours d’un entrepreneur d’un genre plutôt atypique.

10 – SEO et signaux faibles

Ayant eu la chance de suivre il y a quelques semaines la présentation de son nouvel outil Seobserver via Google Hangout, j’attendais l’intervention de Kevin Richard avec une réelle impatience.

Kevin a commencé par définir les signaux faibles comme des informations qui vont annoncer un changement de tendance, un peu comme un bout de glace à 1km, annonciateur de l’approche imminente d’un Iceberg, pour reprendre sa métaphore.

La création de Seobserver s’est fondé sur 5 observations :

1/ La veille concurrentielle est fondamentale pour gagner la première place. Mais rien n’est acquis : une fois à la première place, il faut toujours garder un oeil sur les prétendants au trône.

2/ Beaucoup de SEO ne font que se regarder le nombril et, de ce fait, n’apprennent rien sur le contexte. C’est pourtant le contexte qui détermine la SERP de demain. Parvenir à monitorer cela, c’est avoir dix coups d’avance sur la concurrence.

Un principe parfaitement illustré par le fameux trust des sites d’infos sur la thématique « plug anal », il y a quelques mois. Sans contexte, il aurait été impossible d’en comprendre les raisons.

3/ Il faut anticiper suffisamment. Quand on constate qu’un concurrent nous a dépassé, c’est en général déjà trop tard. Nécessité également d’étudier les backlinks vs. les positions, sur une grande échelle (idéalement 6 mois).

4/ Ce qui est trop compliqué n’a pas d’utilité. Dit autrement, trop de data tue la data. Il faut donc avoir accès à l’info essentielle au moment où on en a besoin.

5/ Mettre en place une surveillance globale, c’est accéder à une meilleure compréhension de ce qu’il se passe.

11 – Les améliorations « sémantiques » de l’algorithme de Google

Fasciné comme je le suis par le traitement automatique des langues, il ne m’est jamais désagréable de m’entendre conter des histoires de lemmes et de syntagmes au pays des langues flexionnelles.

La présentation de Philippe Yonnet avait pour objectif de passer en revue l’évolution du traitement du contenu par l’algorithme de Google, un aspect trop peu connu des SEO, au goût du fondateur du SEOCamp.

Les grosses améliorations mises en place depuis 1998 furent :

L’utilisation de l’indice de similarité, encore utilisé aujourd’hui, avec un modèle de « sac de mots ». Le moteur ne faisait alors pas du tout attention aux sens des mots.

En 2003 apparaissent les principes de stemming et d’expansion de requête sur la racine du mot. Plutôt efficace en anglais, cette technique n’était toutefois pas adaptée au français qui est une langue flexionnelle. Notre belle langue aura donc droit à la lemmatisation. Cependant, la logique de mot clé, c’était bien beau mais il fallait bientôt trouver un moyen d’aller encore plus loin.

Vint alors l’ère du syntagme triomphant durant lequel le groupe de mots « Président des USA » pu enfin retrouver son entière signification. Google commença également à piocher parmi des syntagmes équivalents (« Président des Etats-Unis« ) pour répondre aux requêtes des internautes.

A chaque avancée son lot de nouveaux défis : Le mot clé « jaguar » que recherchait notre vaillant internaute était-il un animal ou une voiture ? Son moteur de recherche préféré semblait encore incapable de lever cette ambiguité afin de lui apporte la réponse tant désirée. Il fallait chercher un moyen de désambiguiser la requête. Pas simple du tout, même si certains éléments contextuels apportent quelques précieuses informations : l’historique de recherche, les données personnelles, la géolocalisation.

D’autres avancées viendront ajouter une nouvelle sur-couche d’informations : l’analyse de la phrase via le traitement du langage naturel, la reconnaissance des entités nommées (au-delà des mots, existent des objets dans la vraie vie). Exemple de « Ice Cube » qui renvoie sur des résultats en rapport avec le rappeur plutôt que sur le glaçon. Pourquoi ? Parce que la potentialité que vous recherchiez le premier plutôt que le second est maximale !

Google entend aujourd’hui comprendre l’intention derrière la requête, en analysant au préalable le type de requête : navigationnelle (« iphone« ), transactionnelle (« iphone cheap« ) ou informationnelle (« iphone hack« ), un dernier type de requête qui représente plus de 80% des recherches sur le moteur. L’algorithme s’adapte alors à cette typologie en fournissant une page de résultats plutôt orientée sur la fraicheur de l’information (QDF) ou plutôt sur la diversité des résultats (QDD). Si la requête est trop ambigüe, Google aura tendance à privilégier la seconde solution, histoire de contenter tout le monde.

Philippe a ensuite abordé la notion d’indexation des concepts (quel est le concept associé à la requête ?) représentée par la fameuse mise à jour Colibri, censée apporter plus de pertinence dans les résultats de recherche. Le petit oiseau a néanmoins besoin d’une requête formulée en langage naturel pour pouvoir faire son boulot convenablement. Bien évidemment, inutile de rappeler que le fameux Knowledge Graph s’inscrit également dans cette tendance à l’accumulation de concepts et d’entités nommées.

Les prochaine étapes ?

  • Le Knowledge Vault, qui multipliera par 50 les données exploitées par Google
  • La recherche conversationnelle, déjà active aux USA, qui permet de répondre à une série de questions en « gardant en mémoire » le sujet initial ou qui précède la question, via le traitement des co-références.
  • Google Now, qui fait du « prédictif » en se basant sur les infos récoltées sur l’internaute. Néanmoins, Philippe nous apprend qu’on ne joue clairement pas dans la même cours qu’Amazon dont l’algorithme prédictif semble bien plus avancé et complexe.

12 – Témoignage d’un entrepreneur atypique

Il est toujours intéressant d’écouter l’histoire d’un entrepreneur parti de rien et, parvenu, à force de travail et d’acharnement, à réaliser ce qu’il avait en tête. Cette histoire, c’est celle de Rudy Som.

Nous avons donc eu le droit à une conférence à la TED, un peu en roue libre. Ce n’est pas plus mal car c’est souvent de ces numéros d’équilibristes que ressortent les images les plus inspirantes.

On n’en doutait pas spécialement, mais Rudy nous explique qu’il a beaucoup (beaucoup) bossé pour en arriver là, parce qu’il en avait marre de la vie qu’il menait. Lui qui se définit comme un fainéant, ce ne sont pourtant pas les journées de 9h00 à 17H30 qui ont rythmé et rythment encore son quotidien. Un quotidien fait d’implication, d’inspiration et de nombreuses erreurs, desquelles il a eu tout le loisir d’apprendre (et avec ses milliers d’erreurs – ce n’est pas moi qui l’invente – Rudy doit être un expert dans son domaine !).

Alors que beaucoup rêvent d’automatisation à outrance, Rudy a choisi quant à lui de faire le chemin à l’envers en passant des robots aux humains. 97 âmes pour être exact, dont la moitié située en France et l’autre moitié au Maroc.

Enfin, je retiendrai un conseil qui m’a plutôt surpris sur l’instant mais qui, après réflexion, fait sens : il faut s’entourer de personnes différentes de soi. « Pas trop différentes, ou tout du moins partageant des valeurs communes », aurais-je tout de même tendance à nuancer ; )

C’était finalement une bonne idée que de clore ce SEOCamp’us Lille 2014 sur cette note un peu alternative. De toute façon, les cerveaux avaient clairement trop chauffé pour affronter une 12ème conférence plus classique.

OUCH ! J’ai enfin terminé ce compte-rendu sans doute un peu trop long, je l’admets. Mais un compte-rendu qui, je l’espère, en aura intéressé certains. C’était mon deuxième SEOCamp’us et j’ai vraiment été impressionné par le niveau global des interventions. Certaines m’ont véritablement passionné.

Il me reste à tirer mon chapeau à Aurélien Bardon et à sa joyeuse équipe pour l’organisation vraiment impeccable de ce SEOCamp’us de Lille. Quant à l’apéro qui suivait, je me contenterai de signaler aux amateurs que le Taberna Latina (situé à Lille, donc) propose d’excellents Mojitos 😉

-> Si vous prenez le compte-rendu en route, voici la première partie