Search Menu

Compte-rendu du Seocamp’us Lille 2014 (Partie 1)

Le 5 décembre 2014, l’association SEO Camp avait mis les petits plats dans les grands pour ce Seocamp’us de Lille 2014 en accueillant la petite troupe des 120 participants à l’espace Inkermann-Châtillon.
J’avoue que la configuration de la salle un peu atypique (en forme de L) m’a mis un gros doute sur le moment. Mais finalement, le double rétroprojecteur totalement high-tech (enfin, je crois) a bien rempli son office en permettant à tous de suivre les conférences sans difficulté. L’événement, qui était bien entendu filmé, était également diffusé en direct via Ustream. La classe américaine, comme on dit.

Ci-dessous, la première partie de mon petit compte-rendu.

1 – Les techniques encore utilisées pour déjouer les algorithmes de Google

Roland Debrabant & François Bontemps de chez Open-Linking ouvraient le bal avec un passage en revue assez complet des techniques encore de mise pour déjouer l’algo de Google. On a commencé gentiment avec des techniques parfois un peu blackhat sur les bords mais pas illégales pour autant.

Ce dont nous avons pu profiter, en vrac :

  • Du Code ASCII dans les meta description
  • De l’addition de notes de chaque produit pour un affichage de note globale totalement faussé (ex de sammydress.com)
  • Des textes à trous remplis automatiquement pour de la génération de contenu rapide
  • Des liens cryptés en javascript pour empêcher les robots de passer, à condition d’y aller fort sur le cryptage néanmoins
  • Des redirections 301 : faire gagner du poids à des pages qu’on va par la suite renvoyer en 301 vers la page principale
  • Du raccourcisseur d’url perso : On envoie un lien vers un site d’autorité (Wikipedia, par exemple) et on modifie le lien par la suite en le faisant pointer vers son propre site
  • De l’achat de noms de domaine expirés
  • De l’utilisation d’ancres dans les URLs pour permettre aux internautes d’accéder à un contenu que les moteurs ne voient pas
  • De la technique de vieux Sioux qui marche encore : le cloaking ! Le Wall Street Journal l’utilise d’ailleurs sur l’User Agent
  • Et enfin, les incontournables échanges de liens qui doivent être mis en place en sollicitant directement le webmaster/ la personne en charge du SEO. Pas besoin d’allumer le gyrophare pour alerter inutilement Google.

Petit rappel de rigueur : le profil de liens propre sur un gros site, ça n’existe pas !

On a ensuite sombré du côté obscur du SEO en évoquant des techniques carrément illégales que je vous déconseille évidemment de reproduire chez vous, même en compagnie d’un adulte.

On a aussi pu constater que le contenu spinné et pourri avait encore de beaux jours devant lui via l’illustration du classique « sac longchamp pas cher ». Celui-ci s’accompagne bien souvent du hack de sites à forte notoriété, synonyme de pages rapidement indexées. Avec un petit cloaking qui va bien, Google voit la page alors que les visiteurs tombent sur la boutique. En général, Google mettra 2/3 mois à pénaliser la page, preuve de son efficacité. Pas grave, des centaines d’autres pages du même acabit attendent sagement l’internaute un peu naïf à la recherche d’Air Max ou de sacs Vuitton pas chers.

Le duo a également évoqué une petite anecdote assez intéressante à propos de mondebarras.fr qui a vu son nombre de backlinks exploser en peu de temps, pas toujours d’une manière très futée. Au loin, un corbeau croasse, le spectre du Negative SEO survole la salle, laissant derrière lui circonspection et silence gêné (j’avoue avoir quelque peu romancé ce passage). EDIT du 11/12/2014 : le site en question s’est fait pénaliser. Il sera intéressant de suivre l’affaire pour voir si une campagne de Negative Seo est effectivement à l’origine de cette situation.

La conclusion de François était d’ailleurs que Google serait logiquement contraint de revoir sa stratégie face au Negative SEO en annulant l’effet des mauvais liens au lieu de les pénaliser comme actuellement.

Les slides de la conférence :

2 – Comment le SEO est devenu un enjeu stratégique chez OVH

Aussi étrange que cela puisse paraître, OVH, pourtant 3ème hébergeur mondial… ne faisait pas de SEO, il y a encore 2 ans ! C’est Rémi Bacha, l’actuel SEO Manager du groupe qui nous l’apprend.
Un quotidien qu’on imagine pas forcément des plus simples quand on a été recruté pour remettre sur les bons rails les 90 sites du géant français qui regroupe 8 marques parfois organisées d’une manière radicalement différente.

Prendre en compte les objectifs de chacun, évangéliser les équipes sur les nécessités d’intégrer le SEO au plus tôt dans les projets, humaniser le SEO en interne en se servant des chiffres, autant de missions qui rythment le quotidien de Rémi. D’autant qu’avec des sites d’âge parfois plus que respectable (12 ans pour les plus anciens), il faut parfois tout recommencer depuis le début.

Autre (grosse) problématique : adapter les contenus à chaque pays. Après quelques tâtonnements, Rémi aura finalement choisi de former les traducteurs à la recherche de mots clés pour leur permettre d’adapter eux-mêmes les produits d’OVH à la culture locale. Une bonne initiative qui profite à tout le monde !

Bref, Seo Manager chez OVH, c’est un sacré challenge. En tout cas, je tire mon chapeau à Rémi pour tout ce qu’il a déjà réussi à mettre en place depuis 2 ans.

3 – Les pénalités en SEO : Cas concrets pour sortir gagnant

Ce fut au tour de Julien Ringard et Guillaume Robbe de Digimood de venir nous parler pénalités.
Après un bref rappel de la différence entre pénalité algorithmique et pénalité manuelle, deux cas concrets ont été abordés avec deux stratégies différentes qui ont déjà donné de bons résultats.

Dans le cas d’une pénalité algorithmique, on va chercher à combler le manque à gagner pendant toute la durée de la pénalité en trouvant d’autres leviers qui rapportent : newsletters, affiliation, Adwords, etc. Parallèlement, une stratégie du site revue et corrigée, en développant son linkbaiting et en travaillant sa longue traîne.

Avec une pénalité manuelle, on met en place des mini-sites brandés pour monter rapidement sur des tops requêtes en lieu et place du site pénalisé. Pendant ce temps, on fait en sorte d’identifier un maximum de liens de mauvaise qualité en utilisant tous les outils disponibles en pondérant avec ce que nous ressort Google Webmaster Tools. Attention : Un vieux lien pourri reste un lien pourri, Google ne connait pas la notion de prescription.

Il faut également partir du principe que la première demande de réexamen ne va pas aboutir et récupérer le maximum d’infos sur chaque lien dès le début. Dans le cadre d’une demande de réexamen, Julien a carrément partagé un Google Doc pour y lister d’une manière transparente ses différentes actions, histoire de montrer sa bonne volonté à Google.

L’idéal serait évidemment d’être clean dès le lancement du site mais peu de sites anciens peuvent se targuer de posséder un historique irréprochable. Si le site n’est pas encore pénalisé mais qu’il y a un gros risque qu’il le soit, on essaiera de rééquilibrer la balance en mettant en place des liens plus qualitatifs.

Et de rappeler une règle de bon sens que certains oublient : si vous avez l’intention de demander une suppression de lien à un webmaster ou un autre SEO, n’oubliez pas de lui demander poliment.

Les slides de la conférence :

-> Deuxième partie du compte rendu

-> Troisième partie du compte rendu

-> Quatrième (et dernière) partie du compte rendu

A découvrir, les autres résumés sur l’événement