Vous êtes ici

Pour bénéficier des alertes ou des favoris, vous devez vous identifier sur le site :

Vous avez déjà un identifiant sur stratégies.fr ? Identifiez-vous

Pas encore d'identifiant ? Créez vos identifiants

Le SEO : comment réussir son référencement

11/06/2009 - par Eric Maingot, expert SEO, avec Luc Vachez

Le SEO («Search Engine Optimization» ou optimisation pour les moteurs de recherche, résumé au mot «référencement» en français) est un élément central de la communication sur Internet. C'est l'art d'être vu et lu par l'audience que l'on cherche à toucher, et qui arrive sur un site en tapant un mot-clé dans un moteur de recherche. Quand on sait qu'en moyenne plus de 30% du trafic d'un site provient des moteurs, et principalement de Google (qui représente quelque 90% de part de marché), on mesure l'importance de la prise en compte des bonnes pratiques de référencement dans l'élaboration et l'animation d'un site Web.

Un bon référencement «naturel», ou organique, permettra à un site d'arriver en bonne position dans les pages de résultats affichées par le moteur en réponse à une requête donnée. Le référencement payant, quant à lui, permet un positionnement immédiat en tête des listes des moteurs, quels que soient la structure et le niveau d'optimisation du site.

 

Qu'est-ce que le référencement ?

On peut définir le SEO comme l'ensemble des actions stratégiques, commerciales et techniques qui vont permettre d'optimiser la visibilité d'un site Web par rapport aux sites concurrents. De la même façon que l'élaboration de la stratégie précède l'action commerciale, la définition de la politique de référencement précède la réalisation d'un site.

Le référencement n'est pas une «couche» que l'on passe sur un site une fois que celui-ci est lancé. Le référencement n'est pas non plus une étape finie dans la vie d'un site : pour être pertinente et efficace, l'action SEO doit être menée sans discontinuer pendant toutes les phases de la vie d'un site et en adaptation constante avec l'évolution des moteurs.

 

Idée reçue. Le référencement serait l'unique action d'indiquer aux moteurs l'adresse de son site Web, en incorporant au passage quelques mots-clés.

Faux. Cette action, appelée la soumission, n'est en réalité qu'une infime partie d'une stratégie SEO.

 

Les composantes de la démarche de référencement

La réflexion stratégique initiale relève du Web marketing, qui comprend une analyse du marché visé sur Internet, des études du positionnement des sites concurrents sur ce marché et du comportement des cibles dans leurs recherches sur le Web.

De cette étude vont découler plusieurs choix structurants pour le référencement :

-le choix des mots-clés sur lesquels o  décide de se positionner, c'est-à-dire d'apparaître dans les premières pages de résultats du moteur lorsqu'une requête est faite par un internaute sur l'un de ces mots-clés décisifs;

-le choix de la technologie : opter pour un site en Flash (qui fait la part belle a l'image animée, mais qui est mal interprété par les moteurs) ou recourir largement à Java Script (programme exécutable qui complique l'accès au contenu pour le moteur), c'est rendre les textes moins «indexables», et partant, freiner le référencement.

 

Le référencement «naturel»

Lorsque l'on cherche à optimiser le référencement d'un site -en réalité celui de chaque page-, on s'efforce de comprendre comment fonctionne un moteur comme Google quand il place «naturellement», c'est-à-dire automatiquement, telles pages d'un site devant telles autres en réponse à une requête donnée. Pour établir cette hiérarchie, le moteur combine de très nombreux critères : c'est l'algorithme du moteur, jamais figée, toujours en évolution. Quand il répond à une partie importante de ces critères, le site se voit attribuer des «points» par le moteur, qui améliore en conséquence son positionnement dans SERP («Search Engine Result Page», soit page de résultat du moteur de recherche).

Le référencement payant, avec les liens sponsorisés qui s'affichent quand sont tapés les mots-clés achetés par le site annonceur, constitue une autre façon d'arriver en première page de résultats. L'achat de mots-clés ressortit au Search Engine Marketing ou SEM.

 

Idée reçue. Pour avoir une bonne visibilité sur le Web, il faut accumuler les astuces techniques : nuages de mots-clés, multiplication de liens, balise «H» en grand nombre, etc.

Faux : bien référencer, c'est positionner des pages sur des termes identifiés avec une stratégie personnalisée dans un ensemble sémantique maîtrisé.

 

Araignées et chenilles («spiders» et «crawlers»)

Comment les moteurs «voient-ils» les contenus des sites ? De façon permanente, des robots suivent des liens, des adresses de sites ou URL (Uniform Ressource Locator) pour venir analyser le contenu et la structure des sites. Ces robots prennent tantôt le nom évocateur de «spider», l'araignée qui parcours la Toile, tantôt celui de «crawler», ou chenille qui fait le même travail de fourmi.

Ces robots peuvent prendre plusieurs semaines avant de visiter et de noter un site, et ils ne peuvent pas le faire si on ne leur indique pas le chemin : un site vers lequel ne pointe aucun lien ne sera pas visité, donc pas référencé. D'où l'intérêt à rechercher des liens entrants (qui pointent vers votre site), mais aussi à soumettre son site aux moteurs et aux annuaires, c'est-à-dire déclarer son site en donnant l'URL. Exemple d'adresses pour soumettre un site sur deux moteurs : sur Google, c'est http://www.google.fr/intl/fr/submit_content.html, et sur Yahoo, il s'agit de http://siteexplorer.search.yahoo.com/fr/free/submit.

L'inscription sur des annuaires spécialisés, en rapport avec la sémantique du site, peut être profitable, surtout si aucun lien de retour n'est demandé. Parmi les nombreux annuaires, l'Open Directory Project (http://www.dmoz.org/) est incontournable. C'est le plus grand et le plus complet des répertoires du Web, il est édité, développé et tenu à jour par un communauté mondiale d'éditeurs bénévoles.

Le robot ne se contente pas d'une visite unique, il repasse et, tantôt indexe les nouvelles pages, tantôt «réindexe» en profondeur toutes les pages connues, en vue d'en réactualiser la pondération avec son algorithme.

 

Les critères des moteurs

Chaque moteur a son propre algorithme et il n'est pas possible d'énumérer des critères universels et permanents. Ceux-ci varient en fonction, notamment, de l'évolution des usages. Néanmoins, si l'on considère le plus utilisé d'entre eux, Google, on peut estimer que plus de deux cents critères se combinent pour constituer trois grands ensembles étroitement corrélés : le contenu, la technique et les liens/la popularité.

1- Le contenu. La nature et la structuration des contenus d'un site est déterminante pour le référencement. Google fait une analyse sémantique des pages, en tenant compte par exemple de la proximité des mots appartenant à un même univers sémantique.

 

Idée reçue. Il suffit que le robot visite toutes les pages d'un site pour que celui-ci soit bien positionné dans les moteurs.

Faux. La visite du robot est la première étape, nécessaire mais non suffisante, qui assure l'identification. Le traitement par l'algorithme Google, qui va positionner la page, constitue la deuxième étape. Les dernières pages des listes de Google ont toutes bien été visitées, mais elle sont pourtant très mal positionnées.

 

2- Les critères techniques. Nombreux et hétérogènes, ils concernent par exemple le poids des pages - une page lourde et longue à charger est sanctionnée par le robot qui la visite et la note - l'environnement des serveurs, la qualité, la «propreté» et l'accessibilité du code de la page (voir les critères de normalisation du World Wide Web Consortium sur http://www.w3.org/) ou encore la structuration et la hiérarchisation des contenus.

3- Les liens. Tout ce qui touche aux liens qui relient un site à la Toile constitue le troisième ensemble de critères. Google a assis son succès, il y a plusieurs années, sur la notion de popularité : plus un site était cité, plus il comptait de liens pointant vers lui, plus il était «populaire» et mieux il était placé dans les pages de résultats. La mécanique est aujourd'hui moins simple et la qualité des liens est plus prise en compte que la quantité. Cette popularité appelée «Page Rank» (PR) correspond au «ranking» ou classement des sites par Google, de 0 à 10. Stratégies a un PR de 6, la page d'accueil du New York Times de 9.

Les liens internes, qui relient entre eux les différents contenus d'un site, sont à favoriser car ils permettent de redistribuer le poids sémantique d'une page, ainsi que le PR.

Les liens sortants sont à prendre avec des pincettes : ils peuvent eux aussi «emporter» du PR vers le site cible. Il est parfois utile d'apposer sur un lien sortant une balise interdisant au robot de suivre ce lien, la balise «no follow» (qui sert aussi à ne pas indexer du contenu qui pourrait «polluer» le Web, comme, par exemple, des conditions générales de vente).

 

Idée reçue. Plus un site compte de liens entrants, mieux il est positionné dans les pages de résultats.

Ce n'est pas tout à fait exact. D'une part, le positionnement est la résultante de tous les critères, et le «linking» n'arrive qu'en troisième position. D'autre part, des liens venant de sites n'appartenant pas à l'univers du site cible peuvent au contraire le desservir. Le site strategies.fr n'aurait aucun intérêt à voir un lien entrant venant d'un site de bricolage ou de tricot. Mieux vaut avoir peu de liens, mais très pertinents et venant de sites appréciés par Google comme dignes de confiance (les .org ou .gouv, par exemple).

 

Idée reçue. Un échange de liens réciproques avec un site partenaire va favoriser le PR.

Faux. La réciprocité va tendre à annuler l'effet. Il faut privilégier les liens uniques pointant vers son site et du même univers sémantique.

 

Idée reçue. La qualité du code et le poids de la page influent peu, seuls le contenu, les liens et la taille du site garantissent un positionnement en première page Google.

Faux. Des trois axes d'optimisation (contenus, technique et liens), on peut très bien ne travailler que les deux premiers et obtenir, certes, un PR de zéro, mais se trouver placé devant des pages ayant un PR de 6.

 

Balises et métadonnées pour un bon référencement

Quelques notions, au chapitre technique, pour construire des pages «Google friendly».

D'abord, bien choisir le nom de sa page. L'URL doit être en rapport avec le sens du contenu de la page et pouvoir être décryptée par le robot. Exemple, l'URL d'un dossier «agences de marketing services» sur Stratégies ressemblera plutôt à www.strategies.fr/dossiers/agences-de-marketing-services qu'à www.strategies.fr/dossiers/agencesmarketingservices

Ensuite, soigner le titre, qui constitue un indice important pour le moteur. Pour cela, il convient de retenir des termes proches des mots-clés (1 à 2 mots-clés par page) que l'on souhaite travailler, cohérents avec l'intitulé de l'URL, et de signifier au robot que c'est un titre. Dans le code de la page, les balises «H» (comme «header») permettent au robot de hiérarchiser le contenu. Dans le cas présent, on utilisera une balise «H1» pour le titre principal et aussi un «H2» pour un titre secondaire.

De façon générale, il est recommandé de donner un sens singulier à chaque contenu. Premier exemple : la balise «ALT», permet d'afficher du texte sur une photo au passage de la souris. Au lieu d'y mettre le nom du fichier (photo_421B), l'utiliser pour renforcer la cohérence sémantique de la page et afficher «Marc Dugenou, CEO de l'agence The Best»

Deuxième exemple

Les premiers termes (100 à 200 caractères) du contenu en haut d'une page (appelé le «body» du code source), idéalement positionnés sous le titre, sont ceux qui auront le plus de poids.

Un message éditorial classique se compose souvent de la façon suivante : introduction, déroulé et conclusion. Pour une optimisation SEO, le message essentiel, qui contient les termes de positionnement, arrive en premier, sous le titre.

Toujours du côté obscur du Web, le code qu'on ne voit pas quand on lit une page, se trouvent les «métas» ou métadonnées conçues pour renseigner les moteurs.

La balise «meta title», qui va s'afficher en haut du cadre de la page comme un nom de page, est importante. Elle doit être elle aussi unique, singulière, parlante et cohérente avec le contenu de la page.

La balise «meta description», utilisée pour résumer le contenu de la page, a été démonétisée par les robots, comme la balise «meta keywords». Néanmoins, elle est à soigner : c'est elle qui va apparaître dans la page de résultats de Google et qui donnera envie, ou non, à l'internaute de cliquer sur ce lien plutôt que sur celui du concurrent.

 

Idée reçue. Il est très important de soigner les «meta keywords» (ou balise mots-clés).

Ce n'est plus vrai. Google a cessé de donner du poids à ces indications trop souvent utilisées par les sites pour se survendre. Cependant quelques petits moteurs prennent encore en compte cette balise.

 

Une idée reçue en forme de conclusion. Il suffit de farcir ses pages avec tous les mots-clés sur lesquels on veut se positionner pour avoir de bons résultats…

L'algorithme complet de Google reste insondable et évolue plusieurs fois par mois. En ce moment, affirme Philippe Yonnet, d'Aposition, «Google sort une innovation par semaine». Plusieurs dizaines d'ingénieurs veillent sans relâchent, chaque jour à rendre l'algorithme plus pertinent. Il ne serait pas réaliste de penser qu'un peu de cuisine SEO - farcir, saupoudrer, truffer - permettra de venir à bout de l'algorithme qui a fondé l'empire Google…

Envoyer par mail un article

Le SEO : comment réussir son référencement

Séparer les adresses par des virgules
M’envoyer une copie par e-mail
Email this Article

Thank you for your interest in spreading the word about Stratégies.

NOTE: We only request your email address so that the person you are recommending the page to knows that you wanted them to see it, and that it is not junk mail. We do not capture any email address.

Plus d’informations sur les agences avec les Guides Stratégies