samedi 14 septembre 2013

Et si le référencement naturel était parfait pour tous les sites Internet ?

Que ferait Google si le référencement de tous les
sites Internet méritait une "première position" ?

L'autre jour, un client m'a demandé ce que ferait Google si tous les sites disposaient d'un référencement naturel idéal. Question intéressante, vu qu'il n'y a qu'une seule première position par mot clé - en principe réservé au site du meilleur webmaster et référenceur - et dix positions sur la première page. Que ferait Google si, théoriquement, le référencement de tous les sites sur le Net était si bien fait qu'ils auraient tous droit à une première position ?
Rêves ! diraient probablement les responsables de Google et des autres moteurs de recherche. Ils ne croiraient pas que tout le monde pourrait percer leur "secrets" et remplir toutes les conditions pour un référencement parfait. Toutefois - pourquoi ceci ne serait-il pas possible ?

Nous ne pouvons qu'imaginer la réaction de Google et de ses collègues. Tout d'abord, ils affineraient probablement les conditions pour un "référencement idéal". Il ne faut pas oublier que l'équipe de Google n'a pas pour but de "choquer" et de "chasser" les webmasters amateurs avec ses règles, mais qu'elle rêve d'un Web parfait. Si elle avait le pouvoir, elle effacerait probablement du Net tous les sites "non professionnels", c'est-à-dire les sites qui ne servent à rien, ni à diffuser des informations, ni à vendre un produit concret, ni à faire plaisir. Elle interdirait des sites comme les fermes à liens ou ceux qui contiennent des informations insuffisantes, trompeuses et fausses... Bref, Elle rêve d'un Net où un l'internaute n'a qu'à ouvrir un seul site traitant de son sujet pour trouver juste ce qu'il cherche.

Mais les moteurs de recherche n'ont (heureusement ?) pas se pouvoir. Tout ce qu'ils peuvent faire, c'est filtrer les sites par le biais du positionnement et rendre "invisibles" ceux qu'ils jugent nuisibles ou inutiles. Ainsi, si vraiment tous les sites suivaient leurs règles pour un bon référencement, ils seraient déjà plus proches de leur rêve - car un site bien référencé est, selon la définition du référencement naturel, automatiquement un site efficace. Leur réaction logique serait donc de s'approcher encore plus de leur objectif : rendre les règles du référencement encore plus strictes et utiliser leurs filtres pour créer un Net avec des sites encore plus efficaces...

Toutefois, tout à une limite. Allons encore plus loin et partons du principe que les webmasters et référenceurs - tous ! - se soumettraient aux nouvelles règles. À un moment donné, ces règles seraient si strictes que les moteurs ne pourraient plus les renforcer. En ce moment, ils penseraient probablement à rendre la recherche plus détaillée : ils créeraient beaucoup plus de "premières pages" avec des expressions clés plus distinctes. L'internaute aurait alors presque la garantie de tomber immédiatement sur le contenu qu'il cherche - sous condition que les mots clés qu'il choisit pour sa recherche correspondraient au nouveau standard des moteurs...
Copyright - Texte : Doris Kneller - Photo d'arrière-plan : Doris Kneller 

Aucun commentaire:

Enregistrer un commentaire