mercredi 18 septembre 2013

L'attente du référencement naturel...


Aucun référencement naturel n'est immédiat... 
Pourquoi un site Internet ne s'affiche pas 
immédiatement dans les moteurs de recherche

Il y a un point commun à tous mes clients : ils sont tous pressés. Peu importe si leur site vient d'apparaître sur le Net ou s'il y traîne déjà depuis un bout de temps, plus ou moins "invisible", c'est-à-dire sans être référencé - au moment où ils consultent un référenceur, ils attendent qu'il fasse miracle - miracle, surtout, au niveau du temps de référencement.

Eh non, un site n'est pas référencé dans un jour ou deux. Ceci a deux raisons : la plus importante vient, comme toujours, des moteurs de recherche et, notamment, de Google. Plus ou moins officiellement (rien n'est jamais vraiment "officiel" chez Google), le moteur réclame trois mois pour le référencement d'un site, comptés du jour où la base du référencement naturel est bien établie. Souvent, le client - et le référenceur - ont le plaisir de voir des réactions plus rapides, et une partie des mots clés apparaissent sur des positions déjà très correctes avant que le délai ne soit expiré. Mais personne ne peut compter sur un référencement plus rapide... il faut donc penser au pire et se laisser surprendre.

Mais il est clair qu'un référencement complet et efficace peut accélérer l'apparition du site sur les premières pages des moteurs de recherche. Cependant - qu'est ce qu'un référencement complet et efficace ? Il est vrai que le référenceur n'a qu'à suivre les 200 règles essentielles de Google (tout est une question de maths) pour avoir la garantie que le site soit bien placé. Les règles de base à part, il ne peut toutefois que deviner ce que, dans son cas, est considéré comme "parfait". Car la technique d'un référencement "parfait" pour un site n'est peut-être pas la méthode optimale pour un autre.

Après avoir accompli le référencement naturel de base qui reste le même pour tous les sites Internet, le référenceur ne peut alors que tester ses diverses méthodes et observer, comment les moteurs y réagissent. Et ceci est la deuxième raison pour laquelle le référencement ne peut pas aboutir immédiatement. Le référenceur peut avoir la chance que ses premiers essais ont de succès, mais la "chance" n'est pas vraiment le facteur le plus important dans le référencement. Il faut plutôt partir du principe que c'est l'expérience - plus expérimenté le référenceur, plus grande la probabilité de réussir au premier ou deuxième "coup" - et l'information toujours évoluant sur les priorité des moteurs de recherche.

Malgré tout, même un référenceur expérimenté et à jour des nouvelles des moteurs de recherche ne peut pas garantir un référencement naturel à court terme. Car finalement, c'est Google qui décide de ses délais - et là, aucun référenceur du monde a son mot à dire.
Copyright - Texte : Doris Kneller - Photo d'arrière-plan : Doris Kneller 

mardi 17 septembre 2013

Liens, anchor text et référencement naturel

Comment composer les "anchor texts" pour qu'ils
soutiennent le référencement naturel ?

Vous avez vu ceci maintes fois : "Cliquez ici". Un tel message inclut, bien sûr, que vous connaissez déjà la raison, pour laquelle vous êtes censé cliquer "ici" - sinon, le lien ne serait pas visité. - Mais, franchement, à quoi ce "Cliquez ici" sert-il ? Si l'internaute ne sait pas, pourquoi il doit y cliquer, ce lien est superflu. Si, par contre, il sait déjà ce qui se cache au bout du lien, il n'en tire aucune information nouvelle.

Et c'est là où nous rejoignons le cheval de bataille de l'équipe de Google et du référencement naturel : elle n'aime pas les phrases qui ne fournissent pas quelque chose de "nouveau". La logique lui donne sans doute raison - ne serait-ce pas plus efficace de donner le renseignement sur le cible du lien carrément dans le soi-disant "anchor text", c'est-à-dire dans le mot sur lequel l'internaute doit cliquer ?

Bref, comme l'équipe de Google suit (la plupart du temps) la logique, elle est contre les liens dont l'anchor text ne fournit aucune information, du genre "cliquez ici", "s'inscrire", "next" ou "prochain page". On a toujours la possibilité de s'arranger pour que l'anchor text soit un peu plus fort. Au lieu de "cliquez ici", on peut y placer le sujet du site et de la page, par exemple "vêtement été" ou "référencementsites multilingues". Pour "s'inscrire", on peut directement dire, où on s'inscrit : "un film par semaine", "lettre d'information sur le référencement", "nouvelles sur les vêtements bébé" etc. "Next" ou "prochaine page" peuvent être remplacés par une indication au contenu de la page en question comme "Plus de vêtements été", "images foire vêtements" etc.

Non seulement que, de cette manière, vous gagnez en quantité, c'est-à-dire que vous pouvez compter quelques mots clés précieux de plus, vous montrez aussi à vos visiteurs que vous ne les considérez pas comme "simples d'esprit", au moins en ce qui concerne leur expérience sur Internet. Car, peu import s'il s'agit d'un lien textuel ou d'un lien dans un menu, il se distingue toujours de l'autre texte par sa couleur ou un soulignement (ou les deux) et il change l'image de la souris dès qu'elle le touche. L'internaute n'a donc aucun problème pour savoir, où il doit cliquer - une indication du genre "ici" n'est alors pas seulement superflu, mais presque ridicule...

La seule question qui reste ouverte est celle qui traite du sens du contenu qu'on donne à l'anchor text. Car il y en a des professionnels du référencement naturel qui sont de l'avis que ce contenu est susceptible de renforcer la visibilité de la page source, c'est-à-dire de la page, sur laquelle se trouve le lien. D'autres favorisent la théorie selon laquelle l'anchor text compte plutôt pour le référencement de la page ciblée.

Comme, jusqu'à ce jour, la réponse à cette question n'est pas découverte par les experts qui, au service des webmasters et référenceurs, font un maximum pour percer les secrets du référencement naturel, la meilleure solution est probablement d'essayer de lier les deux : créer des anchor texts qui aident au référencement de la page source et, en même temps, préparent "l'esprit" des robots au sujet qui les attend sur la page cible.

Ainsi, si, par exemple, un des mots clés importants de la page source est "film" et la page cible se sert plutôt de "romantique", nous utilisons comme anchor text les deux mots, "film romantique" - dans un tel cas, pas de problème. Mais il y a évidemment des situations où une combinaison des mots clés des deux pages est plus difficile à trouver... dans ce cas, c'est au référenceur de montrer ses qualités en tant que professionnel et de trouver la solution optimale...
Copyright - Texte : Doris Kneller - Photo d'arrière-plan : Doris Kneller 

samedi 14 septembre 2013

Et si le référencement naturel était parfait pour tous les sites Internet ?

Que ferait Google si le référencement de tous les
sites Internet méritait une "première position" ?

L'autre jour, un client m'a demandé ce que ferait Google si tous les sites disposaient d'un référencement naturel idéal. Question intéressante, vu qu'il n'y a qu'une seule première position par mot clé - en principe réservé au site du meilleur webmaster et référenceur - et dix positions sur la première page. Que ferait Google si, théoriquement, le référencement de tous les sites sur le Net était si bien fait qu'ils auraient tous droit à une première position ?
Rêves ! diraient probablement les responsables de Google et des autres moteurs de recherche. Ils ne croiraient pas que tout le monde pourrait percer leur "secrets" et remplir toutes les conditions pour un référencement parfait. Toutefois - pourquoi ceci ne serait-il pas possible ?

Nous ne pouvons qu'imaginer la réaction de Google et de ses collègues. Tout d'abord, ils affineraient probablement les conditions pour un "référencement idéal". Il ne faut pas oublier que l'équipe de Google n'a pas pour but de "choquer" et de "chasser" les webmasters amateurs avec ses règles, mais qu'elle rêve d'un Web parfait. Si elle avait le pouvoir, elle effacerait probablement du Net tous les sites "non professionnels", c'est-à-dire les sites qui ne servent à rien, ni à diffuser des informations, ni à vendre un produit concret, ni à faire plaisir. Elle interdirait des sites comme les fermes à liens ou ceux qui contiennent des informations insuffisantes, trompeuses et fausses... Bref, Elle rêve d'un Net où un l'internaute n'a qu'à ouvrir un seul site traitant de son sujet pour trouver juste ce qu'il cherche.

Mais les moteurs de recherche n'ont (heureusement ?) pas se pouvoir. Tout ce qu'ils peuvent faire, c'est filtrer les sites par le biais du positionnement et rendre "invisibles" ceux qu'ils jugent nuisibles ou inutiles. Ainsi, si vraiment tous les sites suivaient leurs règles pour un bon référencement, ils seraient déjà plus proches de leur rêve - car un site bien référencé est, selon la définition du référencement naturel, automatiquement un site efficace. Leur réaction logique serait donc de s'approcher encore plus de leur objectif : rendre les règles du référencement encore plus strictes et utiliser leurs filtres pour créer un Net avec des sites encore plus efficaces...

Toutefois, tout à une limite. Allons encore plus loin et partons du principe que les webmasters et référenceurs - tous ! - se soumettraient aux nouvelles règles. À un moment donné, ces règles seraient si strictes que les moteurs ne pourraient plus les renforcer. En ce moment, ils penseraient probablement à rendre la recherche plus détaillée : ils créeraient beaucoup plus de "premières pages" avec des expressions clés plus distinctes. L'internaute aurait alors presque la garantie de tomber immédiatement sur le contenu qu'il cherche - sous condition que les mots clés qu'il choisit pour sa recherche correspondraient au nouveau standard des moteurs...
Copyright - Texte : Doris Kneller - Photo d'arrière-plan : Doris Kneller 

vendredi 13 septembre 2013

L'e-réputation et son impact sur
le référencement naturel

Le référencement naturel de l'avenir : Facebook et l'e-réputation

Selon les estimations des experts du référencement naturel, le premier média utilisé pour mesurer le degré de l'e-réputation sera Facebook. Les webmasters ont donc dès maintenant intérêt à se créer un compte - si ce n'est pas déjà fait -, à instaurer, si possible, une page traitant du sujet du site à référencer et à travailler sérieusement sur la question, comment se faire un maximum d'amis et recevoir tant de "j'aime" et de partages que possibles.

Pour se faire un ami, toutefois, il faut lui "offrir" quelque chose, c'est-à-dire lui fournir une raison pour accueillir vos propos dans son fil d'actualité, donc pour vous suivre en permanence. Si le sujet de votre site est assez intéressant pour que tous les membres de Facebook dressent l'oreille dès qu'ils en entendent parler, vous avez évidemment gagné. Mais, rêve à part, le contenu de Facebook est si vaste et les intérêts de ses membres sont si diversifiés qu'il est très compliqué de cibler juste le bon public. Il faut donc travailler sur le nombre - nos chances d'attirer des amis pour le sujet de notre site augmentent proportionnellement au nombre des personnes que nous arrivons à atteindre.

Et même si un membre de Facebook s'inscrit à notre compte, la partie n'est pas encore gagnée. En général, il s'inscrit quand il découvre un post qui le touche particulièrement. Dans un tel cas, il clique sur le compte, regarde la page, découvre peut-être d'autres articles qui l'intéresse et s'inscrit pour, ensuite, retourner à son fil d'actualité. Et à partir de là, il ne pense plus à notre page. Car maintenant, elle a accès à son fil d'actualité - c'est-à-dire que nos posts apparaissent automatiquement parmi les posts de ces autres amis Facebook - et il n'a plus besoin de s'occuper de notre page.


Peut-on dire que ceci est une garantie qu'il lit nos articles ? - Non. Car, déjà, il n'ouvre peut-être pas son Facebook au moment où nous postons notre nouvelle information. À l'heure où il se rebranche sur son compte, il est possible que tant de posts se soient déjà faufilés entre celui qu'il voit actuellement et le nôtre, que le nôtre risque d'être perdu dans les profondeurs de Facebook et notre e-réputation est de nouveau mise en question.

Mais il est clair que, d'autres fois, il est branché à la même heure qu'apparaît notre article : il le voit donc immédiatement dans son fil d'actualité. Toutefois, parmi toutes les informations qu'il reçoit, il est probable qu'il nous a déjà oubliés - pour qu'il nous lise de nouveau et nous donne le fameux "j'aime" ou, comble de l'e-réputation, qu'il partage notre propos, il est donc nécessaire de le fasciner de nouveau.

Ainsi, on ne peut pas compter sur d'anciens posts pour persuader les membres de Facebook qu'il faut absolument lire l'actuel - sauf s'ils ont remarqué nos informations si souvent qu'ils ont retenu notre nom. Mais ceci, selon les statistiques, est rare. Nous avons donc besoin de recommencer à être "fascinants" avec chaque nouveau post.
Copyright - Texte : Doris Kneller - Photo d'arrière-plan : Doris Kneller 


jeudi 12 septembre 2013

Le référencement naturel des sites multilingues : éviter les doublons

Sous quelle condition les moteurs de recherche
considèrent-ils un site multilingue comme "doublon" ?
 
Parlons encore une fois des sites multilingues. Nous avons déjà dit que Google et les autres moteurs de recherche sont capables de distinguer les langues l'une de l'autre sous condition que nous ne plaçons pas plusieurs langues sur une seule page. Si nous refusons la solution de consacrer à chaque version linguistique de notre site son propre domaine - ce qui, du point de vue du référencement naturel, représente toujours la technique la plus efficace -, nous sommes au moins obligés de n'utiliser qu'une seule langue par page.

Nous avons aussi souligné que le référencement doit être réalisé pour chaque version à part : un bon emplacement dans les moteurs de recherche français ne suffit pas pour que la version anglaise ou allemande soit visible dans les pays respectifs. Chaque version a besoin de son propre référencement qui, avec chaque langue, recommence à zéro.

Jusqu'ici, tout est clair. Bien qu'il soit coûteux et parfois long de faire un référencement dans chaque pays, les règles du jeu sont fixées. Toutefois, les experts du référencement se sont posés une autre question : vu que Google refuse (et punit) tout doublon sur le Net, c'est-à-dire deux sites ou deux pages (ou des parties de pages) avec exactement le même contenu, ses robots ne considèrent-ils pas comme doublon aussi deux versions linguistiques d'un seul texte ?

La question n'est pas absurde. Car bien que les représentants de Google assurent que deux versions linguistiques d'un seul site sont évaluées comme deux sites différents - deux versions linguistiques d'un même textes ne sont donc pas considérées comme doublon - il y a, comme si souvent, un "mais". Et ce "mais" se réfère sur la qualité de la traduction.

En fait, le traducteur qui traduit "à la main" n'a rien à craindre. S'il se sert des aides de traduction, tout dépend de leur nature. Ce qui est dangereux - toujours du point de vue du référencement - c'est de se servir des phrases et paragraphes entiers préparés par les traducteurs automatiques appartenant aux sites du style Google ou Bing. Il faut aussi faire attention lorsqu'on se sert des sites d'exemples de traduction comme, pour n'en nommer qu'un seul, Linguée. Dans tous ces cas, le risque du doublon ne vient pas du site d'origine et du site traduit, mais du module ayant fourni l'aide à la traduction.

En principe, la règle est donc claire : tant que le traducteur donne aux différentes versions multilingues son propre style et son propre vocabulaire - c'est-à-dire tant qu'il ne copie pas de phrases entières des sites censés aider à la traduction - tout va bien... sous condition, bien sûr, que le référenceur connaît les attentes et les attitudes des Internautes du pays concerné et sait donner au site l'e-réputation qu'il mérite.
Copyright - Texte : Doris Kneller - Photo d'arrière-plan : Doris Kneller 

mercredi 11 septembre 2013

Le référencement naturel, les mots clés et le nombre des pages d'un site Internet

Pourquoi le nombre des pages d'un site Internet peut-il 
être essentiel pour la réussite du référencement naturel ?

Parfois, les Webmasters ont tendance à se contenter du référencement naturel de la page d'accueil d'un site. Or, le principe veut que plus de pages sont référencées, plus facilement le site est trouvé par les internautes.

Une des raisons pour lesquelles le nombre des pages référencées est essentiel est la quantité des mots clés avec lesquels le site peut être trouvé. Prenons le fameux exemple d'un site qui vend des vêtements. Si la page d'accueil (et le référencement) est établie correctement, le site est placé sur la première page de Google avec le mot clé "vêtements" ou "vêtements pour adults", "...pour enfants", etc. La page d'accueil annonce donc le sujet général du site et est référencée en conséquence.

Les autres pages contiennent logiquement des sujets plus spécifiques : "vêtements pour bébé", "robes et tops", "collection soirée" etc. Ces mots clés ne peuvent évidemment pas être référencés en relation avec la page d'accueil - déjà, nous ne pouvons pas vraiment compter sur un référencement de plus de trois mots (ou expressions) clés par page. Nous avons donc besoin d'un nombre élevé de pages pour multiplier ce facteur "trois". En plus, le contenu textuel de la page d'accueil qui serait nécessaire pour le référencement de tant de mots clés serait trop important pour être bien regardé par les visiteurs humains (et, par conséquent, par les robots).

Le problème de base du référenceur consiste à se tenir informé des pages d'un site qui sont référencées ou non. En principe, Google a créé la balise "site" pour remédier à ce problème :
site:monsite.com

Or, comme les représentants de Google ont avoué eux-mêmes, cette balise est loin d'être fiable. Une autre possibilité est présentée par les Webmaster-tools de Google - mais ici aussi, la fiabilité n'est pas garantie. On trouve aussi quelques logiciels commerciaux censés aider le référenceur dans sa tâche : mais il sont chers, parfois utiles, mais eux non plus ne donnent pas la garantie de fournir l'information dont le référenceur a besoin.

Ainsi, il ne reste que la "bonne vieille méthode" de scruter les moteurs à la main, c'est-à-dire de surfer sur Google comme le ferait un internaute "ordinaire". Cette méthode est longue, mais efficace et fiable. Même si elle prolonge les heures du travail du référenceur, elle est essentielle pour son succès : elle l'aide d'être toujours informé sur le niveau de référencement du site sur lequel il travaille et lui donne la possibilité d'intervenir en conséquence. Son travail est donc plus ciblé, et il peut consciemment booster les pages et les mots clés qui en ont besoin pour, parallèlement, consacrer moins de temps et d'effort aux mots clés dont les positions dans les moteurs de recherche sont déjà satisfaisants.
Copyright - Texte : Doris Kneller - Photo d'arrière-plan : Doris Kneller 

mardi 10 septembre 2013

E-réputation, Facebook
et le référencement naturel

L'avenir du référencement naturel : Facebook et e-réputation

Actuellement, les experts ne sont pas entièrement d'accord : les uns disent que l'e-réputation d'un site et de son créateur jouerait déjà un rôle décisif dans le référencement naturel. Les autres pensent qu'en Europe, les robots de Google ne toucheraient pas encore à ce sujet. Mais tout le monde est persuadé que "demain", au plus tard, l'e-réputation serait aussi importante qu'un bon contenu et un réseau correct de liens ciblant notre site.

Que, exactement, entend-on par "e-réputation" ? - Ceci est déjà une bonne question qui n'a jamais été répondue concrètement. En général, cette expression nouvelle se réfère à la popularité du créateur du site et à celle du site lui-même sur le Net. Ainsi, non seulement l'expression est nouvelle, mais aussi la conception, selon laquelle le site et sa qualité ne sont plus les seuls à entrer en jeu : pour la première fois, les moteurs s'intéressent également à la personne du créateur du site - ou à la personne qui signe en tant que créateur.

La meilleure possibilité de donner à un site une bonne e-réputation était, jusqu'à maintenant, de le faire cibler par un maximum de liens qui viennent de sites figurant déjà sur les premières pages de Google et qui traitent plus ou moins du même sujet. Mais il paraît qu'à l'avenir, cette technique ne sera plus suffisante. Il faut, selon les experts du référencement, qu'on parle de lui sur Internet...

... et non seulement de lui, mais aussi de son créateur. Et pour "parler de quelqu'un", il n'y a qu'une seule méthode : les divers réseaux sociaux. Partant donc du principe que, plus un site et son créateur ont des amis, plus ils reçoivent des "j'aime" et plus on partage leurs "posts", plus ils sont connus, donc "e-réputés".

Ces réseaux sociaux ne sont évidemment pas restreints à Facebook. Pour les professionnels, il est aussi important qu'on parle d'eux sur LinkedIn ou Viadeo. De beaux résultats sont également réalisés par Twitter - bien que les status sur Twitter soient extrêmement courts, ils sont lus !

"L'astuce" consiste alors à interpeller un maximum de personnes pour qu'ils deviennent "amis" - c'est-à-dire qu'elles s'inscrivent à notre compte ou à celui que nous avons créé spécialement pour le sujet de notre site, qu'elles cliquent le plus souvent sur "j'aime" et qu'ils partagent nos propos pour les rendre visibles à leurs propres amis qui les diffusent de leur côté.

A première vue, une tâche très simple. Or, les offres sur les réseaux sociaux sont si nombreuses qu'il ne paraît pas si facile d'inciter les gens à s'intéresser à ce que nous avons à dire. Et comme même les professionnels sur Linkeding ou Viadeo ont envie de s'amuser, il ne vaut pas la peine de se limiter au sujet de notre site. Les gens sont certainement contents de trouver des informations sur une bonne offre de vêtements ou un hôtel extraordinaire - mais pour les lire, il faut d'abord qu'ils nous ont "remarqués", c'est-à-dire qu'on a réussi à les attirer par notre esprit et bonne humeur.

Bien que l'e-réputation ne se limite pas à Facebook, il est peu probable que Google et les autres moteurs se concentrent dès le début sur des réseaux professionnels. L'idée, en ce moment, est alors de soigner d'abord notre compte Facebook, c'est-à-dire trouver un maximum d'amis et nous faire remarquer...

... ce qui est probablement le véritable "mot clé" qui explique le terme "e-réputation" : se faire remarquer. Et comme déjà pour le référencement, la question initiale est toujours la même : en quoi notre site mérite-t-il d'être classé par Google avant les autres - en quoi est-il différent ?

Bref, la consigne future pour tout référencement naturel, avec l'aide de l'e-réputation ou non, ne change pas : se faire remarquer si possible par sa qualité ainsi que par son originalité.
Copyright - Texte : Doris Kneller - Photo d'arrière-plan : Doris Kneller