L’amateurisme est de plus en plus écarté des résultats des moteurs de recherche, que ce soit au niveau des contenus, des technologies ou des pratiques du Web. Cela signifie que de nombreuses opérations ne sont plus en vigueur sur cette planète qui change très vite d’environnement pour le bien commun. Le partage des connaissances en ligne a reçu d’importantes mises à jour, obligeant à totalement repenser la manière de concevoir un site et d’aborder son référencement naturel.
Apprivoisez la ménagerie du Web pour un bon référencement naturel
Google Panda est l’algorithme qui surveille vos contenus depuis 2011. Il enquête une fois par mois sur le contenu dupliqué et le bourrage de mots clés. C’est un peu la base du SEO : ne pas copier ses petits camarades et répartir les mots clés de façon réfléchie en suivant les règles imposées par les moteurs de recherche.
Ce zoo bienveillant composé d’algorithmes en perpétuelle progression vise à faire respecter de bonnes pratiques. Au final, le Web est plus informatif, moins en proie au magouillage, au bricolage et aux voleurs de contenus. Si Panda sanctionne les sites dans leur ensemble, un autre animal féroce s’attaque directement aux pages qui ne lui plaisent pas.
Référencement naturel : ne réveillez pas le Pingouin !
Google Penguin est l’algorithme lancé en 2012 pour traquer les rétroliens. Le Pingouin est intransigeant avec les liens de mauvaise qualité dans les pages qu’il visite. Si vous aviez pris pour habitude d’abuser des liens entrants et sortants ainsi que des annuaires en tous genres, il est fort à parier que le Pingouin vous ait repéré.
Cette pratique appelée « Netlinking » est à bannir d’urgence. La qualité des liens, et leur pertinence, font bien plus que leur quantité. Penguin est là pour y veiller et pour punir, par l’intermédiaire du Webranking, tout site qui n’y prendrait pas garde. Les annuaires de niche, spécialisés dans un secteur précis, apporteront un meilleur résultat.
Ayez un robots.txt bien élevé pour un meilleur référencement naturel
Depuis 2014 les algorithmes des moteurs de recherche s’intéressent à votre robots.txt pour des raisons d’ouverture au Web. En effet, certains concepteurs de sites utilisent ce fichier pour cacher des URL ou des scripts. Les moteurs de recherche y sont allergiques. Si vous bloquez du CSS ou du Javascript avec votre robots.txt c’est en fait la première chose que verra l’algorithme et il préférera passer son chemin en ne vous laissant que quelques miettes de Webranking.
Il est donc conseillé de bien élever son robots.txt en lui apprenant à se comporter en hôte poli avec ses visiteurs. Pour le vérifier, tapez « adressedevotresite.com/robots.txt » et vérifiez que son contenu se limite à ces 2 lignes :
User-agent : *
Disallow :
Un robots.txt compliqué ou mal rédigé augmente les risques d’erreurs et de blocage. Il ne doit en aucun cas être employé dans l’intention de sécuriser un site, ce serait une erreur.
Le référencement naturel sans balise « meta keywords »
RIP petit ange balise parti trop vite ! Elle est obsolète depuis des années, alors oubliez simplement que la balise « meta keywords » existe. Ni pénalisante, ni utile, elle est simplement à ranger au placard des souvenirs d’un Web disparu corps et biens depuis au moins 10 ans.
Et si un prestataire SEO cherche à vous faire payer des heures de remplissage de la baise « meta keywords », c’est un escroc.
Référencement naturel : mettez un « s » !
Ces 4 lettres sont désormais obsolètes : http. Si votre site n’est pas sécurisé, les moteurs de recherche tenteront de le ranger dans son entier sur la même étagère que la balise « meta keywords ».
L’URL de votre site doit donc afficher « https » et bon nombre de sites ne l’ont malheureusement toujours pas compris en 2018. La sécurité des sites est au cœur des préoccupations de Google.
Pas de référencement naturel sans site réactif
Autre chose que de trop nombreux sites ont laissé de côté : le réactif (ou « Responsive »). Si votre site n’est pas adapté en premier lieu aux cellulaires, vous pourrez batailler tant que vous voulez dans les plaines du SEO les « crawlers » resteront sourds à vos efforts.
Avant, on créait un site internet et on l’adaptait ou non à l’affichage mobile. Mais c’était avant. Aujourd’hui, on crée un site pour mobiles et, éventuellement, on l’adapte pour le Web. C’est devenu l’un des principaux critères retenus par les moteurs de recherche pour votre Webranking.
La notion de silo sémantique en référencement naturel
Vous avez une « Home Page », un menu et de belles pages toutes propres ? Vous êtes fiers de la simplicité de l’arborescence de votre site ? Vous n’avez jamais entendu parler de grappe sémantique ? Vous êtes « so 2017 » !
Une arborescence doit être pensée aujourd’hui et votre site doit d’urgence embrasser la notion de silo. C’est certes un peu complexe mais extrêmement valorisant pour le positionnement d’un site.
Google cherche aujourd’hui à mettre en avant des experts dans leur domaine. C’est pourquoi les pages au contenu riche et unique ainsi que les sites construits selon les règles de l’art (ou les règles de Google) sont privilégiés par rapport aux sites élaborés à l’ancienne.
Référencement naturel : supprimez l’obsolète !
Vous aviez acheté un site et vous pensiez être tranquille à vie ? Mais, comme dans une maison, il y a toujours des travaux. Tout ce qui est obsolète sur votre site devrait disparaître. Ne perdez pas de temps à réécrire ou à transformer du contenu qui n’est plus à jour. Supprimez et recommencez !
Dans la peau d’un utilisateur, vous ne supportez probablement pas de tomber sur des pages de conseils qui datent d’une autre décennie. Si votre site en est rempli, mettez-vous donc à la place d’un de vos visiteurs.
Tout contenu peut être amélioré alors faites du ménage. De plus, si vous vous lancez dans une stratégie payante de silo sémantique, vous allez devoir faire du tri et reprendre beaucoup de choses de zéro.
Vous en profiterez également pour vous assurer que d’anciennes pratiques de référencement soient nettoyées et supprimées de votre site.