Bref historique du référencement

  Marketing

On peut en dire beaucoup (et on l’a dit!) Sur l’optimisation des moteurs de recherche. Au lieu de proposer une autre analyse des données récentes, cette fois-ci, jetons un coup d’œil sur le passé pour voir ce qu’il faut apprendre pour l’avenir. .

La chronologie historique des moteurs de recherche et du référencement.

Vous trouverez ci-dessous un bref résumé de l’évolution des moteurs de recherche et de leur optimisation au cours des 20 dernières années.

 

Quand tout a commencé (en 1994)

 

Si vous vouliez trouver quelque chose en ligne, vous alliez sur Yahoo.
Pour entrer l’index de leur site Web, vous avez envoyé une demande à Yahoo afin qu’ils puissent entrer manuellement votre domaine.
L’indexation automatique des nouveaux sites Web et le référencement tel que nous le connaissons aujourd’hui ne sont pas encore nés. Il faudrait encore une année, jusqu’en 1995, pour que cette technologie émerge.

Les premiers jours du référencement

Ce fut le moment où de nombreux nouveaux moteurs de recherche sont apparus. Parmi eux, Lycos et AltaVista.
Cela signifiait le début de l’indexation automatique ou «exploration» des sites Web, marquant le début du boom du référencement. Soudainement, les mots sont devenus importants pour leur emplacement dans les résultats de recherche et la manière dont les pages de votre site sont apparues dans l’algorithme d’un moteur de recherche.
Les propriétaires de sites Web ont utilisé ces informations pour expérimenter des méthodes simples permettant d’affecter les résultats de recherche, par exemple en remplissant une page avec des mots (souvent sans intérêt, mais très recherchés) qui étaient invisibles à l’œil nu mais que les moteurs de recherche pouvaient trouver. Un exemple classique était le texte blanc sur fond blanc.
Le problème avec ces méthodes était qu’elles ne rendaient pas les sites Web plus pertinents pour les visiteurs. Au lieu de cela, ils ont réduit la qualité des résultats des moteurs de recherche.

Puis vint Google

 

Google a été lancé pour répondre au besoin de résultats de recherche plus pertinents.
Google avait mis au point ce qu’ils appelaient l’algorithme «PageRank», qui déterminait le facteur de classement d’une page donnée en observant le nombre de liens de cette page et l’influence de ces destinations.
L’idée était que, si un site Web contient de nombreux liens, il est probablement plus populaire et, par conséquent, de meilleure qualité que les sites contenant moins de liens.
En conséquence (et pratiquement du jour au lendemain), Google est devenu la destination de recherche dominante, modifiant la priorité de référencement des tactiques de contenu cachées et non pertinentes du passé.

Mots-clés

Pour limiter l’achat de liens, Google a décidé de punir les sites Web ayant participé à la pratique.
Après cette action de Google, d’autres méthodes sombres ont de nouveau pris une place centrale, par exemple en inondant les pages de mots-clés répétés, encore et encore. Comme pour le texte invisible, cela ne rend pas les pages plus pertinentes pour les utilisateurs; Cela n’a servi qu’à tromper les moteurs de recherche.
En conséquence, nous avons obtenu la mise à jour « Florida » qui punissait les sites Web pour l’utilisation de ces tactiques et affectait une grande partie des résultats de recherche mettant en place l’ensemble du secteur du référencement.

Les réseaux sociaux apparaissent

En 2008, il était évident que les réseaux sociaux étaient en train de devenir une activité en ligne importante. Facebook a dépassé le puissant Myspace en popularité avec quelque 140 millions d’utilisateurs actifs, et Apple, qui avait lancé l’iPhone un an plus tôt, était sur la bonne voie pour changer le paysage en ligne pour toujours.
L’intérêt pour les réseaux sociaux devrait se refléter dans les résultats de la recherche. Bing (lancé en 2009) et Google ont donc inclus des entrées de réseaux sociaux dans les résultats de la recherche, notamment les tweets Twitter. En 2010, Google a confirmé avoir modifié entre 350 et 550 son algorithme de recherche en 2009, c’est-à-dire au moins une fois par jour, ce qui montre les progrès rapides nécessaires pour rester au top si le jeu de référencement est joué à Le plus haut niveau

Masquer d’abord les mots clés et les données de l’appareil mobile

Après Panda et Penguin, Google a également commencé à chiffrer les termes de recherche utilisés par les utilisateurs individuels, ce qui empêche les sites Web d’accéder aux données. Premièrement, il ne concernait que les utilisateurs ayant effectué une recherche alors qu’ils étaient connectés à Google. En 2013, il a été mis en œuvre pour tous les utilisateurs à la suite du scandale de la surveillance de la NSA par Edward Snowden à l’été 2013, masquant efficacement les données de mots-clés sur lesquels de nombreux sites Web avaient utilisé pour le référencement. Ensuite, l’attention s’est déplacée vers le mobile. D’abord en 2014, avec le lancement de l’indexation d’applications, les applications apparaissent à côté des sites Web dans les résultats de recherche,
En 2016, une autre mise à jour mobile a été mise au point pour mettre fin aux sites Web qui dérangeaient les visiteurs en affichant des bannières et des pop-ups au lieu du contenu qu’ils recherchaient. De plus, en novembre, Google a annoncé qu’il passerait à «l’indexation mobile d’abord», c’est-à-dire à la priorité accordée à la version compatible avec les mobiles d’une page par rapport à la version de bureau.

Il reste encore des étapes à franchir, mais l’article serait trop long et ennuyeux. Restez à l’affût des articles à venir sur le passé du référencement naturel tel aviv et de l’histoire d’Internet.

Laisser un commentaire