Cet ancien analyste qualité de Google explique la différence entre les algorithmes de Google, les actions manuelles, la qualité et les sanctions.
Le référencement technique compte, mais seul ne résoudra rien: Si votre produit / contenu n'a pas d'attrait ou de valeur, peu importe son niveau technique et son optimisation. Assurez-vous de ne pas manquer la proposition de valeur.
Depuis sa création, Google a fait son chemin pour devenir la boîte de saisie la plus recherchée sur l'ensemble du Web. C'est un chemin qui est généralement surveillé avec une curiosité toujours croissante, de la part des professionnels du Web, qui démontent tout pour tenter de comprendre ce qui motive Google et comment la recherche fonctionne, avec tous ses écrous et boulons.
Je veux dire, nous avons tous expérimenté la puissance de cette petite boîte d'entrée, surtout lorsqu'elle cesse de fonctionner. Seul, il a le pouvoir d'arrêter le monde. Mais il n'est pas nécessaire de passer par une panne de Google pour expérimenter la puissance que ce minuscule champ de saisie exerce sur le Web et, finalement, sur nos vies - si vous gérez un site Web et que vous avez progressé dans les classements de recherche. , vous savez probablement de quoi je parle.
Cela n'est pas surprenant, le fait que toutes les personnes présentes sur le Web retiennent généralement leur souffle chaque fois que Google décide de modifier ses résultats de recherche organiques. Étant principalement une société d'ingénierie logicielle, Google vise à résoudre tous ses problèmes à grande échelle. Et, soyons honnêtes… Il est pratiquement impossible de résoudre les problèmes que Google doit résoudre uniquement avec une intervention humaine.
Clause de non-responsabilité: ce qui suit découle de ma connaissance et de ma compréhension de Google pendant mon mandat entre 2006 et 2011. Supposons que les choses puissent changer à un rythme raisonnablement rapide et que ma perception puisse, à ce stade, être dépassée.
Algorithmes de qualité Google
En termes simples, les algorithmes sont comme des recettes - un ensemble d'instructions étape par étape dans un ordre particulier qui vise à accomplir une tâche spécifique ou à résoudre un problème.
La probabilité pour un algorithme de produire le résultat attendu est indirectement proportionnelle à la complexité de la tâche à accomplir. Donc, le plus souvent, il est préférable d'avoir plusieurs (petits) algorithmes qui résolvent un (gros) problème complexe - le décomposant en de simples sous-tâches -, plutôt qu'un algorithme unique géant qui essaie de couvrir toutes les possibilités.
Tant qu'il y a une entrée, un algorithme fonctionnera sans relâche, produisant ce pour quoi il a été programmé. L'échelle à laquelle il fonctionne ne dépend que des ressources disponibles, telles que le stockage, la puissance de traitement, la mémoire, etc.
Ce sont des algorithmes de qualité, qui ne font souvent pas partie de l'infrastructure. Il existe également des algorithmes d'infrastructure qui prennent des décisions sur la manière dont le contenu est analysé et stocké, par exemple. La plupart des moteurs de recherche appliquent des algorithmes de qualité uniquement au moment de la diffusion des résultats de recherche. Cela signifie que les résultats ne sont évalués que qualitativement, au moment de servir.
Au sein de Google, les algorithmes de qualité sont considérés comme des `` filtres '' qui visent à refaire la surface d'un bon contenu et à rechercher des signaux de qualité partout dans l'index de Google. Ces signaux proviennent souvent du niveau de la page pour tous les sites Web. Qui peut ensuite être combiné, produisant des scores pour les niveaux de répertoire, ou le niveau de nom d'hôte, par exemple. Pour les propriétaires de sites Web, les référenceurs et les spécialistes du marketing numérique, dans de nombreux cas, l'influence des algorithmes peut être perçue comme des `` pénalités '', en particulier lorsqu'un site Web ne répond pas entièrement à tous les critères de qualité et que les algorithmes de Google décident de récompenser d'autres sites Web de meilleure qualité. . Dans la plupart de ces cas, les utilisateurs ordinaires constatent une baisse des performances organiques. Pas nécessairement parce que votre site Web a été poussé vers le bas, mais très probablement parce qu'il a cessé d'être injustement noté, ce qui peut être bon ou mauvais. Afin de comprendre comment fonctionnent ces algorithmes de qualité, nous devons d'abord comprendre ce qu'est la qualité.
La qualité et votre site Web
La qualité est dans l'œil du spectateur. Cela signifie que la qualité est une mesure relative au sein de l'univers dans lequel nous vivons. Elle dépend de nos connaissances, de nos expériences et de notre environnement. La qualité pour une personne est probablement différente de ce que toute autre personne considère comme une qualité. On ne peut pas lier la qualité à un simple processus binaire sans contexte. Par exemple, si je suis dans le désert en train de mourir de soif, est-ce que je me soucie si une bouteille d'eau a du sable au fond?
Pour les sites Web, ce n'est pas différent. La qualité est, fondamentalement, la performance sur les attentes. Ou, en termes de marketing, proposition de valeur.
Mais attendez… Si la qualité est relative, comment Google dicte-t-il ce qu'est la qualité et ce qui ne l'est pas?
En fait, Google ne dicte pas ce qui est et ce qui n'est pas de la qualité. Tous les algorithmes et la documentation que Google utilise pour ses Directives pour les webmasters, sont basés sur des retours et des données d'utilisateurs réels. Lorsque les utilisateurs effectuent des recherches et interagissent avec des sites Web sur l'index de Google, Google analyse le comportement de ses utilisateurs et exécute souvent plusieurs tests récurrents, afin de s'assurer qu'il est aligné avec leurs intentions et leurs besoins. Cela garantit que lorsque Google publie des directives pour les sites Web, elles correspondent à ce que veulent les utilisateurs de Google. Pas nécessairement ce que Google veut unilatéralement.
C'est pourquoi Google déclare souvent que les algorithmes sont conçus pour chasser les utilisateurs. Ainsi, si vous poursuivez les utilisateurs au lieu d'algorithmes, vous serez au même niveau que Google.
Cela dit, afin de comprendre et de maximiser le potentiel d'un site Web à se démarquer, nous devons examiner nos sites Web sous deux angles différents. Être le premier une perspective «Service», et le second, une perspective «Produit».

Votre site Web en tant que service
Lorsque nous examinons un site Web du point de vue du service, nous devons analyser tous les aspects techniques impliqués, du code à l'infrastructure. Comme, comment il est conçu pour fonctionner; à quel point il est techniquement robuste et cohérent; comment il gère le processus de communication avec d'autres serveurs et services; toutes les intégrations et le rendu front-end. Entre autres choses.
Mais à eux seuls, toutes les cloches et sifflets techniques ne créent pas de valeur où et si la valeur n'existe pas. Ils ajoutent de la valeur et font briller toute valeur cachée à son meilleur. Et c'est pourquoi il faut travailler sur les détails techniques, mais aussi envisager de regarder leur site Web du point de vue du produit.
Votre site Web en tant que produit
Lorsque nous examinons un site Web du point de vue du produit, nous devons viser à comprendre l'expérience des utilisateurs. Et, finalement, quelle valeur fournissons-nous pour nous démarquer de la concurrence.
Pour rendre cela moins éthéré et plus tangible, je pose souvent la question "Si votre site disparaissait aujourd'hui du Web, qu'est-ce que vos utilisateurs manqueraient, qu'ils ne trouveraient sur aucun des sites Web de vos concurrents?" - Je crois que c'est l'un d'eux des questions les plus importantes à répondre si vous souhaitez viser à construire une stratégie commerciale durable et durable sur le web.
Pour vous aider davantage, j'invite tout le monde à consulter le site Honeycomb de Peter Morville. J'ai fait quelques ajustements, afin que nous puissions nous rapporter au concept plus limité d'EAT qui fait partie de Directives des évaluateurs de qualité de Google.

La plupart des professionnels du référencement étudient en profondeur les aspects techniques de l'UX tels que l'accessibilité, la convivialité et la trouvabilité (qui est, en fait, le référencement).

Mais ont tendance à laisser de côté les aspects qualitatifs (plus stratégiques), comme l'utilité, la désirabilité et la crédibilité.

Au cas où vous l'auriez manqué, le nid d'abeille central signifie «Valeur», qui ne peut être pleinement atteinte que lorsque tous les autres facteurs environnants sont satisfaits. Donc, appliquer cela à votre présence sur le Web signifie que, à moins que vous ne regardiez l'expérience holistique dans son ensemble, vous manquerez l'objectif principal de votre site Web. Créer de la valeur! Pour vous et vos utilisateurs.
La qualité n'est pas statique
Pour être perçu comme «de qualité», un site Web doit apporter de la valeur, résoudre un problème ou un besoin. La raison pour laquelle Google teste constamment, pousse des mises à jour de qualité et des améliorations d'algorithmes, est simplement parce que la qualité est en fait une cible mouvante!

Si vous lancez votre site Web et que vous ne l'améliorez jamais, vos concurrents finiront par vous rattraper avec le temps, soit en améliorant la technologie de leur site Web, soit en travaillant sur l'expérience et la proposition de valeur. Tout comme les anciennes technologies deviennent obsolètes et devenues obsolètes, avec le temps, les expériences innovantes ont également tendance à devenir ordinaires et ne vont probablement pas au-delà des attentes. Par exemple, en 2007, Apple a conquis le marché des smartphones avec un appareil à écran tactile. De nos jours, la plupart des gens ne considéreront même pas un téléphone qui n'a pas d'écran tactile. Il est devenu acquis et ne peut plus vraiment être utilisé comme un avantage concurrentiel.
Tout comme le référencement n'est pas une action ponctuelle - j'optimise une fois, donc je suis optimisé en permanence, tout domaine qui soutient une entreprise doit s'améliorer et innover au fil du temps, afin de rester compétitif.
Lorsque tout cela est laissé au hasard ou ne reçoit pas l'attention qu'il mérite pour s'assurer que toutes ces caractéristiques sont comprises par les utilisateurs, c'est lorsque les sites Web commencent à rencontrer des problèmes de performances organiques.
Actions manuelles pour compléter les algorithmes
Il serait naïf de supposer que les algorithmes sont parfaits et font tout ce qu'ils sont censés faire parfaitement. Le grand avantage des humains dans la «guerre» des humains contre les machines est que nous pouvons faire face à l'inattendu. Les humains ont la capacité de s'adapter et de comprendre les situations aberrantes; pour comprendre pourquoi quelque chose peut être bon alors que cela peut paraître mauvais, ou vice versa. Et c'est parce que les humains peuvent déduire le contexte et l'intention, alors que les machines ne sont pas très douées pour cela.
En génie logiciel, lorsqu'un algorithme détecte ou rate ce qu'il n'était pas censé faire, on parle souvent de «faux positifs» ou de «faux négatifs» respectivement. Afin d'appliquer des corrections aux algorithmes, nous devons identifier la sortie de faux positifs ou de faux négatifs - une tâche qui est souvent mieux réalisée par des humains. Ainsi, souvent, les ingénieurs définissent un niveau de confiance (seuils) que la machine doit prendre en compte avant de demander une intervention humaine.
Qu'est-ce qui déclenche une action manuelle?
Au sein de la qualité de la recherche, des équipes humaines évaluent les résultats et consultent les sites Web afin de s'assurer que les algorithmes fonctionnent correctement. Mais aussi pour intervenir lorsque la machine fait des erreurs, ou ne peut pas prendre de décision. Entrez l'analyste de la qualité de la recherche.
Le rôle d'un analyste de la qualité de la recherche est de comprendre ce à quoi il a affaire, en examinant les données fournies et en émettant des jugements. Ces appels au jugement peuvent être simples, mais sont souvent supervisés et approuvés ou rejetés par d'autres analystes dans le monde, afin de minimiser les préjugés humains. Cela entraîne souvent des actions statiques qui visent (mais pas seulement):
- Créer un ensemble de données pouvant être utilisé ultérieurement pour entraîner des algorithmes;
- Traiter des situations spécifiques et percutantes, où les algorithmes ont échoué;
- Signalez aux propriétaires de sites Web que des comportements spécifiques ne respectent pas les directives de qualité.
Ces actions statiques sont souvent appelées actions manuelles.
Les actions manuelles peuvent être déclenchées pour une grande variété de raisons. Mais l'objectif le plus courant pour contrer l'intention de manipulation, qui, pour une raison quelconque, a réussi à exploiter avec succès une faille dans les algorithmes de qualité.
L'inconvénient des actions manuelles, comme mentionné, est qu'elles sont statiques et non dynamiques comme les algorithmes. Ainsi, alors que les algorithmes fonctionnent en continu et réagissent aux changements sur les sites Web, en fonction uniquement du réexploration ou du raffinement des algorithmes. Avec les actions manuelles, l'effet restera aussi longtemps qu'il a été défini pour durer (jours / mois / années), ou jusqu'à ce qu'une demande de réexamen soit reçue et traitée avec succès.
Algorithmes de Google vs actions manuelles en un mot
Voici une brève comparaison entre les algorithmes et les actions manuelles:
Algorithmes - Viser la valeur de resurfaçage - Travailler à grande échelle -Dynamique - Entièrement automatisé - Durée indéfinie |
Actions manuelles - Viser à pénaliser les comportements - Affrontez des scénarios spécifiques - StaticManual + Semi-automatisé - Durée définie (date d'expiration) |
Avant d'appliquer une action manuelle, un analyste de la qualité de la recherche doit tenir compte de ce à quoi il s'attaque, évaluer l'impact et le résultat souhaité. Certaines des questions auxquelles il faut souvent répondre sont:
- Le comportement a-t-il une intention manipulatrice?
- Le comportement est-il assez flagrant?
- L'action manuelle aura-t-elle un impact?
- Quels changements l'impact entraînera-t-il?
- Qu'est-ce que je pénalise (comportement généralisé ou unique)?
Ce sont des aspects qui doivent être correctement pondérés et pris en compte avant même que toute action manuelle ne soit envisagée.
Comment les propriétaires de sites Web doivent-ils gérer les actions manuelles
Alors que Google évolue de plus en plus vers des solutions algorithmiques, tirant parti de l'intelligence artificielle et de l'apprentissage automatique pour à la fois améliorer les résultats et lutter contre le spam, les actions manuelles auront tendance à s'estomper et finiront par disparaître complètement à long terme.
Si votre site Web a été touché par des actions manuelles, la première chose à faire est de comprendre quel comportement l'a déclenchée. Cela signifie généralement que, avant tout, vous devez avoir une compréhension approfondie des consignes techniques et de qualité de Google et évaluer votre site Web par rapport à celles-ci.
Il est facile de se laisser prendre à jongler avec toutes les étapes et informations en même temps. Mais croyez-moi, ce n'est pas le moment de laisser le sentiment de précipitation, de stress et d'anxiété prendre le dessus. Vous voulez être minutieux plutôt que rapide.
De plus, vous souhaitez limiter au minimum le nombre de fois que vous soumettez un demande de réexamen. N'agissez pas comme si vous jouiez par essais et erreurs. Il suffit de rassembler toutes les informations, de faire un balayage propre sur votre site Web et de tout réparer. Ensuite, et alors seulement, soumettez une demande de réexamen.
Récupération des actions manuelles
Il y a l'idée fausse que, si vous êtes frappé par une action manuelle et que vous perdez du trafic et des classements, vous reviendrez au même niveau une fois que les actions manuelles auront été révoquées. Cela ne pouvait pas être plus éloigné de la vérité. Vous voyez, une action manuelle vise à supprimer l'effet de levier injuste. Donc, il n'aurait pas de sens de revenir aux mêmes performances organiques après un nettoyage et l'action manuelle levée, sinon cela signifierait probablement que vous ne bénéficiez pas de ce qui enfreint les directives de qualité.
Tout site Web peut récupérer de presque n'importe quel scénario. Les cas où une propriété est jugée irrécupérable sont extrêmement rares. Néanmoins, vous devez avoir une compréhension complète de ce à quoi vous avez affaire. Gardez à l'esprit que les actions manuelles et les problèmes algorithmiques peuvent coexister. Et, parfois, vous ne commencerez à rien voir avant de prioriser et de résoudre tous les problèmes dans le bon ordre. Par conséquent, si vous pensez que votre site Web a été affecté négativement lors de la recherche, assurez-vous de commencer par regarder le Vue Actions manuelles dans la Search Console, puis travaillez à votre guise à partir de là.
Malheureusement, il n'y a pas de moyen facile d'expliquer ce qu'il faut rechercher et les symptômes de chaque problème algorithmique. À moins que vous n'en ayez vu et expérimenté beaucoup d'entre eux, les problèmes algorithmiques peuvent vous décourager car non seulement ils s'empilent, mais ont parfois des moments et des seuils différents à atteindre avant de disparaître. Le meilleur conseil que je puisse vous donner est le suivant: pensez à votre proposition de valeur, au problème que vous résolvez ou au besoin que vous traitez. Et n'oubliez pas de demander des commentaires à vos utilisateurs. Demandez leur avis sur votre entreprise et l'expérience que vous fournissez sur votre site Web, ou comment ils s'attendent à ce que vous vous amélioriez. Lorsque vous posez les bonnes questions, les résultats peuvent être extrêmement gratifiants
Vente à emporter
Repensez votre proposition de valeur et votre avantage concurrentiel: Nous ne sommes plus dans le boom du .com. Avoir un site Web n'est pas un avantage concurrentiel en soi.
Traitez votre site Web comme un produit et innovez constamment: Si vous n'allez pas de l'avant, vous serez écrasé. Les sites Web qui réussissent s'améliorent et se répètent constamment.
Recherchez les besoins de vos utilisateurs grâce à l'expérience utilisateur: La priorité doit être vos utilisateurs en premier, Google en second. Si vous le faites d'une autre manière, vous manquez probablement quelque chose. Parlez à vos utilisateurs et demandez leur avis.
Source: https://searchengineland.com/google-algorithms-vs-google-penalties-explained-by-an-ex-googler-345011