Avez-vous déjà testé le "Lab' " de Discodog.fr ? Content Spinning, ré-écriture automatique, dédoublonnage d'url et keyword
Powered by MaxBlogPress 

Yo les bisounours on ne sait plus quoi faire en SEO? :p

Je vous comprends, cela fait des années que MC nous rabâche sans cesse:

  • Ne vous faîtes pas de liens
  • Arrêtez de vous faire des liens
  • N’achetez pas de liens on sait les détecter (mytho)
  • ARRÊTEZ DE VOUS FAIRE DES LIENS BORDEL DE MERDE!

source de l’image: searchenginejournal.com

Cette fois-ci google a décidé de taper du poing sur la table et à commencé à défoncer tous les sites de CP, mais aussi les sites ayant posté des liens dessus.

Veuillez excuser mon cynisme, mais ça me fait bien rire de voir les « Ah moi je ne fais pas de black hat, je fais du référencement propre » se faire défoncer par GG :D

Bah là, clairement, ce que je comprends c’est que white hat ou black hat, à partir du moment ou tu te fais un lien toi-même c’est la même chose,  google met tous les SEO dans le même lot.

Mais alors on fait quoi maintenant?

Pas de panique la solution arrive, mais avant mettons-nous à la place de google.

- MC: Yo, partout dans le monde les SEO utilisent des pseudo sites de communiqué de presse pour poster des liens, comment on pourrait les détecter?

- Ingénieur: Lors de la mise en place de panda on a apprit à détecter des « templates » de sites qui plaisent aux internautes ou pas, on pourrait l’utiliser?

- MC: C’est mort, quelques fois des sites pertinents apportent tout de suite la réponse aux internautes, il faut trouver autre chose.

- Ingénieur: Y’a les réseaux de blogs privé, que peut-on faire? Un nouvel algo de la mort qui tue pour détecter des linkschemes et croiser cela avec nos panda template?

- MC: Mais t’es con ou quoi? Suffit de souscrire à leur offre, d’y poster et de laisser un footprint dans les spuns et c’est réglé.

Bref, encore une fois j’ai bien rit (en cachette) quand je lisais certains penser que google investirai perdrai de son budget R&D juste pour cela alors que la solution était tellement simple…

Revenons à nos CP

- MC: L’agence d’expert en communication nous conseille de faire du bruit, de défoncer des sites connus de tous, ainsi l’opinion générale des SEO sera qu’on sait les détecter en auto, exactement la même tactique que nous avions utilisé avec webrankinfo à qui on avait baissé le PR pour vente de lien, que propose-tu ingénieur?

- Ingénieur: Dans un premier temps, on défonce tous les sites qui rankent sur « communiqué de presse », puis par la suite, on pourrait cartographier tous les sites sous wp, qui postent plusieurs articles par jour avec toujours deux liens par article.
Par la suite on pourrait vérifier manuellement tous les sites contenant ces keywords: (exactement comme on avait déjà fait avec les annuaires exigeant un lien retour…)

  • {poster|publier|rédiger|écrire} un {article|communiqué de presse}

Et puis on a la main d’œuvre pour vérifier ça à la main.

Bref, 1 mois plus tard google à sa cartographie, imaginez un carte du monde ou à la place de l’Amérique du nord s’appellerait « Communiqué de presse », l’Amérique du sud serait le pays « Annuaire » avec plein de points rouge représentant les sources de liens faciles évoqués dans cet article et des milliers de points bleu « potentiellement » émetteurs de liens faciles aussi qui seraient des forums, des guestbooks et des hébergeurs de blogs.

Si vous étiez Google et que vous vouliez vous faire comprendre une bonne fois pour toute, vous feriez quoi? Vous shootez les sites qui sont dans la grosse zone rouge où le spam est vérifiable facilement (moins de 1000 targets) ou vous perdez votre temps à vérifier les millions de points bleus utilisés par les black hat qui ne doivent pas représenter 1% des SEO? :)

On est d’accord, on shoot la zone rouge. :)

Je suis désolé, il y a autre chose dont j’aimerai vous parler mais je ne le peux pas en public, sinon je vais encore me faire défoncé, ceux avec qui j’échange sauront de quoi je parle. (#penguin inside)

Les solutions

Exploitez de nouvelles sources backlinks

La première et pourtant évidente, cessez de poser vos liens aux même endroits que tout le monde, des spots il y en a des centaines de milliers, si vous n’en voyez pas ou ne sachez pas comment les spammer, il est temps de prendre une formation black hat SEO.

Les échanges de liens

Thématiques ou pas, cela fonctionne toujours, perso quand j’échange un lien sitewide (sur tout le site et toujours à travers mon réseau perso) je n’espère pas une monté dans les SERP sur l’ancre utilisée, je recherche l’autorité, je souhaite que google se dise cela:

« Tiens webmaster de siteA.com fait confiance à siteB.fr en lui faisant un lien, ca tombe bien, moi-même je fais (un peu) confiance à siteA, allez je file un peu de trust à siteB.fr. »

Voilà comment j’essaie de faire monter le karma de mes sites, je n’utilise pas d’ancre type « cliquez ici », « voir le site » (y’en a assez comme ça sur les profils de forum) mais plutôt des ancres de branding comme discodog.fr , discodog, discodog.fr: un blog seo, quand aux blasts, eux serviront pour monter sur du top keyword.

Répartition des ancres de pokerstars.fr , 1er sur poker en ligne

Les réseaux perso

Je pratique cela depuis toujours, ce qui m’a permit d’automatiser tout le process de creation de site, edition de contenu, marketing, design, analytic et le tout sans footprint, en gros mon gestionnaire de site ressemble à un document excel et liste chaque site par ligne et dans chaque colonne:

  • l’id du site
  • son état (up, down , maybe down et la potentiel raison du problème)
  • sa date de creation
  • son PR
  • le nombre de page indexées
  • le nombre de site le linkant
  • le nombre de bl tout court
  • le trafic de la veille
  • le trafic du jour
  • le registrar
  • l’hébergeur
  • l’accès ftp et son arborescence
  • les name serveur
  • l’ip du site
  • le nom du réseau auquel appartient le site
  • Le CA du site pour m’assurer qu’ils soient tous profitables (pas encore en vérité :p)
  • Ses ancres favorites en spintax

Directement depuis ce gestionnaire et grâce à jquery je peux exécuter des actions solo ou bulk pour plusieurs sites à la fois comme:

  • vérifier le pr
  • mettre le cms à jour
  • changer de template
  • changer les dns
  • installer un de mes CMS
  • récupérer les urls + ancres dans le format de mes logiciels SEO préféré, y’a plus qu’à copier coller

La mascotte de mon lab perso

Tous ces sites sont reliés à mon content spinner/poster de la même manière que le faisait LFE.

Niveau analytic, on a installé un cloud piwik et utilisons un proxy php pour que le tracker ne laisse pas de footprint vers l’instal’ piwik, c’est moins cher que getcliky et on ne va quand même pas déclarer le réseau à google analytic.

Bon je vais m’arrêter là, mais sachez que si vous êtes équipé comme il le faut, créer et gérer un réseau ne prend pas plus de temps que gérer une poignée de sites  à l’ancienne à la main.

Les CP dissimulés

Google à défoncé les sites de CP, mais a t’il défoncé des blogueurs par erreur? Non je ne le crois pas, en tous cas je ne l’ai lu nul par et je prévois quand dans les mois à venir les CP fleuriront à nouveau, mais sous une nouvelle forme.

  • Au commencement, des codeurs faisaient des sites web et le mettaient à jour
  • Puis les webmasters donnèrent la paroles aux internautes avec les premiers sites web 2.0
  • Sur ce concept naquirent les « CP for seo »

Les rédacteurs prennent le pouvoir

Je pense que la prochaine étape ce sont les blogs tenus par des rédacteurs web, imaginez que chaque rédacteur web tiennent un blog, dans rédacteurs j’inclue toute personne sachant écrire à la première personne et capable d’écrire sur n’importe quel sujet, ces rédacteurs peuvent être des étudiants, des malgaches, des pseudo-journalistes, des rédacteurs français confirmés, ou même 4 à la fois.

L’utilisation de sites de CP s’est formalisé naturellement avec le temps et la demande, et cela n’a prit que environs 2-3 ans, je vois bien dans l’avenir se produire la même chose, sauf qu’à l’instar de site de CP tenu par des webmasters, nous aurons des centaines voire milliers de rédacteurs/blogueurs amateur à qui nous continuerons de rédiger des articles pour vous, sauf qu’au lieu de les récupérer et des les poster ailleurs, ces articles seront posté chez eux directement.

Bref, on parle bien de blogs 100% articles sponsorisés aux avantages suivants:

  • Tous les articles sont de la même plume avec une réelle « personnalité éditoriale », le blogueur devrait être capable de donner sa propre opinion, rendant un article sur « vidange fosse septique » drôle voir même utile dans un article titré « Comment j’ai débouché les chiottes de Mémé » avec un lien dans une phrase « il était hors de question que j’appelle le plombier de [ville], il est trop cher pour moi et puis j’aime pas sa gueule ».
  • Acheter article à un rédacteur coute de 5 à 20€ en moyenne, (des fois plus), ici vous payerez le prix de l’article ET un bonus pour le lien de 5 à 10€ par exemple.
  • Vous gagnez du temps parce qu’il devient inutile d’aller poster vous-même les 100 articles achetés auparavant.

Les écrivains du dimanche, ça c’est de la bonne nouvelle baby!

Nombreux sont les auteurs de nouvelles et écrivains en herbe rédigeant par besoin de s’exprimer, rêvant d’être publié un jour.
Ces rédacteurs là aussi peuvent se faire du pognon, en exerçant ce qu’ils aiment faire et ce qu’ils font de mieux: Écrire, et en ne changeant quasiment pas leur habitude!

Pour cela, il leur suffit juste de publier sur un blog sous wp, leurs sites sont utiles et remplissent leur rôle, diffuser des nouvelles, sont bien écrit parce qu’ils le font avec amour, et devraient rester longtemps sous les radars parce que ces « webmasters du dimanche » ne chercheront  à ranker sur aucune autre expression que leur propre nom/pseudonyme. :)

On voit de plus en plus dans les séries,  sur dpstream au cinéma du placement de publicité,  rien de plus simple pour un auteur de caler un lien à  la demande quelque part dans une de ces nouvelles, le personnage principale peut du jour au lendemain être un joueur de poker en ligne,  vouloir sauver la miss dont il est tombé amoureux sur un site de rencontre en ligne, vivre les meilleurs vacance de sa vie après avoir souscrit à un crédit en ligne ou se procurer un vol pas cher pour [ville] pour y vivre une histoire d’amour.

Vous l’avez compris, ce n’est pas les occasions qui manquent, imaginez le dernier roman que vous avez lu avec un lien par page, cela en fait des opportunité.

Ceux qui me connaissent savent que j’écris comme je parle, y’a plein de fautes, mais la plupart des idées de cet articles n’ont même pas été réfléchies au préalable, c’est venu comme  ça, mode écriture automatique et je suis sûr que si vous vous posez les bonnes questions vous trouverez de nouveaux plans, de ce type, allez ça fait longtemps que j’ai pas écrit sur discodog alors je vais vous mâcher le travail. :)

  • Contactez des blogueurs en direct et leur proposer d’acheter un lien dans un de leurs articles déjà existant (ces liens sont meilleurs que c’est dans un article écrit spécialement pour vous), allez les chercher sur les hébergeurs de blogs populaires (demandez sa liste à votre consultant bh préféré)
  • Négociez l’insertion d’un lien avec les admins de forums
  • Créer un CMS spécialement pour les écrivains en herbe
  • Créer une régie facilitant les interactions entres acheteurs et auteurs (alors textlinkads z’êtes à la ramasse ou quoi? :D)

Si j’étais un auteur, je rédigerai naturellement des nouvelles, puis j’irai sur semrush voir les acheteurs potentiels de lien que je contacterai directement (un outil à automatiser tiens ;)), au début je me prendrai des vents mais il y a fort à parier que si cela se démocratise, acheter un lien pas cher 10€ ou 20€ en one shot via un lien paypal ne sera plus qu’une formalité.

Ces articles m’ont donné envie de réagir

Alors êtes-vous toujours aussi perdu ou cet article vous a donné des idées?

A propos de Discodog


Je peux vous former au bon usage des principaux outils BH et vous éviter les gros fails qui vont avec quand on débute en bh ainsi que vous assister dans la création de gros réseaux white-hat (ou pas). Contactez-moi maintenant si vous êtes prêt à dominer votre marché. ;)

Comments

  • Bastien (1 comments)

    Quel plaisir de te relire ! Je suis tout à fait d’accord avec toi sur le fond et la forme. Le référencement propre est une utopie si on se tient aux règles strictes de GG. A partir du moment où tu cherches à influencer les algo tu n’es plus propre. Les chapeaux blancs nacrés n’ont qu’à bien se tenir ! Merci Rudy ;)

  • Hm, pour les sites de CPs, je pense que c’est plutot lié au taux de duplicate intersites qui a fait filtré tout le zinzouin, et non la typologie ‘communiqués de presse’.

    • Maximilien (2 comments)

      Il y a de ça et de ça, au final c’est un ensemble de critères qui ont facilité la tâche à Google. Très bon article sinon, le SEO continuera d’évoluer continuellement. Les CPs c’était vraiment facile pour les référenceurs, mais aussi très facilement repérable par Google, à l’avenir Google risque de prendre cher avec de nouvelles techniques SEO qui seront de plus en plus difficiles à détecter.

  • Alexandre (10 comments)

    Hello,

    Cela fait plaisir de lire un article de qualité, aussi je me pose la question suivante :

    Soit Google à sanctionné tout les sites de CP manuellement ou alors Google à sanctionné les sites de CP selon le template (tous fait sur WP).

    CQFD : Faire un site de CP sur Joomla –> Ca existe déjà moins …

    2. Vive le guest blogging ! N’hésitez pas à me contacter pour du guest blogging

    • Stone (1 comments)

      Je mettrai un bémol sur la typologie des CMS ciblés et pénalisés par GG : pas mal de WP effectivement, mais aussi du Joomla, du Spip, Dotclear, du CMS exotique et « fait maison ».

      Je pense plus à une somme de facteurs qui a déclenché les foudres de l’Inquisiteur : CMS utilisé, liens sortants sur chaque article, les blasts, l’empreinte de l’auteur (ça façon d’écrire, la tournure de ces phrases), etc ….

  • Gwaradenn (38 comments)

    C’est un plaisir de te relire. Par contre, penser que Google va surveiller et pénaliser les sites de CP à la main, c’est un peu fantasque. ;)

    • Discodog (377 comments)

      Pourtant le full auto je n’y crois pas un instant.
      Dans le meilleur des cas ils se codent un assistant mais je suis persuadé que le résultat final est tranché par un humain, surtout pour avoir si peu de faux-positif comme c’est le cas avec cette dernière mise à jour.

    • RaphSEO (1 comments)

      Je suis un peu de l’avis de Rudy, moi je verrais bien du full auto pour une première sélection puis passage d’un QR pour approuver ou non le site visé. ça c’est tout à fait envisageable.
      Après clair que parfois le QR n’a même pas à intervenir vu comme les signaux sont tous dans le rouge

    • Gwaradenn (38 comments)

      Étrangement, les CP ne sont pas tous pénalisés (malgré la présence de listes), des CP privés ont été touché et les CP payant sont encore en ligne. Google gère la découpe des templates parfaitement, analyse les schémas de liens, le contenu… bref j’ai des doutes sur les interventions manuelles. Quoi qu’il en soit les réseaux privés thématiques resteront sous le radar. ;)

    • Discodog (377 comments)

      Que veux-tu dire par « Google gère la découpe des templates parfaitement »?
      Structure des articles ou design?

      Si tu parles du template d’article, on pourrait assez facilement le vérifier à coup de blast xr.

    • Gwaradenn (38 comments)

      Je fais référence à Panda & co (qu’est ce qu’un pied de page, un article, liens relatifs…).

    • Jean-Michel (1 comments)

      Une partie de la réponse se situe peut être par là :
      http://en.wikipedia.org/wiki/Machine_learning

      En gros QR font le job pendant X temps … et GG a une BDD pour bosser lancer la machine et des algos.

      Donc les veilles ruses à oublier et privilégier les nouvelles ou la fraîcheur.

      M2CP

    • Iron Star (1 comments)

      Le full auto ? Je n’y crois pas une seconde. Il faudrait, pour ça, que les financiers de Google arrêtent de flipper en imaginant les frais liés au nombre de machines mobilisées ainsi qu’à la facture d’électricité. Tant que les petits indiens seront rentables, ce sera à la main. Mais entretenir le mythe de l’infaillibilité informatique auprès d’un monde de geek est probablement le plus gros succès de GG.

      Sinon, merci Rudy pour cet excellent article !

  • Benoit (3 comments)

    Brillant !
    Juste une remarque quand même, combien de temps pour que les blogueurs soudain tous devenus « dealer de liens » soit shooter par MC ? (la faute aux ancres optimisée par exemple..) ?

    • Discodog (377 comments)

      Allez je dirai minimum 2-3 ans de tranquillité. ;)

    • Nicolas (4 comments)

      Ah oui mais alors si on n’a pas le droit non plus de mettre des liens dans des articles de blogs.. Aller quoi, même un ou deux de temps en temps ?

  • Chokoala (1 comments)

    Que des bonnes idées pour l’avenir du SEO ainsi qu’un plan business plus qu’intéressant : merci pour le partage !

  • gdtsb (3 comments)

    Je trouve l’idée sympa …les pages « contactez moi pour un article payant » vont faire de jolis footprints et dans un an ce sera la nouvelle cible de MC …
    Les seo/auteurs pleureront sur leurs sites d’articles pénalisés … etc etc

    Alors on fait quoi dans un an ? ;)

    • Discodog (377 comments)

      Tu as mal lu, c’est soit aux éditeurs de faire la démarche, soit aux auteurs de contacter les éditeurs.
      On peut facilement coder un tool envoyant un email auto aux site du top50 sur xxx keyword, mais je vois surtout les éditeurs aller chercher à acheter du lien.

    • gdtsb (3 comments)

      J’ai pas « mal lu » c’est ce que je pense qu’il va se passer, les petits malins seront discrets , les autres feront une page « contact amélioré » et pleureront dans 1 an

  • bastien@Sentulebonson (1 comments)

    Et bien cet article est vraiment intéressant! Je prends note de tout ce que tu dis ;)

  • internet deauville (1 comments)

    cool rudy que tu reprenne les post… on en a parlé par le passé, perso si j’étais chez google et je voyais tous les jours des centaines de mecs qui essaye de m’enc… , pardon de contourner mon super algorithme et bien je foutrais des honeypot partout… des faux host lfe, des fuax blog highPR dofollow no modé, du site de CP, du social bookmark (et plein d’autre type de spot… qu’on ne citera pas ici) ainsi je grilles tout les raccroc des listing et post easy , je les décourage et il vont bossé chez KFC.

    j’ai pas fais saint cyr mais bon ca serait tellement simple…

    • Discodog (377 comments)

      Yes, c’est une bonne idée! :)

      Prenez pas la confiance, c’était juste un article comme ça hein. :D

  • Thomas Barbéra (1 comments)

    Sympa les pistes !

    De mon côté, je fais toujours du CP mais je fais varier beaucoup plus les ancres de liens et fabrique du lien naturel (cliquez-ici) etc…

    J’essaye également de faire varier le nombre de mes liens par article.

    J’ai un site qui a été déclassé, j’ai exploité mon réseau de lien mais je n’avais pas pensé à l’échange de lien pour tenter d’obtenir des liens d’auth. Je vais m’attaquer à ça tout de suite. ^^

  • refschool (2 comments)

    rudy le meilleur de ton article est même pas dans le titre :)

  • Xavier Berger (2 comments)

    Pour obtenir ou vendre des article sponso incognito ya également des régies qui sont parfaites pour ca, du type teliad, TLA etc… Ca permet d’être mis en contacte de façon anonyme, sans avoir à écrire sur le blog « pour acheter des liens cliquez ici »

    • Discodog (377 comments)

      Je trouve TLA hors de prix, je pense que ce business fleurira réellement quand les blogueurs seront capable de dealer eux-même leur liens et à un prix raisonnable, au lieu de vendre $100 3 liens intext, les vendre à $10 pièce advitam eternam, ainsi le rédacteur peut se fixer des objectifs, « je monte un blog de 100 articles et j’y vends 100×2 lien à ${10|20|30} ce qui peut monter jusqu’à $2000-3000 de CA. Et quand on sait écrire cela va très vite!

    • Xavier Berger (2 comments)

      C’est vrai que TLA est cher, teliad semble plus abordable. Je ne voulais pas écrire pour teliad au début, mais en fait je reçois largement plus de demandes d’article que TLA. Au final je gagne plus par teliad.

  • valerie (2 comments)

    A part ton coté industriel (je ne suis pas codeur, et je fais mas mal de choses à la mano), je m’aperçois qu’on voit un peu les choses de la même façon.

  • Whisky (1 comments)

    Personnellement je n’ai pas été shouté pour les sites sur lesquels j’ai fait du CP (ou alors pas encore…). Sinon pas mal de pistes à étudier dans ton post.

  • Christophe (3 comments)

    Merde ! J’approuve à 100% – Docteur, est-ce que je devient BH ou juste un parano de Google ?

    Etant plus rédacteur que SEO, tu viens de me griller une partie de mon business ;-) merci quand même pour cet article {postmoderne| remplis de bon sens} sur le SEO.

    Je pense que dans certaines thématiques, les prix seront peut-être même plus cher.

  • Ruben (1 comments)

    Très bon article Rudy … j’aime bien ta rédaction des idées qui viennent à la volée … continue ta matière grise est bouillonnante et ton sens de la justesse plutôt aiguisé.

    Concernant le facteur humain on sait que GG à certains moment, pour certaines actions précises, utilise des petites mains. Ça a évidemment des limites et j’imagine assez mal des mecs en freestyle même avec un cahier des charges assez précis. Par contre on sait aussi que depuis quelques années GG utilise allègrement des facteurs émotionnels de ses utilisateurs. Qu’est ce que je veux dire par là ? Ben en gros y’a du lourd au niveau des études sur les comportements humains … on maitrise pas trop mal et pour faire court, je pense que les stratégies de « dénonciations » mise en place par GG peuvent avoir potentiellement pas mal de poids. Je parle bien principalement du spam report.
    Dans ce cas précis, il semblerait que le facteur humain soit déterminant et qu’en 2, 3 clics avec des outils internes (??) un QR puisse être en mesure de faire une belle pêche et parfois de remonter assez loin.
    On connait assez bien l’esprit humain, et globalement on est à peu près en mesure de savoir que de matière récurrente et dans des proportions souvent stables on aura tant de voleurs, de tricheurs … de dénonciateurs.
    De ce fait il m’est arrivé de laisser mes pensées imaginer qu’une mise à jour de l’algo, violente, discriminatoire etc … avant même son premier update, pourait générer pas mal de ressentiments humains et donc potentiellement la mise en route d’analyses spécifiques, parfois (souvent ??) faites par des humains.
    Bon attention dans ce qui nous concerne, autrement dit les CP, je pense qu’avant ça effectivement tout un tas de signaux permettent de faire une bonne (énorme) part du job. N’oublions pas que les humains reviennent assez cher.

    Pour le coup, je me la joue Rudy (j’essaie ;-)) et j’écris ça sans y avoir particulièrement réfléchi … puis merde, même en disant des conneries parfois au moins ça a le mérite de défricher et faire gagner un peu de temps aux autres ;)
    ++

  • Labisse (1 comments)

    Déjà on commence a voir de plus en plus de guestblogging, qui est une première étape mais après si on commence a monter des blogs thématiques pour un article avec BL faudra publier deux ou trois sans BL sinon on tombera dans la même logique que les CP (même avec une pseudo-ligne éditoriale). A mon sens c’est bien l’achat de liens sur des réseaux d’éditeur de sites qui risque de faire un « malheur » … mais on verra bien ;)

  • Blackos99999 (1 comments)

    Une fois de plus je me régale à lire tes articles rudy (mais pas assez souvent)

  • Polonwn (2 comments)

    Rho merci rudy tu viens de me donner une idée de concept des plus sympatoch pour faire du propre en restant dans la logique du donnant donnant à moindre coût !!

  • Morgan (25 comments)

    Ca me fait penser à un article, de je ne sais plus trop qui (désolé pour lui), qui parlait des « dealers de liens » qui séviraient dans le futur. En gros, les mecs qui se mettront entre le rédacteur-blogueur et les sites qui cherchent des liens faciles et de qualité.

    Au passage, si y en a qui cherchent du GuestBlogging sur du voyage, je suis intéressé :)

  • Vince16 (1 comments)

    « Contactez des blogueurs en direct et leur proposer d’acheter un lien dans un de leurs articles déjà existant »

    je pense que ça peut être un signal négatif (c’est pas très naturel de rajouter un lien dans un article qui date d’il y a 6 mois si ?). Ne vaut-il mieux pas obtenir des liens dès le départ dans de nouveaux articles ? Tu en penses quoi ? (je n’ai rien qui le prouve et effectivement l’achat de lien dans de vieux articles fonctionnent mais peut être moins bien – simple hypothèse).

    • Discodog (377 comments)

      Y’a rien de mieux que des liens sur des pages anciennes.

    • Antonin D. (1 comments)

      Je suis pas d’accord avec toi Polonwn : en tant que blogueur, tu es amené à modifier tes articles. Par exemple :
      - si tu présentes un produit qui n’existe plus (edit : ce produit a été retiré de la vente et remplacé par celui-là (un lien)
      - si quelqu’un d’autre a écrit un article plus complet ou complémentaire au tien (edit : pour d’autres avis sur le sujet, je vous conseille (plusieurs liens))

      Et puis même les commentaires dans les articles de blogs ils se font a posteriori donc non je pense pas du tout que ça puisse être un signal négatif pour Google ;)

  • 21janvier (1 comments)

    Super intéressant, je suis un peu surpris que ça n’existe pas déjà en aussi poussé, y a un business à lancer là dans la rédaction :) Ca me fait penser à ce que fais http://fr.textmaster.com/ : ils ont la demande, les rédacteurs, pourquoi ne pas proposer un CMS pour publier les articles directement ?

  • Le Juge (1 comments)

    Plutot bon ton article,

    Bon perso je ne crois pas trop a la penalité mano, meme si le full auto est lui aussi difficile a croire.

    Les articles sponsos sont deja quelque chose qui existe (review me par exemple, loudlaunch et autres) je m’en suis deja servit mais plus pour de la generation de trafic. toi tu propose quelque chose de plus, généralisé je dirais, moins thematique, possiblement moins quali (et encore vu ce que je vois sur les liens, pas forcément). J’aime bien ton approche « authority » plus que MC je fais un peu la meme chose (mais a la mano)

  • sylvainp (1 comments)

    Pour ta dernière idée sur les blogueurs, si tu es client, je suis vendeur…

  • Oweia (1 comments)

    Oui, enfin, c’est ce qui se fait déjà allégrement dans le monde du casin0 pour ne pas citer, quelques gros affiliés US sont des experts et ont des personnes embauchées par marché pour faire ça… et ce « ça », ça s’appelle acheter des liens, pas forcément ce que GG préfère, mais comme tu le dis si bien, entre shooter des gros points rouges et des tas de bleus, il faut faire des choix.

  • SEO Factory Girl (2 comments)

    Je pense aussi que les CPs ont été victimes d’une pénalisation manuelle (f. http://www.webpronews.com/google-its-only-a-penalty-if-its-manual-action-2012-06, c’est assez clair je pense). Je n’aurais jamais pensé, par contre, que ça arrive vraiment car il est très compliqué du point de vue de la pertinence pure de décréter qu’un site de CP n’apporte aucune plus value.

    Par contre, je ne pense même pas que l’analyse de l’ingénieur soit allée aussi loin : il existait une liste de CPs utilisés avant tout *pour le linking* extrêmement populaire, connue de tous et très largement tweetée, RT, likée et linkée. Alors je sais ce qu’on va me dire : mais des listes de CPs il en existe des tas. Oui mais celle-là, ça n’était pas n’importe quelle liste justement, c’était ZEU LISTE. Et justement parce qu’il est hyper facile de débusquer les plateformes de CPs automatiquement (ou même manuellement, c’est pas un gros travail non plus entre nous), ça me parait l’evidence même que toute cette histoire n’est qu’un gros coup de com comme GG les aime pour nous faire peur. A mon avis ça a du pas mal débattre dans la SQ, mais on ne pouvait pas indéfiniment leur agiter une si jolie liste sous le nez en espérant que ça passe inaperçu (et si toute la liste n’est pas passée à la trappe, c’est justement parce qu’il y a un jugement editorial derrière). En plus avec Penguin + Panda version 546.3 récemment, ça tombait à pic pour créer la confusion chez les SEOs.

    (Comment ça, « théorie du complot » ? xD)

  • Soul (1 comments)

    Super article, par contre je voie mal comment Jquery te permets de gérer ton réseau, perso je cherche un langage capable d’utiliser ff comme sous-couche.

  • Nathanaël (1 comments)

    Bonjour,

    a la lecture de l’article et des commentaires, j’ai l’impression que Google cherche à nous faire peur et que c’est soi-disant changement d’algo, ce n’est pas grand chose. En gros Google a éjecté quelques dizaines de milliers de site qui le gênait et puis c’est tout …

    Je me dis alors que je peux continuer à faire mes backlinks comme avant et arrêter de flipper … vous ne croyez pas ?

  • Sylvain - AxeNet (1 comments)

    Salut Rudy,
    J’ai tweeté ton excellent article dès sa sortie en me disant que les bons Bh ont vraiment cet état d’esprit que j’adore. Je repasse un peu tard.
    A un moment quelqu’un avait expliqué sur le forum veille-seo la manière dont se pratique le linking en allemagne. C’est très proche de ce que tu expliques. Je pense qu’à terme, les blogs thématisés vont pouvoir vendre leur « propreté » une petite fortune. :-)

    En revanche, pour le côté manuel de la pénalisation des CP, je n’ai pas trop de doute. C’est le mode de communication type de google. Frapper un bon coup bien visible pour faire bien peur. Et c’est super efficace. A l’occasion, discute un peu avec Sébastien Monier ( un ex de google qui a bien tourné :-) )
    Il en a dézingué un paquet de sites à la main lorsqu’il travaillait là bas. Pour les CP, c’était facile et rapide. Je ne vois pas pourquoi google se serait pris le cou à coder un truc.
    Imagine, on t’aurai demandé, tu aurais pu en déssouder 3 fois plus en 1 heure :-)

  • Axel (1 comments)

    Les bloggueurs et rédacteurs du dimanche sont déjà une réalité: c’est le crowdsourcing à la textbroker master et cie! Maintenant l’idée d’utiliser le blog de M. Toutlemonde pour faire paraitre des CP est une bonne idée!

  • [ quote ]
    cloud piwik et utilisons un proxy php pour que le tracker ne laisse pas de footprint vers l’instal’ piwik,
    [ /quote ]

    Là je te cache pas que tu me rends curieux camarade. c’est précisément tout pile mon problème du moment ^^

  • Boris (9 comments)

    C’est brut, c’est frais, c’est franchement intéressant… Rudy, j’aime quand t’écris !

  • Zied Redissi (1 comments)

    Très bonne article, je pense que ton intuition est correcte, les blogueurs à terme seront nos meilleurs amis mais par contre je pense qu’au contraire il ne faut pas organiser les choses en créant des plateformes mais rester sur des contacts interpersonnel pour faire perdurer ce nouveaux système le plus longtemps possible, ce qui agace google c’est pas vraiment qu’on trouve une nouvelle faille, c’est qu’on en fasse la promotion comme si de rien n’était!

  • BigBenny (1 comments)

    Première véritable analyse technique sur Pingouin que je lis.
    En tout cas cela sera vérifiable dans le futur, en ce moment je vois très peu de sites de Black Hat bien positionnés mais si l’analyse est correcte, de nouveaux sites black hat devraient apparaitre d’ici quelques mois dans les top positions.

    Par contre, penses tu qu’il est possible de faire sortir un site du shootage pinguin en supprimant des liens?

    Concernant le SEO de demain, je pense qu’il faut surtout savoir choisir ses projets. Il est beaucoup plus facile de référencer un site qui a un bon produit, soutenu par une bonne équipe (bon nom de domaine, bon développeur, rédacteur expérimenté sur le sujet ou le produit, marketing, etc). Le travail du SEO devient surtout de l’accompagnement et donner quelques pistes et directions. Il y a beaucoup d’autres choses à faire autre que de rechercher des spots à spammer.

    Je parle du nom de domaine car dans ta démonstration on voit clairement que le nom de domaine est l’une des clefs du référencement. Pour reprendre ton exemple dans le domaine du poker, avec un nom de domaine comme Poker.com il possible de charger à fond sur l’ancre « Poker », c’est du branding!

  • echange de liens (1 comments)

    J’ai réalisé il y a pas très longtemps une campagne de netlinking à destination des blogueurs.
    Le deal = je leur envoi un produit à tester et ils écrivent un article avec leur avis et surtout 2 BL de mon choix.
    Le produit à envoyer ne coûte à achat que 7 € HT et est revendu 19.90 € TTC ^^
    Co
    Résultats 20 articles sur des blogs de la thématique de mon client pour 260 euros ^^ (7 + 6 (envoi) *20)
    Ce qui est encore plus beau c’est que ces articles ont ont générés des ventes … qui ont rendus le boulot rentable immédiatement !

  • Est-ce que mon ancre est bonne alors ^^

    En effet je suis ok pour dire qu’il faut que se soit le plus naturel possible, et surtout très varié, mais quand tu fais le calcul: nombre de liens sur nombre d’ancre possible, tu sature vite en idée pour les ancres?.

    Merci pour ton article.

  • Refmax (1 comments)

    Yop Rudy,

    ça fais plaisir de te relire ;)

    Je suis 100 % d’accord avec toi sur la variation d’ancres j’ai fait pas mal de test depuis la vague du kinder pinguin et il est clair que la variation d’ancre type « branding » reste bien marqué.
    Pour le reste il est logique que Google défonce certains sites ou CMS dans la mesure ou ces sites/CMS sont hyper spammée, je pense qu’aujourd’hui le vrais problème vas être de continué de spammée sur des sites qui ne le sont pas ça risque d’être chaud pour certains mais il y a encore de belles opportunité ;)

© Copyright Agence referencement toulouse gnark gnark gnark. All Rights Reserved.