About the author

Pierre Barthélemy-Ivanoff

[Pierre Barthélemy-Ivanoff] Consultant SEO sur Chambéry/Aix Les Bains en Savoie, 40 ans, et joueur passionné de hockey sur glace (Albertville). Motard aussi (Hornet 600), chauve mais sympa.

Related Articles

9 Comments

  1. 9

    Pierre Barthélemy-Ivanoff

    Bonjour Patrick, oui effectivement je n’ai pas pensé aux 410. Mais sur mon exemple, j’avais surtout la contrainte de ne pas avoir de ressources techniques ou accès au backoffice. Ce qui limitait mon champ d’action 🙂

  2. 8

    Pierre Barthélemy-Ivanoff

    Salut Yoann 🙂 T’as vu je me basais aussi sur ton taf initial 🙂
    Oui, j’y avais pensé a l’époque, avec le recul j’aurai du le tenter. Mais c’est tombé à une période pas simple que tu as connue 😉
    Est ce que tu as des résultats de tests qui montrent une prise en compte plus rapide ?

  3. 7

    Patrick valibus

    Bonjour Pierre,
    L’idéal c’est le package suivant :
    X robot tag (ça tu l’avais)
    htpassword et l’instruction vhost header always set (ça te permet que google lise le x robot tag malgré le .htaccess)
    Si t’es vraiment en mode suppression à fond, tu peux lui pousser des 410 Gone y’a rien de tel. Pas pour rien que c’est le nom de ma boite ^^

  4. 6

    Maolazo

    Holla, pour ma part, j’ai du faire desindexer plus de 150 000 pages filtres d’un moteur de recherche à facettes suite à une erreur technique. J’ai utilisé le fichier robots.txt, avec plus de 90 commandes de NOindex pour tout nettoyer dans l’index Google. Grosso modo, pour revenir à la normal en terme de volumétrie de pages indexées, cela a mis 4 mois environs selon la search console. Avec une hausse de la visibilité à partir du 4eme mois. Donc, cela corrobore les tests de P B I

  5. 5

    yoann

    Salut Pierre !

    j’aime bien le noindex dans le robots.txt c’est plutôt efficace. Quand on monitore les logs d’un site on voit bien que c’est le fichier le plus visité par les bots.
    Pour des volumes de pages plus importants il y a une méthode très radicale et rapide qui consiste à avoir d’un côté la directive noindex sur les pages concernées et de l’autre pousser un sitemap avec toutes les urls à désindexer.
    Ne pas oublier de supprimer le sitemap une fois les pages désindexées 🙂

  6. 4

    Pierre Barthélemy-Ivanoff

    Bonjour, le htpassword a peut être accéléré les choses. Est ce qu’il y avait beaucoup de pages indexées ? J’aurai rêvé voir mes pages disparaitre au bout de 48H… 🙂

  7. 3

    Marc

    Merci pour ce retour d’expérience, c’est toujours utile d’avoir ce genre de confirmation. Sur un site de preprod indexé, à partir du moment où le robots.txt a été mis en place en même temps qu’un accès restreint via htpasswd, la désindexation totale a été prise en compte en 48H, comme pour Damien.

  8. 2

    Pierre Barthélemy-Ivanoff

    Sur une seule URL ou plus ? Ici je parle de 150 000 URL (de tête). Après, j’ai justement pas fait d’actions supplémentaires. C’est uniquement sur le robots.txt cette expérience

  9. 1

    Damien

    Surprenant, d’habitude, mes demandes de suppression sont traitées en 48h, avec un robots.txt ou une balise noindex puis en re-soumettant la page via la Search Console.

Leave a Reply

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Pierre Barthélemy-Ivanoff / Blog relancé en 2016 - Goodnews Theme par Momizat Team