Base de connaissances

Bénéficiez d'un hébergement web expert

Optez pour la fiabilité et l'expertise de SiteGround pour votre site web !

Accueil / Aide du site web / Comment nous gérons les crawlers d'IA sur les serveurs de SiteGround

Comment nous gérons les crawlers d'IA sur les serveurs de SiteGround

Dernière mise à jour : Sep 01, 2025 1 min de lecture

Les entreprises d’intelligence artificielle (IA) s’appuient sur des crawlers automatisés (bots) pour recueillir des informations à partir de sites web. Ces crawlers peuvent être utilisés à différentes fins, telles que l’alimentation de sessions de chat en direct où les utilisateurs posent des questions, ou la collecte de grandes quantités de données pour entraîner de nouveaux modèles d’IA.

Chez SiteGround, nous établissons une distinction claire entre ces deux usages.

Quels crawlers nous autorisons par défaut

Nous autorisons les crawlers des principaux fournisseurs d’IA utilisés dans les sessions de chat utilisateur.

Ce que cela implique :

  • Votre site web peut être accessible et référencé dans les réponses en temps réel que les utilisateurs reçoivent lorsqu’ils utilisent ces outils de chat IA.
  • Cela peut accroître la visibilité et la portée de votre contenu, puisqu’il peut apparaître directement dans les sessions de chat IA lorsqu’il est pertinent pour les requêtes des utilisateurs.
  • Les crawlers se limitent à lire et afficher des informations. Ils ne devraient pas stocker ou réutiliser vos données.

Par exemple, imaginez que vous gérez une boutique en ligne hébergée sur SiteGround qui vend des bijoux faits à la main.

Si un utilisateur demande à ChatGPT « Où puis-je acheter des bracelets en argent sur mesure? », le bot pourra explorer votre boutique et afficher les informations de vos pages produits dans sa réponse.

De cette manière, des clients potentiels peuvent découvrir votre site web directement à l’aide de l’outil de chat IA.

Consultez notre article dédié pour la liste complète des crawlers IA de session de chat autorisés.

Quels crawlers nous bloquons par défaut

Nous bloquons les crawlers utilisés à l’entraînement de modèles d’IA pour protéger les données des sites web de nos clients, préserver leur propriété intellectuelle et économiser les ressources serveur.

Ces bots cherchent à collecter de grands volumes d’informations pour constituer des ensembles de données d’entraînement, qui pourraient ensuite être réutilisés pour construire ou améliorer des systèmes d’IA sans votre consentement.

En les bloquant, nous garantissons que votre contenu reste sous votre contrôle et ne soit pas exploité à des fins autres que celles pour lesquelles il a été publié.

Si vous avez une raison spécifique de permettre à ces crawlers d’accéder à votre site, vous devez soumettre une demande en utilisant notre Centre d’aide > Autre > J’ai d’autres problèmes techniques.

Notre équipe de support examinera votre demande et appliquera la modification si elle est jugée appropriée.

Partager cet article