Un document interne révélé dans le cadre d’une procédure judiciaire aux États-Unis indique que Google a délibérément choisi de ne pas offrir aux éditeurs de sites web la possibilité de séparer l’indexation de leurs contenus pour le moteur de recherche de leur utilisation dans l’entraînement de ses modèles d’intelligence artificielle. Ainsi, si un éditeur souhaite que son site soit indexé par Google Search, ses contenus peuvent également être utilisés pour entraîner les IA de Google, sans option distincte pour s’y opposer.
Cette décision soulève des préoccupations parmi les éditeurs de sites web, qui craignent une perte de contrôle sur l’utilisation de leurs contenus et une diminution du trafic vers leurs sites, les utilisateurs obtenant des réponses directement via les résumés générés par l’IA de Google .
Pour s’adapter à cette nouvelle réalité, les éditeurs peuvent envisager les actions suivantes :
- Optimiser la qualité du contenu : Créer des contenus originaux, fiables et utiles, alignés sur les principes E-E-A-T (Expertise, Expérience, Autorité, Fiabilité), afin d’être sélectionnés comme sources dans les résumés générés par l’IA.
- Structurer les données : Utiliser des balises sémantiques et des données structurées pour faciliter la compréhension et l’indexation du contenu par les systèmes d’IA.
- Diversifier les canaux de diffusion : Ne pas dépendre uniquement du trafic provenant de Google Search, mais également investir dans d’autres canaux tels que les réseaux sociaux, les newsletters ou les plateformes alternatives.
- Surveiller les performances : Utiliser des outils d’analyse pour suivre l’impact des changements sur le trafic et adapter la stratégie en conséquence.



