Bonjour,
Je m’interroge sur l’impact réel de JavaScript dans les stratégies de référencement actuelles, notamment avec l’évolution des moteurs et l’arrivée massive des réponses générées par l’IA (ChatGPT, Perplexity, etc.). On parle beaucoup d’indexation JS côté Google, mais beaucoup moins de la manière dont ces contenus sont compris, synthétisés et restitués par les LLMs.
Dans des projets full JavaScript (SPA, frameworks type React / Vue / Next), avez-vous constaté des différences de visibilité selon le rendu, la structuration des données ou la façon dont l’information est exposée ? J’ai l’impression qu’on dépasse largement le cadre du SEO classique pour aller vers une logique plus orientée “compréhension” que simple crawl.
En creusant le sujet, je suis tombé sur des approches axées sur la GEO (Generative Engine Optimization), qui cherchent justement à influencer les outputs des IA plutôt que uniquement les SERP. Certaines agences semblent déjà se positionner là-dessus, comme celle-ci https://www.uplix.fr/agence-geo-ia/
Je serais curieux d’avoir vos retours : est-ce que vous adaptez déjà vos architectures ou vos contenus JS en pensant aux moteurs IA ? Voyez-vous ça comme une vraie évolution du référencement ou encore trop expérimental ?
Merci pour vos avis.
