Les commandes de la Section Général

Étape 1 - Paramètres > SEO >

Les commandes de la Section Général

Previous pageReturn to chapter overviewNext page

Grâce aux commandes de cette rubrique, vous pouvez définir une série de paramètres utiles pour l’optimisation des Pages, actives le SiteMap et, dans le cas de l’édition Pro, intervenir sur la rapidité de chargement des pages et activer le fichier robots.txt.

En particulier, vous pouvez intervenir sur les options suivantes :

Créer automatiquement le SiteMap : activée par défaut, elle permet de créer et de lier automatiquement le Plan du Site.

Afin que le Plan du Site soit construit et fonctionne correctement, il est nécessaire d'indiquer une adresse URL valide Adresse Url du site présente dans Paramètres du Site.

La section Taille de fichier présente en revanche les options pour diminuer le temps de chargement des pages et, par conséquent, améliorer l’expérience des utilisateurs :

Optimisation : optimise les images présentes dans le projet en réduisant leurs dimensions. Vous pouvez choisir entre différents niveaux de compression. La compression minimale n’engendre aucune altération des images, tandis que les autres niveaux de compression permettent des résultats plus importants en termes de réduction du poids des fichiers, mais comportent également une perte progressive de la qualité des images.
Activer la minification des fichiers : en phase d’exportation du projet, cette option optimise les fichiers js et css présents dans le projet afin de réduire leurs dimensions. En pratique, les informations inutiles pour le fonctionnement du fichier, comme les espaces ou les changements de ligne, sont éliminées des fichiers.
Activer la compression gzip : fait en sorte que les fichiers soient envoyés au navigateur où le site est utilisé dans le format compressé gzip, augmentant ainsi le chargement des pages.

Enfin, dans la section Expert sont présentes les options suivantes :

Inclure le fichier robots.txt : prépare le fichier robots.txt utile d'indiquer quels contenus doivent être exclus de l'indexation des moteurs de recherche. Par défaut, les instructions fournies dans le fichier robots.txt excluent de l'indexation par les robots tous les contenus publiés dans certains sous-répertoires, par exemple, Admin et Res. Vous pouvez modifier le contenu du fichier robots.txt en tapant ou collant les instructions nécessaires.

Pour plus d'informations sur le fichier robots.txt, cliquez sur le bouton et accédez au Site officiel : http://www.robotstxt.org/robotstxt.html.

 


Bonnes pratiques :

-

Comment créer et connecter le Plan du Site

-

Comment configurer et utiliser le fichier Robots.txt