Las opciones de la sección General

Paso 1 - Ajustes > Sección 'Avanzadas' > SEO >

Las opciones de la sección General

Previous pageReturn to chapter overviewNext page

Mediante las opciones de esta sección se pueden configurar una serie de parámetros que son útiles para la optimización de las Páginas, para activar el SiteMap y, el en caso de la edición Pro, para trabajar en la velocidad de carga de las páginas y activar el archivo robots.txt.

En concreto, es posible modificar las siguientes opciones:

Crear un SiteMap automáticamente: activada por defecto, hace que se cree y enlace automáticamente el Sitemap del Sitio.

Para que el SiteMap del Sitio se construya y funcione correctamente es necesario indicar una dirección URL válida en el campo Dirección URL que está en Paso 1 - Ajustes del Sitio web.

En la sección Tamaño de archivo, por contra, están disponibles las opciones para reducir el tiempo de carga de las páginas, y en consecuencia, para mejorar la experiencia de uso de quien navega:

Optimización de imagen: optimiza las imágenes que hay en el proyecto reduciendo su tamaño. Es posible elegir entre diferentes niveles de compresión. La compresión mínima no comporta ningún degrado de las imágenes. Los otros niveles de compresión, por contra, permiten resultados más significativos en términos de reducción del peso de los archivos pero comportan también una progresiva pérdida de calidad de las imágenes.
Activar minimización de los archivos: en la fase de exportación del proyecto, optimiza los archivos js y css presentes en el proyecto para reducir su tamaño. En la práctica, se eliminan del archivo informaciones que no son útiles para un efectivo funcionamiento de los archivos, como por ejemplo los espacios o los puntos y aparte.
Activar compresión gzip: hace que los archivos se envíen al navegador en el que se consulta el sitio web en el formato comprimido gzip, aumentando así la velocidad de carga de las páginas.

Por último, la sección Experto presenta los siguientes elementos:

Incluir el archivo robots.txt: configura el archivo robots.txt, que es útil para poder indicar qué contenidos deben ser excluidos de la indexación de los motores de búsqueda. Por defecto, las instrucciones previstas en el archivo robots.txt excluyen de la indexación por parte de todos los robots los contenidos publicados en algunas subcarpetas, como por ejemplo Admin y Res. Es posible modificar el contenido del archivo robots.txt tecleando o pegando las instrucciones necesarias.

Para mayor información sobre el archivo robots.txt, pulsar el botón y acceder al sitio web oficial: http://www.robotstxt.org/robotstxt.html.

 


Best practice:

-

Cómo configurar y utilizar el archivo Robots.txt

-

Cómo crear y conectar el SiteMap del sitio web