Help > Forum > Los motores de búsqueda > ¿Por qué algunas páginas están bloqueadas en el archivo robots.txt?

¿Por qué algunas páginas están bloqueadas en el archivo robots.txt?

El archivo robots.txt que hemos especificado está optimizado para garantizar la mayor clasificación posible en los motores de búsqueda. Indica a los motores de búsqueda que no indiquen ciertas páginas que podrían afectar negativamente a la colocación en los motores de búsqueda. Por ejemplo, páginas con muy poco contenido (como la página Redactar nuevo tema), direcciones URL que son ligeramente diferentes que apuntan al mismo contenido (esto se contabilizaría como contenido duplicado por los motores de búsqueda) y páginas transaccionales sólo para miembros (como seguir un tema, editar su perfil, etc.). Esto garantiza que los motores de búsqueda vean principalmente las páginas altamente relevantes y enriquecidas de contenido de su foro para que su foro sea más alto en los resultados de búsqueda.


If you still need help, please contact us.