sábado, 6 de diciembre de 2014

Robots.txt, comprobando que esten correctos en tu página web


En la categoría de utilidades para sitios web ya os he comentado varias aplicaciones que podemos usar para crear y configurar archivos htaccess, algo fundamental para que nuestra web se comporte de forma correcta ante cualquier circunstancia. Ahora le ha tocado el turno a otro archivo no menos importante: robots.txt.
Robots.txt checker se encarga de analizar el archivo de cualquier sitio web, comprobando si tiene la estructura correcta y avisando en caso de que se encuentre algún error que pueda perjudicar a la lectura de nuestra web por parte de los diferentes buscadores.
Muy recomendable para ampliar nuestros conocimientos sobre un tema que afecta a todos los que vivimos creando proyectos en la web.

0 comentarios:

Publicar un comentario

Gracias por tus comentarios.