Categorías: Actualidad

El ataque de los robots

Imagina que tienes una web y que te has currado el SEO y SEM de la misma, de manera que sales en todos los buscadores en los primeros puestos.

Tu web tiene muchos accesos, estás muy contento porque tu negocio funciona. Pero de repente, un día, la web empieza a ir muy lenta. Revisas el servidor y ves que la CPU está al 100%.

Vas corriendo a ver tus estadísticas de usuarios activos y ves que no has tenido un aumento tal que justifique ese incremento de consumo de recursos. Revisas las funcionalidades nuevas que has podido añadir a la web, pero no encuentras que eso pueda provocar un aumento tan considerable en el uso de los recursos del servidor. Revisas cachés, tiempos de respuesta y nada.

Por último y ya a la desesperada empiezas a revisar los logs del servidor web y allí los ves, como una plaga campando a sus anchas y comiendo recursos como unos locos: los robots.

 

Aprender a programar robots.txt es tu tabla de salvación

 

Los robots o crawlers, son software que usan las empresas, principalmente de buscadores como Google, Bing o Yahoo, para rastrear e indexar las webs que hay en Internet.

El problema con los robots es que no tienen el comportamiento típico de un usuario y por tanto es posible que tú no hayas previsto la secuencia o cantidad de accesos que puedan hacer. A parte de que son capaces de recorrer más páginas por segundo que un usuario normal.

Para defenderte de los accesos masivos de los robots tienes una primera línea de defensa muy fácil de implementar: robots.txt. Ese sencillo fichero que se aloja en la raíz de tu web puede hacer un trabajo extraordinario, así como las 3 leyes de la robótica de Isaac Asimov. No voy a decir todos, pero sí la mayoría de los robots respetan ese fichero y lo tienen en cuenta.

Para empezar podemos indicar en robots.txt qué páginas no queremos que indexe:

User-agent: *

Disallow: /pagina-que-no-quiero-indexar.html

Disallow: /directorio-que-no-quiero-que-indexe/

Con esto pareamos cierto tráfico, pero la línea que realmente hace que los robots no machaquen todo el rato nuestra web es la siguiente:

User-agent: *

Crawl-delay: 5

Aquí lo que hacemos es definirle al robot el tiempo que tiene que esperar entre una petición y otra, así logramos que el ratio de peticiones baje y no acabe con el rendimiento del servidor.

Antes de que te pongas manos a la obra es conveniente que sepas que los cambios que se realizan en robots.txt no son inmediatos, tienen que propagarse y suelen tardar varias horas en ser efectivos.

Fco. Javier Martín

Compartir
Publicado por
Fco. Javier Martín

Entradas recientes

Plataforma Dédalo: despliega aplicaciones Kubernetes de forma intuitiva y visual

En un entorno en el que la tecnología evoluciona a pasos agigantados, los Proveedores Independientes…

Hace 3 semanas

Fortalece tu ciberseguridad con las soluciones avanzadas Sophos XDR y Sophos MDR

En un entorno digital en constante evolución, las ciberamenazas se vuelven más sofisticadas día a…

Hace 2 meses

Así estamos transformando con el SOC la ciberseguridad de las empresas

En el entorno corporativo, dinámico y marcado por una profunda digitalización y una interconectividad global,…

Hace 2 meses

La revolución del Deep Learning en la Ciberseguridad: Un avance imprescindible

En la era de la transformación digital, donde la información es el activo más valioso,…

Hace 3 meses

Las 5 grandes predicciones de Conectividad y Ciberseguridad en 2024

En el cambiante paisaje de la tecnología, el 2024 marca un punto crucial en la…

Hace 5 meses

Inteligencia Artificial: La nueva frontera de la Ciberseguridad y Conectividad

En la era digital actual, la inteligencia artificial (IA) se ha convertido en una fuerza…

Hace 5 meses