Zugriffe verlangsamen
Es ist sicherlich nur schwer möglich alle bekannten Bots des Internet für die Webseite zu sperren oder zu blockieren, jedoch ist es nicht schwer massenhafte und automatisierte Zugriffe auf Inhalte zu verlangsamen, sodass Bots oder Hacker schnell das Interesse verlieren. Dies ist die Aufgabe des so genannten RateLimiters
in CleanCMS.
Frequenz
Der RateLimiter
erhält für diesen Zweck zwei Eckdaten, zum einen das maximale Zeitintervall in dem die Messung stattfindet und zum anderen die maximal mögliche Anzahl erlaubter Zugriffe innerhalb dieses Zeitfensters. Beispielsweise ist ein Intervall von 60 Sekunden mit maximal 20 Zugriffen ein sehr gutes Setting, um einen natürlichen organischen Leser zu erlauben, jedoch Bots mit deutlich schnelleren Zugriffen zu blockieren.
Sperrung und Wartezeit
Überschreitet der aktuelle Client die angegebene Frequenz, indem er beispielsweise 21 Zugriffe innerhalb von 60 Sekunden tätigt, wirft das Content Management System einen HTTP-Response Code 429 To many Requests und sperrt den Zugriff. Ab jetzt beginnt eine Wartezeit von 60 Sekunden, nach der erneute 20 Zugriffe möglich sind.
Je Webseite kann die Frequenz unterschiedlich eingestellt werden, dies ist natürlich stark von deren Popularität und Bekanntheit im Web abhängig. Für den ersten Start werden großzügige Einstellungen empfohlen, die nach und nach optimiert werden können, ohne das echte Leser darunter leiden müssten. Das hier gezeigte 60/20 Verhältnis ist meist eine sehr gute Ausgangslage.

Mein Name ist Oliver Lohse und ich bin seit etwa 41 Jahren als Programmierer in den Sprachen bzw. Markup- und Struktur-Dialekten Java, JEE, JavaScript, React, VAADIN, COBOL, PHP, Python, HTML, CSS, Json, YAML, SQL und XML tätig. In dieser Zeit konnte ich viele Aufgabenstellungen und Alphaprojekte, als Entwickler in der Versicherungswirtschaft, erfolgreich abschließen. Zudem bin Ich Buchautor und Betreiber bekannter Webseiten, im Bereich CMS-Entwicklung und Bildbearbeitung, mit etwa 1,2 Mio Lesern jährlich.