Forum wird von Gästen überrannt?

bRiTnEy

Lieutenant
Registriert
Feb. 2004
Beiträge
574
Hallo,

ich betreue seit Jahren ein kleines Forum (phpbb). Es ist auf Strato Basic gehostet. Bisher lief das jahrelang einwandfrei. Ein paar Besucher pro Tag, ein paar tausend Registrierte, kein Problem. Seit gut einer Woche, wird das Forum von "Gästen" überrannt. Es sind gleichzeitig knapp 3000 Gäste Online, die alle das Forum scheinbar "durchsuchen". Richtig nachvollziehen kann ich es nicht. Jedenfalls geht dadurch der Server in die Knie. Ich bekomme dann ständig den Fehler SQL ERROR [ mysqli ]User o3519828 already has more than 'max_user_connections' active connections [1203].

Ich habe schon alles mögliche probiert. Die "Suche" für Gäste deaktiviert. Für unregistrierte so gut wie nichts sichtbar gemacht. Cloudflare Basic davor geschaltet, nichts hilft. Erst wenn die Gästeanzahl unter 500 geht, läuft das Forum einwandfrei. Das passiert aber quasi nie mehr im Moment.

Ich bin im Moment ratlos und weiß nicht was ich weiter machen kann. Von Strato gibts für 5€ im Monat den "Site Lock". Der soll einem vor allem möglichen schützen. Rentiert das? Hat er einen anderen Rat für mich?

Danke!

mfg Sebastian
 
Kannst du die Anzahl der Request für nicht einloggte Benutzer aka Gäste nicht limitieren oder drosseln?

Was für User Agents haben diese Gäste?
Sind da bestimmte IP-Bereiche auffällig?
 
willkommen im Internet

schau halt mal in deine access logs

in letzter zeit sind es meist AI bots, sonst halt wie immer Spambots

und ansonsten kommen die Crawler mit ganz unterschiedlichen IP was von den Foren eben immer als neuer Besucher angesehen wird, dann kommt auch auf das Zeitfenster an wie lange dieser Besucher als Aktiv vermutet wird. da diese info niemandem zu nütze ist am besten einfach ausblenden/abschalten und mal die session tabelle putzen

Wenn du IPs sperren kannst - oder ganze Netzbereiche - mach es

ansonsten - Geld lieber in bessere Hosting investieren statt irgendwelche Schutzmassnahmen
 
  • Gefällt mir
Reaktionen: konkretor, elo22 und aragorn92
Vielleicht etwas naiv, aber du kannst es ja mal mit ner robots.txt versuchen. Vielleicht sind das ja 'freundliche' crawler ;)
 
Hallo,

sorry aber so tief stecke ich nicht in der Materie, auch wenn es den Anschein erwägt ;).

Requests limitieren? Du meinst, wie oft ein Gast oder alle Gäste auf die Datenbank zugreifen dürfen? Oder im Forum? Zumindest in der "Suche" Einstellung des Forums kann ich das tun. Alle 3 Sekunden dürfen sie bzw. durfte sie. Aktuell ist sie ganz aus. Wie oder wo ich was anderes limitieren könnte weiß ich nicht?

Screenshot 2025-05-15 205841.png

So sehen sie aus. Da es das ja Seitenweise hat, fällt mir nichts bestimmtes auf.

Ich habe eine htaccess? Eine Log Datei liegt nicht auf dem Webspace? Die htaccess habe ich sogar bearbeitet und bekannte Bots auszusperren. Das nützt nichts genauso wie eine Robot.txt. Es sind in dem Sinn ja keine Bots sondern fürs Forum "normale" Gäste.

besseres Hosting? Welche z.B? Hat das was mit dem Provider zu tun? Bisher lief das wie gesagt, alles ohne Probleme...
 
Das sind vermutlich die ganzen Crawler der KI-Firmen, die sind seit ein paar Monaten die Pest. IPs sperren bringt da nix (sind zu viele aus ganz unterschiedlichen Quellen) und robots.txt ignorieren die (denn wenn man eine KI trainieren will muss man sich doch an keinen Ehrenkodex halten, ganz klar).

Viele Open Source-Seiten haben deswegen inzwischen sowas wie https://anubis.techaro.lol/ vor ihre Inhalte geschaltet.
 
Ja klar, und dieser jemand kommt unter einem Dutzend unterschiedlichen IPs rein, und sein F5 ruft unterschiedliche Seiten ab, mit unterschiedlichen User Agents. ;)
 
  • Gefällt mir
Reaktionen: iron_monkey
Wow, die haben nicht mal einen aktuellen User Agent gesetzt. Denke nicht das man noch mit Chrome (Engine) 120/122 unterwegs ist.

Kannst du das per Cloudflare blockieren?

Wie viele Requests pro IP pro Sekunde hast du? Ein Mensch lädt zwar die Seite sowie Bilder, braucht dann aber wieder mehrere Sekunden um den Inhalt zu lesen für den nächsten Klick.
 
Dutzend wäre schön. Es sind wie gesagt tausende gleichzeitig.

Ich hatte das Standard Cloudflare davor, was erstmal gar nichts bewirkt hat. Müsste ich bei Cloudflare irgendwas bestimmtes einstellen? Viel kann ich dort nicht machen, das kostet auch sofort was. Deshalb meine Eingangsfrage, was ist die beste Option?

Die Requests pro Sekunden kann ich nicht auslesen oder ich weiß nicht wie. Eine Statistik kann ich abrufen. Das waren sonst um ein vielfaches weniger...

Screenshot 2025-05-15 212339.png


Das Anubis überfordert mich erst mal komplett. Lese mich gerade ein aber was das genau sein soll, weiß ich nicht...
 
Anubis erfordert vom Client ein proof of work, eine Art nachweisbare Arbeitsleistung.

Für einen einzelnen Client ist diese Arbeitsleistung eine Kleinigkeit und fällt beim Browsen auch nicht auf. Für ein großes Unternehmen, das zig Crawler laufen lässt, summiert sich diese kleine Arbeitsleistung aber auf ein riesiges abzuarbeitendes Pensum auf. Das schreckt sie dann ab, da die nötige Rechenpower viel Geld kostet.
 
Ich habe mir das Anubis jetzt ein bisschen angeschaut und habe noch immer überhaupt keine Ahnung, was ich da machen muss.

Die Anleitung auf deren Homepage hilft mir gar nicht. Gibt's eine bessere Anleitung irgendwo?
Ergänzung ()

Ein hoch auf die KI. Fluch und Segen zu gleich. Die konnte es mir wirklich verständlich machen. Unglaublich

Ich habe Anubis über Putty auf den Server geladen aber ich bekomme es nicht gestartet. Woran es genau liegt, kann ich nicht sagen. Habe versucht pip3 zu installieren oder zu updaten aber da kommt immer command not found. Ich finde auch nichts über pip3 und Strato. Ich befürchte, die haben das nicht auf den Servern.

Ich kann z.B. auch nicht das System aktualisieren oder die Abhängigkeiten installieren. Also

sudo apt update && sudo apt upgrade -y
sudo apt install python3 python3-pip git curl

Funktioniert alles nicht. kommt immer command not found.....
 
Zuletzt bearbeitet:
Heißt das nicht „sudo apt-get update…“?
 
Glaube ich nicht. Ich habe die Befehle von hier. Strato

Muss ich das in einem bestimmten Verzeichnis ausführen? Normal nicht oder? Bin im Hauptverzeichnis. Kommt aber immer command not found...
 
Strato Basic ist Shared Hosting - da kannst Du nicht beliebig am System rumfummeln oder zusätzliche Software installieren.
Die brauchst für Anubis einen "richtigen" Server (VPS) und einen Reverse Proxy, das Setup ist deutlich komplexer.

@bRiTnEy Strato wirbt beim Hosting Basic mit einem "DDoS-Schutz" - hast du mal geschaut ob du da direkt bei Strato noch was konfigurieren kannst?
 
Zuletzt bearbeitet:
Ah okay, also ist das auch hinfällig. Schade.

Krass das das einen so in die Knie zwingt. Völlig hilflos irgendwie.

Wenn ich wüsste ob der Strato Schutz helfen würde, könnte ich das ja buchen. Wenn nicht, hat man 60€ für nix versenkt...
 
Du kannst versuchen mittels .htaccess Einstellungen wenigstens ein paar der Bots zu blocken, da gibts verschiedene Anleitungen zu (z.B. hier). Das ist m.E. aber nur bedingt erfolgversprechend und nicht nachhaltig, könnte Dir aber helfen das Forum erstmal wieder auf die Beine zu bekommen und Zeit verschaffen für richtige Gegenmaßnahmen.

bRiTnEy schrieb:
Von Strato gibts für 5€ im Monat den "Site Lock".
Site Lock nützt Dir in deinem Szenario gar nichts soweit ich die Beschreibung bei Strato verstehe.

Hast Du mal Kontakt mit dem Strato Support aufgenommen wegen dem propagierten "DDoS-Schutz"?
 
Das Versuche ich auch noch mal. Ich hatte Kontakt mit Strato bezüglich der Fehlermeldungen von MySQL. Da kommen aber nur Standard Floskeln zurück. Direkt über Ddos habe ich nichts gefragt, kann ich aber nochmal machen ..

Ist das alles Ddos?
 
Zurück
Oben