Moin Moin!
»» Richtig, gegen Botnets ist kaum ein Kraut gewachsen. Da haben selbst richtig große Websites gelegentlich Probleme.
wenn ich das hier so lese, dann frage ich mich was bedeutet "gelegentlich Probleme"? Haben denn die Grossen überhaupt eine Chance sich zu wehren?
Ja. Die meisten Angreifer sind nicht so gut, wie sie selbst glauben. Viele Angriffe sind maschinell erkennbar und können an Firewalls oder notfalls in der Anwendung geblockt werden. Das heißt nicht, dass die Firewall automatisch sieht, dass ein gewisses Paket ein Angriff ist. Aber ein fähiges Admin-Team kann der Firewall beibringen, dass Pakete mit einem gewissen Muster (z.B. ganz einfach $Request{'User-Agent'}=~/^lwp-simple/ && $Request{'Request-URI'}=~m|^/myapp/login.asp|) Angriffe sind und am besten gleich verworfen werden.
Ich nehme mal 2 Beispiele:
Google: Liege ich da richtig wenn ich vermute, die könnten total überlastete Server durch unzählige Angriffe/Requests mit unzähligen Umleitungen auf unzählige Reserveserver überstehen?
Google ist sicherlich ein besonderes Ziel, denn Googles Server-Landschaft ist extrem parallel und redundant, man könnte Google wahrscheinlich ein paar hundert Server zu Klump kloppen, ohne dass das Googles Service wesentlich beeinträchtigen würde. Server-Ausfälle sind bei Google an der Tagesordnung, schon aufgrund der nackten Server-Zahl.
Dann gewinnt wohl am Ende der mit der grösseren Netzstruktur. Wobei ich mir da dann auch wieder nicht vorstellen kann, das dann Google gewinnt.
Die Google-Leute haben sehr viel Mühe investiert, möglichst schnell zu antworten, egal was kommt.
DDoS auf Google halte ich nicht für unmöglich, aber für wesentlich schwerer als z.B. auf heise.de.
Anderes Beispiel Facebook oder Xing: Im Gegensatz zu Google erfordert die Webseite ein Login, was ein Abwehren bei solchen Attacken nicht so einfach mit beliebig vielen Mirror-Servern zu handeln wäre?
Da kommt es sehr darauf an, was angegriffen wird.
Wenn man bei einem Angriff zufällig noch genügend Infrastruktur übrig hat, kann man stumpf noch eine Hand voll weiterer Web-Server aufsetzen und zu den anderen "parallel schalten". Mit etwas Glück geht dem Angreifer dann irgendwann die Puste aus.
Typischerweise erreicht man bei solchen Plattformen unter www.example.com eben nicht einen einzelnen Webserver, sondern erstmal einen von mehreren Load Balancern, die eingehende Requests auf die eigentlichen Webserver hinter den Load Balancern verteilen, typischerweise anhand der Last auf den jeweiligen Webservern und anhand der Request-URL. Manchmal steht vor den Load Balancern auch noch eine Reihe Firewalls.
Damit ist es natürlich auch möglich, Angriffe in der Firewall zu blocken und den Rest im Load Balancer auf zusätzliche Server zu verteilen.
Nun mal ganz konkret gefragt: Kann eine grosse Webseite sich überhaupt schützen, wenn eine Profi-Gruppe es wirklich darauf anlegt die platt zu machen?
Nein. Wenn die Angreifer genügend Mittel und genügend Know-How haben, können sie de Website richtig Ärger machen. Ein oder mehrere Botnets wären für eine dermaßen gezielte Aktion natürlich sehr von Vorteil. Die Angriffe müßten sehr stark variieren und nahezu unfilterbar sein. Insider-Wissen über das Ziel wäre ebenfalls hilfreich, um die Schwachpunkte möglichst gezielt anzugreifen. Die üblichen Techniken dürften Bestechung oder Erpressung sein, oder vielleicht auch das Finden eines ausreichend frustrierten und rachsüchtigen Mitarbeiters. So ein Angriff wird aber kaum aus dem Hobby-Keller heraus passieren, das erfordert mehr Koordination und mehr Mittel.
Falls nein, würde das bedeuten ein Internet-Zig-Millarden-Unternehmen wäre in Nullkommanix nichts mehr wert, wenn es drauf ankommt. Ein paar Tage offline oder fast nicht verfügbar und die Aktien würden ins Bodenlose fallen.
Es wäre auf jeden Fall sehr schlecht für das Image, wenn die Website über Tage nicht erreichbar ist.
Alexander
Today I will gladly share my knowledge and experience, for there are no sweeter words than "I told you so".