Der Perfekte Server - Hochlast Testen

Dieses Thema im Forum "Server Administration" wurde erstellt von Deex, 20. März 2013.

  1. Deex

    Deex Member

    Hi,

    gibt es die möglichkeit den Server Künstlich unter Hochlast auszuführen, sprich die Web Simulation von Besuchern und SQL Abfragen, ich würde gerne einen Benchmark durchführen und weiterhin die Stabilität unter hochlast testen.

    Hierfür würde ich gerne in einem Versuch rund 3500 SQL Abfragen pro Sekunde sowie Apache abrufe Simulieren.

    Gibt es dort etwas in meiner richtung?

    Liebe Grüße,

    Deex
     
  2. Till

    Till Administrator

    Such mal nach dem apache tool apache bench, der Befehl heißt "ab" und ist wahrscheinlich bereits installiert.
     
  3. ramsys

    ramsys Member

    Zum Beispiel 1000 Anfragen mit 50 gleichzeitigen Verbindungen an domain.tld:

    Code:
    ab -n 1000 -c 50 http://domain.tld/
    
     
  4. Deex

    Deex Member

    Ah vielen dank, sowas habe ich gesucht.

    Ich hab mal das bisherige Maximum getestet
    HTML:
    Server Port:            80
    
    Document Path:          /
    Document Length:        238 byte
    
    Concurrency Level:      1000
    Time taken for tests:   14.797 s
    Complete requests:      10000
    Failed requests:        9619
       (Connect: 0, Receive: 0, Leng
    Write errors:           0
    Non-2xx responses:      10000
    Total transferred:      5019332
    HTML transferred:       2514666
    Requests per second:    675.80 [
    Time per request:       1479.723
    Time per request:       1.480 [m
    Transfer rate:          331.26 [
    
    Connection Times (ms)
                  min  mean[+/-sd] m
    Connect:        0  155 540.3
    Processing:    13  286 716.7
    Waiting:        6  253 719.1
    Total:         47  441 1001.2
    
    Percentage of the requests serve
      50%    205
      66%    247
      75%    258
      80%    286
      90%    382
      95%   2065
      98%   4060
      99%   5649
     100%  10023 (longest request)
    
    Ist das einigermaßen okay?

    Kurios ist wenn ich das auf einer Seite wie der index.php anwenden passiert bei 8k Anfragen nen socket timeout

    Wie kann ich den timeout etwas optimieren das er auch die 10k packt? Wären da weitere Caching Methoden sinnvoll?
     
    Zuletzt bearbeitet: 20. März 2013
  5. Brainfood

    Brainfood Member

  6. Brainfood

    Brainfood Member

    @zalta1900

    Ich setzte voll und ganz auf IPv6 mit freigeschalteten "Admin"-Netzen:

    - fail2ban frisst mir einfach zuviel RAM weg, ergo auf allen Systemen deaktiviert
    - ftp Zugriff wird generell verboten
    - ssh jailkit ist Pflicht
    - alle Websites laufen unter Fast-CGI/Suhosin
    - SSH Passwort Login wird generell abgelehnt und nur per Publickey erlaubt

    - sämtlicher administrativer Zugriff wie:

    SSH, ISPConfig 8080/8081/10000, PHPMyAdmin, etc. sind nur aus klardefinierten IPv6/64 Subnetze erreichbar.

    Kundenlogins zur Administration ihrer CMS etc. werden immer auf https umgeleitet.

    bei mir laufen auch täglich scripte durch, wo z.B. Files in /var/www per Timediff gecheckt werden und bei Änderungen den Kunden benachrichtigen ..
     
    Zuletzt bearbeitet: 22. Juni 2013

Diese Seite empfehlen