Anzeige:
Seite 1 von 2 12 LetzteLetzte
Ergebnis 1 bis 15 von 26

Thema: CPU Load begrenzung mit "nice" und "cpulimit" auf VPS geht nicht

  1. #1
    Registrierter Benutzer
    Registriert seit
    Nov 2007
    Beiträge
    46

    CPU Load begrenzung mit "nice" und "cpulimit" auf VPS geht nicht

    Hallo zusammen

    Ich habe einen VPS dienst mit 512MB Ram und 15GB Space. System: debian 8.1 minimal
    Auf diesem möchte ich wöchentlich ein Backup mit gzip durchführen.

    Um die CPU Last so gering wie möglich zu halten, habe ich mein Skript mit
    Code:
    nano -n 19 /path/to/script.sh
    aufgerufen.

    Leider liegt die CPU Last dennoch um die ca. 90% während gzip die Files komprimiert.
    Ich habe cpulimit heruntergeladen und mit
    Code:
    cpulimit --limit 2 /path/to/script.sh
    versucht zu limitieren.

    Ergebnis war wiederum keine limitierung.
    Ich habe folgendes versucht:

    Code:
    echo 0 > /proc/sys/kernel/sched_autogroup_enabled
    Da meldet mir das System "no such file or directory"

    Nun weiss ich leider nicht mehr wirklich weiter.

    Hat jemand eine idee oder kann mir zumindest schreiben, dass er keine Idee hat?
    (dann weiss ich nämlich, dass sich zumindest jemand gedanken darüber gemacht hat

    Danke und Gruss
    Claudio

  2. #2
    Fieses Frettchen Avatar von DrunkenFreak
    Registriert seit
    Dec 2003
    Beiträge
    3.309
    Du vergibst eine Priorität und keine Limitierung mit nice. Das ist ein großer Unterschied.

  3. #3
    Registrierter Benutzer
    Registriert seit
    Nov 2007
    Beiträge
    46
    Zitat Zitat von DrunkenFreak Beitrag anzeigen
    Du vergibst eine Priorität und keine Limitierung mit nice. Das ist ein großer Unterschied.
    Danke für deine Antwort
    Das habe ich mir bereits gedacht. Deshalb habe ich auch cpulimit getestet.

    Habe gerade noch folgendes versucht:
    Code:
    root@blssrv2:/# /usr/bin/nice -n 19 /usr/bin/ionice -c2 -n7 /sbin/backup.sh
    Leider auch ohne erfolg. Ca 90% CPU Load

  4. #4
    Fieses Frettchen Avatar von DrunkenFreak
    Registriert seit
    Dec 2003
    Beiträge
    3.309
    ionice wird vermutlich das gleiche machen. Wenn Resourcen da sind, werden sie genutzt. Wenn sie knapp werden kommen die anderen Programme zuerst dran.

  5. #5
    Universaldilletant Avatar von fork
    Registriert seit
    Dec 2001
    Ort
    Frankfurt/Main
    Beiträge
    1.175
    Du könntest pv(=Pipe Viewer) verwenden. Dadurch kannst Du einen Datenstrom leiten und dessen Bandbreite begrenzen:

    also z. B.:

    Code:
    tar -cf - /sicherungs-verzeichnis1 /sicherungs-verzeichnis2 ...  | pv -L 50k | gzip -9 >backup.tar.gz
    D. h. schreibt mit max. 50 KB/Sek. ebenso wie gzip dann max. 50KB/Sek an Daten komprimieren kann.
    Geändert von fork (23.11.15 um 16:49 Uhr)

  6. #6
    Registrierter Benutzer Avatar von ThorstenHirsch
    Registriert seit
    Nov 2002
    Beiträge
    6.548
    Eigentlich sollte cpulimit funktionieren. Bei mir tut es das jedenfalls auf einem virtualisierten root-Server der billigsten Art (kvm? keine Ahnung). Nicht so einfach von der Bedienung sind cgroups, die könntest Du noch ausprobieren.
    ¡Nuestro amigo... el Computador!

  7. #7
    Freelancer Avatar von TheDarkRose
    Registriert seit
    Jun 2009
    Ort
    Oberalm
    Beiträge
    669
    Wo ist das Problem bei 90% Systemlast? Wenn sonst nichts rennt?

    Lieber während des Backups mal mit abache benchmark reinfahren und schauen, ob der Webserver entsprechend viel CPU Zeit und Prio bekommt und dein Backup zurückgefahren wird.
    foo bar

  8. #8
    Registrierter Benutzer
    Registriert seit
    Nov 2007
    Beiträge
    46
    Vielen Dank für eure Antworten.

    @ThorstenHirsch: ich verstehe ehrlich gesagt auch nicht, warum es nicht funktioniert. cgroups werde ich mal googlen.

    @TheDarkRose: Das Problem ist, dass mein VPS gesperrt wurde, da er zuviel CPU beanspruchte.


    Mein Aufruf sieht so aus:
    Code:
    tar -zcvpf /backups/fullbackup-$(date +%Y-%m-%d).tar.gz --directory=/ \
     --exclude=proc --exclude=sys --exclude=dev --exclude=run --exclude=tmp \
     --exclude=lost+found --exclude=var/cache/apt --exclude=var/run \
     --exclude=backups --exclude=restore .
    Wäre diese anpassung so korrekt?:

    Code:
    tar -zcvpf --directory=/ \
     --exclude=proc --exclude=sys --exclude=dev --exclude=run --exclude=tmp \
     --exclude=lost+found --exclude=var/cache/apt --exclude=var/run \
     --exclude=backups --exclude=restore . | pv -L 50k | > /backups/fullbackup-$(date +%Y-%m-%d).tar.gz

  9. #9
    Fieses Frettchen Avatar von DrunkenFreak
    Registriert seit
    Dec 2003
    Beiträge
    3.309
    Wenn der VPS gesperrt wurde, ist der Anbieter murks. Soll er doch zusehen, wie deine CPU limitiert wird und nicht andere Leute ausbremst. Ich würde direkt kündigen.

  10. #10
    Registrierter Benutzer
    Registriert seit
    Nov 2007
    Beiträge
    46
    Zitat Zitat von DrunkenFreak Beitrag anzeigen
    Wenn der VPS gesperrt wurde, ist der Anbieter murks. Soll er doch zusehen, wie deine CPU limitiert wird und nicht andere Leute ausbremst. Ich würde direkt kündigen.
    Vielen Dank für deinen Kommentar.
    Da war ich mir nämlich nicht ganz sicher wie das üblicherweise gehandhabt wird.

    Hier der Kommentar des Anbieters:

    It was not 70% CPU.
    It was a load of 70.xx+
    Your vps was inhialating the node.

    I have unsuspended the vps, but if there is anything like this that occurs again there will be at minimum 24 hours suspension involved.

    You yourself are responsible for keeping your vm within an acceptable limit.

    Regards,
    Ryan B

  11. #11
    Registrierter Benutzer
    Registriert seit
    Nov 2007
    Beiträge
    46
    Mein Aufruf funktioniert so leider nicht:

    Code:
    tar -zcvpf --directory=/ \
     --exclude=proc --exclude=sys --exclude=dev --exclude=run --exclude=tmp \
     --exclude=lost+found --exclude=var/cache/apt --exclude=var/run \
     --exclude=backups --exclude=restore . | pv -L 50k  > /backups/fullbackup-$(date +%Y-%m-%d).tar.gz
    Fehlermeldung:

    Code:
    root@blssrv2:~# tar -zcvpf --directory=/  --exclude=proc --exclude=sys --exclude=dev --exclude=run --exclude=tmp  --exclude=lost+found --exclude=var/cache/apt --exclude=var/run  --exclude=backups --exclude=restore . | pv -L 50k  > /backups/fullbackup-$(date +%Y-%m-%d).tar.gz
    -bash: pv: command not found
    tar (child): --directory=/: Cannot open: Is a directory
    tar (child): Error is not recoverable: exiting now
    root@blssrv2:~#

  12. #12
    Fieses Frettchen Avatar von DrunkenFreak
    Registriert seit
    Dec 2003
    Beiträge
    3.309
    Bei einer load von 70 warten 70 Prozesse darauf, dass sie an die Reihe kommen. Da ist entweder der Server unterdimensioniert oder da läuft irgendwas schief.

    Dennoch ist dein Anbieter dafür zuständig, deine Prozesse zu limitieren. Wenn er das nicht hinkriegen kann oder will, ist es ein verdammt schlechter. Aber hier wird vermutlich auch you get what you pay greifen.

  13. #13
    Registrierter Benutzer
    Registriert seit
    Nov 2007
    Beiträge
    46
    Zitat Zitat von DrunkenFreak Beitrag anzeigen
    Aber hier wird vermutlich auch you get what you pay greifen.
    Korrekt!

    7 USD pro JAHR! inkl. eigener IP-Adresse
    Ohne Setup Gebühren oder ähnlichem!

    Wenn mir jetzt noch jemand helfen könnte, meine CPU Load zu begrenzen, wäre ich wirklich happy
    Was muss ich bei meinem Pipe Aufruf ändern, damit es klappt?

    Code:
    tar -zcvpf --directory=/ \
     --exclude=proc --exclude=sys --exclude=dev --exclude=run --exclude=tmp \
     --exclude=lost+found --exclude=var/cache/apt --exclude=var/run \
     --exclude=backups --exclude=restore . | pv -L 50k  > /backups/fullbackup-$(date +%Y-%m-%d).tar.gz

  14. #14
    Fieses Frettchen Avatar von DrunkenFreak
    Registriert seit
    Dec 2003
    Beiträge
    3.309
    Die Load kannst du nur begrenzen, indem du Prozesse killst. Was du versuchst, ist den Datendurchsatz zu limitieren.

  15. #15
    Registrierter Benutzer
    Registriert seit
    Nov 2007
    Beiträge
    46
    Das ist korrekt.

    Ich möchte, dass mein tar prozess nicht die gesamte cpu beansprucht.

    Der unterschied ist mir inzwischen bekannt

Ähnliche Themen

  1. Antworten: 2
    Letzter Beitrag: 29.10.10, 07:36
  2. Was machen wenn "Strg"+"Alt"+"F Tasten" auch nicht mehr funktioneren
    Von Commander Keen im Forum System installieren und konfigurieren
    Antworten: 2
    Letzter Beitrag: 01.05.05, 22:38

Lesezeichen

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •