Hallo zusammen,

heute Früh ist mir aufgefallen, dass die HDD-LED an meinem kleinen Server permanent brennt. Also habe ich mich auf dem Rechner angemeldet und egsehen, dass ein Prozess btrfs-balance permanent ca. 40% CPU-Auslastung erzeugt und in iotop ca. 50-60 MB/sec. permanente Schreibzugriffe verursacht.
in dmesg bekomme ich zigtausende EInträge wie diesen hier:
Code:
[18715.461335] BTRFS info (device sda2): found 2 extents
[18715.535296] BTRFS info (device sda2): found 2 extents
[18715.588740] BTRFS info (device sda2): found 2 extents
[18715.640088] BTRFS info (device sda2): found 2 extents
[18715.690522] BTRFS info (device sda2): found 2 extents
[18715.748423] BTRFS info (device sda2): found 2 extents
[18715.855816] BTRFS info (device sda2): found 2 extents
[18715.905124] BTRFS info (device sda2): found 2 extents
[18715.965522] BTRFS info (device sda2): found 2 extents
[18716.100320] BTRFS info (device sda2): found 2 extents
[18716.150765] BTRFS info (device sda2): found 2 extents
[18716.202583] BTRFS info (device sda2): found 2 extents
[18716.259854] BTRFS info (device sda2): found 2 extents
[18716.319907] BTRFS info (device sda2): found 2 extents
[18716.373935] BTRFS info (device sda2): found 2 extents
[18716.426748] BTRFS info (device sda2): found 2 extents
[18716.542904] BTRFS info (device sda2): found 2 extents
[18716.598365] BTRFS info (device sda2): found 2 extents
[18716.653509] BTRFS info (device sda2): found 2 extents
[18716.700615] BTRFS info (device sda2): found 2 extents
[18716.756226] BTRFS info (device sda2): found 2 extents
[18716.802529] BTRFS info (device sda2): found 2 extents
[18716.869391] BTRFS info (device sda2): found 2 extents
[18716.972231] BTRFS info (device sda2): found 2 extents
[18717.028580] BTRFS info (device sda2): found 2 extents
[18717.077924] BTRFS info (device sda2): found 2 extents
[18717.127456] BTRFS info (device sda2): found 2 extents
[18717.174109] BTRFS info (device sda2): found 2 extents
[18717.257905] BTRFS info (device sda2): found 2 extents
Nachdem ich gegoogelt habe, habe ich hinweise gefunden, dass das auf ein volles Dateisystem hindeutet.

aber:
Code:
DMZServer:/home/martin # df
Dateisystem    1K-Blöcke  Benutzt Verfügbar Verw% Eingehängt auf
devtmpfs         3995172        0   3995172    0% /dev
tmpfs            4004040        0   4004040    0% /dev/shm
tmpfs            4004040   157220   3846820    4% /run
tmpfs            4004040        0   4004040    0% /sys/fs/cgroup
/dev/sda2       41943040 20434620  21104548   50% /
/dev/sda2       41943040 20434620  21104548   50% /tmp
/dev/sda2       41943040 20434620  21104548   50% /boot/grub2/x86_64-efi
/dev/sda2       41943040 20434620  21104548   50% /usr/local
/dev/sda2       41943040 20434620  21104548   50% /.snapshots
/dev/sdb2      235810804 31755676 204055128   14% /mnt/local/Backup
/dev/sdb1      235810804  6870616 228940188    3% /mnt/local/Nextcloud
/dev/sda2       41943040 20434620  21104548   50% /boot/grub2/i386-pc
/dev/sda2       41943040 20434620  21104548   50% /opt
/dev/sda2       41943040 20434620  21104548   50% /root
/dev/sda3       52403200   480812  51922388    1% /home
/dev/sda5      131478812 11713372 119765440    9% /srv
/dev/sda1         511720     5120    506600    2% /boot/efi
tmpfs             800808        0    800808    0% /run/user/0
tmpfs             800808        0    800808    0% /run/user/498
Und:
Code:
DMZServer:/home/martin # btrfs fi df /
Data, single: total=38.47GiB, used=18.32GiB
System, single: total=32.00MiB, used=16.00KiB
Metadata, single: total=1.50GiB, used=1.09GiB
GlobalReserve, single: total=81.05MiB, used=0.00B
Der Metadaten-Teil ist seit heute Früh von used =1.05 auf 1.09 gewachsen.

Wenn ich mir den Status vom Balance ansehe, dann lese ich da seit jetzt 14 Stunden:
Code:
DMZServer:/home/martin # btrfs balance status /
Balance on '/' is running
0 out of about 3 chunks balanced (1 considered), 100% left
Ich habe gelesen, dass man den Balance auch mit selektionen wie dusage=75 so eingrenzen kann, dass nicht so viele Blöcke bearbeitet werden, was die Chance auf einen Absturz bzw. Loop verringern soll.

Dafür muss ich den aktuellen Lauf aber erst mal beenden. Wenn ich das mit
Code:
btrfs balance cancel /
versuche, dann passiert stundenlang genau.... gar nichts
Ich habe auch schon in der Datei /etc/systemd/system/btrfs-balance.timer.d/schedule.conf den "OnCalendar" -Eintrag mit "#" auskommentiert.

Aber nach einem Reboot (der über 20 minuten lang auf sich warten lässt nach Absetzen des "shutdown -r now") läuft der Prozess direkt weiter.
Ich nehme an, dass ein begonener Balance wieder gestartet wird...

Ich traue mich nicht, den Prozess mit kill -s 9 zu töten, da ich Angst vor Datenverlust habe.

Kann mir jemand helfen, wie ich das wieder unter Kontrolle bekomme? So wie es jetzt ist schaut es nicht gesund aus... ich bin ratlos und ehrlich gesagt genrvt von btrfs.

Danke und grüße,
Martin