Hohe load avg sobald Homeassistant (VM) läuft

henfri

Lieutenant
Registriert
Juni 2020
Beiträge
605
Hallo,

ich habe einen Esprimo P757/E85 (i5-6500) mit nur 8GB Ram.
Der läuft auch wunderbar mit vielen Docker-Containern.
Aber sobald ich HomeAssistant als VM (kvm in Openmediavault) starte, geht die load-avg hoch.
"Innerhalb" der VM ist die load aber nur ca 0.35 (finde ich weiterhin hoch).

Ich habe "das Übliche" d.h. blockierte Prozesse, CPU Last, Netzwerk Last, IO-Last überprüft - alles ohne Auffälligkeiten.
Das einzige, was kritisch sein könnte ist die Menge an Hauptspeicher.... aber eigentlich nicht, oder?
free -mh
gesamt benutzt frei gemns. Puffer/Cache verfügbar
Speicher: 7,5Gi 5,3Gi 111Mi 58Mi 2,1Gi 2,3Gi
Swap: 0B 0B 0B

Woran kann das liegen?
Ich nutze eigentlich ungerne eine VM und würde lieber einen Docker-Container verwenden. Homeassistant will dafür aber ja die ganze Maschine administrieren (supervised) und das möchte ich nicht bzw. Add-Ons werden nicht unterstützt ("container")

Gruß,
Hendrik
 
Zuletzt bearbeitet:
Was genau fehlt bei hacs für hassio in Docker? Grosse addons wie grafana, etc kannst du als eigenen Docker Container betreiben und könntest das auf z.B eine zweiten Host auslagern.
 
  • Gefällt mir
Reaktionen: madmax2010 und s1ave77
Brauchst du die AddOns zwingend? Bei HASS gibt es HACS (Community Store), über den auch vieles realisierbar ist.
 
Danke für die Idee.
Mir fehlt eigentlich nur VSCode (Autocomplete v.a.) und ESPHome.
 
  • Gefällt mir
Reaktionen: s1ave77
henfri schrieb:
Aber sobald ich HomeAssistant als VM (kvm in Openmediavault) starte, geht die load-avg hoch.
Wie hoch genau? Bitte die Werte schickt?

Gibt es dadurch Probleme`?
henfri schrieb:
"Innerhalb" der VM ist die load aber nur ca 0.35 (finde ich weiterhin hoch).

Ich habe "das Übliche" d.h. blockierte Prozesse, CPU Last, Netzwerk Last, IO-Last überprüft - alles ohne Auffälligkeiten.
Das einzige, was kritisch sein könnte ist die Menge an Hauptspeicher.... aber eigentlich nicht, oder?
Was sagt docker stats? Poste mal die Daten.
 
Die Einstellungen des KVM für HA bitte Posten.
Ich habe das genauso. HA als KVM unter OMV 7
 
Danke für eure Antworten.
oicfar schrieb:
Wie hoch genau? Bitte die Werte schickt?
1.5 bis 2

oicfar schrieb:
Was sagt docker stats? Poste mal die Daten.
Code:
flags           : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx pdpe1gb rdtscp lm constCONTAINER ID   NAME                       CPU %     MEM USAGE / LIMIT     MEM %     NET I/O           BLOCK I/O         PIDS
28129d597c7f   ResilioSync                0.55%     16.21MiB / 7.543GiB   0.21%     19.7kB / 10.9kB   139MB / 778kB     19
b042527054da   vaultwarden                0.02%     31.7MiB / 7.543GiB    0.41%     41.2kB / 96.1kB   2.16GB / 102kB    13
8fe700552d84   paperless-ng_webserver_1   0.24%     340.7MiB / 7.543GiB   4.41%     21.8MB / 11MB     2.65GB / 147MB    66
97223c8fee71   nextcloud_app_1            0.00%     20.79MiB / 7.543GiB   0.27%     12.5kB / 0B       250MB / 0B        6
3371d35d29c5   knx-ng_smarthome-ng_1      0.44%     177.7MiB / 7.543GiB   2.30%     0B / 0B           3.77GB / 4.87GB   48
f6d49ca8a507   opensprinkler              0.13%     928KiB / 7.543GiB     0.01%     50.4kB / 53.3kB   159MB / 0B        1
a268f143c79d   unifi                      1.30%     802MiB / 7.543GiB     10.38%    18.6MB / 65.9MB   5.05GB / 326MB    103
5df10bd802c2   paperless-ng_tika_1        0.59%     177.8MiB / 7.543GiB   2.30%     7.78kB / 0B       2.46GB / 96.3MB   56
47d6349932e2   paperless-ng_gotenberg_1   0.12%     6.488MiB / 7.543GiB   0.08%     7.5kB / 0B        975MB / 0B        11
9f82b35360bc   paperless-ng_db_1          0.00%     35.16MiB / 7.543GiB   0.46%     2.43MB / 19.1MB   1.08GB / 56.9MB   9
fc4b8d8fd61a   paperless-ng_broker_1      0.20%     3.605MiB / 7.543GiB   0.05%     8.56MB / 2.47MB   604MB / 786kB     5
b937087e66eb   nextcloud_db_1             0.03%     93.5MiB / 7.543GiB    1.21%     8.6kB / 0B        643MB / 69.6kB    8
f00b96deb91e   pihole                     0.04%     40.13MiB / 7.543GiB   0.52%     3.73MB / 280kB    1.81GB / 234MB    37
4c566313b93f   knx-ng_grafana_1           0.08%     63.95MiB / 7.543GiB   0.83%     846kB / 335kB     3.61GB / 66.7MB   15
b328a1482b29   knx-ng_smartvisu_1         0.02%     101.3MiB / 7.543GiB   1.31%     281kB / 3.46MB    480MB / 8.19kB    11
9c34f43769bd   knx-ng_renderer_1          0.43%     47.05MiB / 7.543GiB   0.61%     16.5kB / 10.2kB   1.31GB / 311kB    12
1c970e28a46b   knx-ng_influxdb_1          8.58%     378.3MiB / 7.543GiB   4.90%     52.8MB / 40.6MB   3.95GB / 11.5GB   15
5715b69575b0   TasmoAdmin                 0.00%     11.92MiB / 7.543GiB   0.15%     4.65MB / 3.58MB   362MB / 0B        12
169cc5e381f4   heimdall                   0.00%     63.49MiB / 7.543GiB   0.82%     80.6kB / 942kB    673MB / 1.36MB    20
43869e81e08a   portainer_portainer_1      0.00%     15.59MiB / 7.543GiB   0.20%     1.51MB / 6.92MB   1.04GB / 26.4MB   7

xammu schrieb:
Die Einstellungen des KVM für HA bitte Posten.

Code:
<domain type='kvm' id='3'>
  <name>neu_HomeAssistant</name>
  <uuid>41f4a6d6-e27d-471e-ad94-x</uuid>
  <metadata>
    <libosinfo:libosinfo xmlns:libosinfo="http://libosinfo.org/xmlns/libvirt/domain/1.0">
      <libosinfo:os id="http://debian.org/debian/11"/>
    </libosinfo:libosinfo>
  </metadata>
  <memory unit='KiB'>4182016</memory>
  <currentMemory unit='KiB'>4181120</currentMemory>
  <vcpu placement='static'>2</vcpu>
  <resource>
    <partition>/machine</partition>
  </resource>
  <os>
    <type arch='x86_64' machine='pc-q35-7.2'>hvm</type>
    <loader type='rom'>/usr/share/OVMF/OVMF_CODE.fd</loader>
    <boot dev='hd'/>
    <boot dev='cdrom'/>
  </os>
  <features>
    <acpi/>
    <apic/>
    <vmport state='off'/>
  </features>
  <cpu mode='host-passthrough' check='none' migratable='on'>
    <topology sockets='1' dies='1' cores='2' threads='1'/>
  </cpu>
  <clock offset='utc'>
    <timer name='rtc' tickpolicy='catchup'/>
    <timer name='pit' tickpolicy='delay'/>
    <timer name='hpet' present='no'/>
  </clock>
  <on_poweroff>destroy</on_poweroff>
  <on_reboot>restart</on_reboot>
  <on_crash>destroy</on_crash>
  <pm>
    <suspend-to-mem enabled='no'/>
    <suspend-to-disk enabled='no'/>
  </pm>
  <devices>
    <emulator>/usr/bin/qemu-system-x86_64</emulator>
    <disk type='file' device='disk'>
      <driver name='qemu' type='qcow2' cache='none' io='native'/>
      <source file='/srv/dev-disk-by-uuid-e5807607-f73e-48e4-x-x/VMs/haos_ova-9.5.qcow2' index='1'/>
      <backingStore/>
      <target dev='vda' bus='virtio'/>
      <alias name='virtio-disk0'/>
      <address type='pci' domain='0x0000' bus='0x04' slot='0x00' function='0x0'/>
    </disk>
    <controller type='usb' index='0' model='qemu-xhci' ports='15'>
      <alias name='usb'/>
      <address type='pci' domain='0x0000' bus='0x02' slot='0x00' function='0x0'/>
    </controller>
    <controller type='sata' index='0'>
      <alias name='ide'/>
      <address type='pci' domain='0x0000' bus='0x00' slot='0x1f' function='0x2'/>
    </controller>
    <controller type='pci' index='0' model='pcie-root'>
      <alias name='pcie.0'/>
    </controller>
    <controller type='pci' index='1' model='pcie-root-port'>
      <model name='pcie-root-port'/>
      <target chassis='1' port='0x10'/>
      <alias name='pci.1'/>
      <address type='pci' domain='0x0000' bus='0x00' slot='0x02' function='0x0' multifunction='on'/>
    </controller>
    <controller type='pci' index='2' model='pcie-root-port'>
      <model name='pcie-root-port'/>
      <target chassis='2' port='0x11'/>
      <alias name='pci.2'/>
      <address type='pci' domain='0x0000' bus='0x00' slot='0x02' function='0x1'/>
    </controller>
    <controller type='pci' index='3' model='pcie-root-port'>
      <model name='pcie-root-port'/>
      <target chassis='3' port='0x12'/>
      <alias name='pci.3'/>
      <address type='pci' domain='0x0000' bus='0x00' slot='0x02' function='0x2'/>
    </controller>
    <controller type='pci' index='4' model='pcie-root-port'>
      <model name='pcie-root-port'/>
      <target chassis='4' port='0x13'/>
      <alias name='pci.4'/>
      <address type='pci' domain='0x0000' bus='0x00' slot='0x02' function='0x3'/>
    </controller>
    <controller type='pci' index='5' model='pcie-root-port'>
      <model name='pcie-root-port'/>
      <target chassis='5' port='0x14'/>
      <alias name='pci.5'/>
      <address type='pci' domain='0x0000' bus='0x00' slot='0x02' function='0x4'/>
    </controller>
    <controller type='pci' index='6' model='pcie-root-port'>
      <model name='pcie-root-port'/>
      <target chassis='6' port='0x15'/>
      <alias name='pci.6'/>
      <address type='pci' domain='0x0000' bus='0x00' slot='0x02' function='0x5'/>
    </controller>
    <controller type='pci' index='7' model='pcie-root-port'>
      <model name='pcie-root-port'/>
      <target chassis='7' port='0x16'/>
      <alias name='pci.7'/>
      <address type='pci' domain='0x0000' bus='0x00' slot='0x02' function='0x6'/>
    </controller>
    <controller type='virtio-serial' index='0'>
      <alias name='virtio-serial0'/>
      <address type='pci' domain='0x0000' bus='0x03' slot='0x00' function='0x0'/>
    </controller>
    <interface type='bridge'>
      <mac address='52:54:00:0f:6b:50'/>
      <source bridge='br0'/>
      <target dev='vnet2'/>
      <model type='virtio'/>
      <alias name='net0'/>
      <address type='pci' domain='0x0000' bus='0x07' slot='0x00' function='0x0'/>
    </interface>
    <serial type='pty'>
      <source path='/dev/pts/3'/>
      <target type='isa-serial' port='0'>
        <model name='isa-serial'/>
      </target>
      <alias name='serial0'/>
    </serial>
    <console type='pty' tty='/dev/pts/3'>
      <source path='/dev/pts/3'/>
      <target type='serial' port='0'/>
      <alias name='serial0'/>
    </console>
    <channel type='unix'>
      <source mode='bind' path='/var/lib/libvirt/qemu/channel/target/domain-3-neu_HomeAssistant/org.qemu.guest_agent.0'/>
      <target type='virtio' name='org.qemu.guest_agent.0' state='connected'/>
      <alias name='channel0'/>
      <address type='virtio-serial' controller='0' bus='0' port='1'/>
    </channel>
    <channel type='spicevmc'>
      <target type='virtio' name='com.redhat.spice.0' state='disconnected'/>
      <alias name='channel1'/>
      <address type='virtio-serial' controller='0' bus='0' port='2'/>
    </channel>
    <input type='tablet' bus='usb'>
      <alias name='input0'/>
      <address type='usb' bus='0' port='1'/>
    </input>
    <input type='mouse' bus='ps2'>
      <alias name='input1'/>
    </input>
    <input type='keyboard' bus='ps2'>
      <alias name='input2'/>
    </input>
    <graphics type='vnc' port='5900' autoport='yes' listen='0.0.0.0'>
      <listen type='address' address='0.0.0.0'/>
    </graphics>
    <graphics type='spice' port='5901' autoport='yes' listen='0.0.0.0'>
      <listen type='address' address='0.0.0.0'/>
      <image compression='off'/>
    </graphics>
    <sound model='ich9'>
      <alias name='sound0'/>
      <address type='pci' domain='0x0000' bus='0x00' slot='0x1b' function='0x0'/>
    </sound>
    <audio id='1' type='none'/>
    <video>
      <model type='qxl' ram='65536' vram='65536' vgamem='16384' heads='1' primary='yes'/>
      <alias name='video0'/>
      <address type='pci' domain='0x0000' bus='0x00' slot='0x01' function='0x0'/>
    </video>
    <memballoon model='virtio'>
      <alias name='balloon0'/>
      <address type='pci' domain='0x0000' bus='0x05' slot='0x00' function='0x0'/>
    </memballoon>
    <rng model='virtio'>
      <backend model='random'>/dev/urandom</backend>
      <alias name='rng0'/>
      <address type='pci' domain='0x0000' bus='0x06' slot='0x00' function='0x0'/>
    </rng>
  </devices>
  <seclabel type='dynamic' model='apparmor' relabel='yes'>
    <label>libvirt-41f4a6d6-e27d-471e-ad94-e5c02f424bad</label>
    <imagelabel>libvirt-41f4a6d6-e27d-471e-ad94-e5c02f424bad</imagelabel>
  </seclabel>
  <seclabel type='dynamic' model='dac' relabel='yes'>
    <label>+64055:+64055</label>
    <imagelabel>+64055:+64055</imagelabel>
  </seclabel>
</domain>

xammu schrieb:
Ich habe das genauso. HA als KVM unter OMV 7
Und wie ist deine Load vor/nach VM start?

Gruß,
Hendrik
 
Kannst du noch auf dem Host und der VM, die die höhere Load hat
Code:
sudo vmstat -wSm 1
kurz laufen lassen. So, dass man sieht wo sich was tut.

Load ist dann höher, wenn auf irgendwas (Netzwerk, I/O) gewartet wird.

Bei docker stats sieht man nur, dass
Code:
1c970e28a46b   knx-ng_influxdb_1          8.58%     378.3MiB / 7.543GiB   4.90%     52.8MB / 40.6MB   3.95GB / 11.5GB   15
höhere CPU Usage hat.

Gebe noch bitte die Ausgabe von
Code:
free -m -l -t
von Host und der VM.
 
Auf dem Host:
Code:
 vmstat -wSm 1
--procs-- -----------------------memory---------------------- ---swap-- -----io---- -system-- --------cpu--------
   r    b         swpd         frei         buff        Cache   si   so    bi    bo   in   cs  us  sy  id  wa  st
   2    0            0          118            3          870    0    0  1107   605  478  356   8  13  78   1   0
   1    0            0          131            3          853    0    0  1884   496 3896 9228   8  15  77   0   0
   2    0            0          125            3          860    0    0  3784 10048 4307 8434  12   8  78   2   0
   1    0            0          130            3          860    0    0 39412   412 4609 6344   8  16  76   1   0
   0    0            0          130            3          860    0    0     0     0 2981 5417   5  13  82   0   0
   1    0            0          125            3          862    0    0  2220   144 3230 6629   6  14  80   1   0
   2    0            0          117            3          869    0    0  3904 35144 5057 7060   6  15  78   1   0
   0    0            0          120            3          870    0    0  5036   460 3140 5981   5  14  81   0   0
   1    0            0          120            3          870    0    0   216  1560 3057 5660   3  13  84   0   0
   0    0            0          139            3          852    0    0 59468  3956 4738 9272   7  18  74   1   0
   0    0            0          120            3          869    0    0 22772  5336 5963 13417  11  15  73   1   0
   0    0            0          119            3          869    0    0    72  1700 2979 5793   4  14  82   0   0
   1    0            0          116            3          852    0    0   968  1032 2916 5414  11  13  76   0   0
   1    0            0          124            3          843    0    0   588   576 3206 6115   5  14  80   0   0
   0    0            0          123            3          844    0    0  1320   364 3000 5646   4  11  84   0   0
   3    0            0          121            3          844    0    0     0   144 2967 5869   6  11  83   0   0
   1    0            0          121            3          845    0    0     0  2248 3322 6410   7  12  81   0   0
   1    0            0          121            3          845    0    0    40   144 2811 5310   5  14  82   0   0
   0    0            0          121            3          845    0    0     0   144 3314 5456   9  12  79   0   0
   0    0            0          124            3          844    0    0  6776  3716 4428 9050  10  14  76   1   0
   2    0            0          121            3          847    0    0 13144     0 3259 6004   4  14  81   0   0
   0    0            0          120            3          848    0    0   804   792 3232 6172   7  14  79   0   0
   2    0            0          122            2          755    0    0 191564  2576 7149 37978  25  25  46   4   0
   1    0            0          153            2          733    0    0  9852   504 4097 10513  29  11  58   3   0
   1    0            0          231            2          737    0    0  4024    28 3076 5535   6  15  79   0   0
   0    0            0          230            2          737    0    0     4   144 3052 5712   5  14  81   0   0
   0    0            0          230            2          738    0    0   176   596 3150 6170   6  13  81   0   0
   0    0            0          230            2          738    0    0    84   144 3061 5682   5  14  81   0   0
   1    0            0          214            2          755    0    0 16832   144 3457 6059   5  14  81   0   0

free -m -l -t
              gesamt       benutzt     frei      gemns.  Puffer/Cache verfügbar
Speicher:       7724        6837         116          66         770         855
Niedrig:        7724        7608         116
Hoch:              0           0           0
Swap:              0           0           0
Gesamt:         7724        6837         116

Tasks: 433 total,   1 running, 429 sleeping,   0 stopped,   3 zombie
%CPU(s): 14,9 us, 17,6 sy,  0,0 ni, 67,6 id,  0,0 wa,  0,0 hi,  0,0 si,  0,0 st
MiB Spch:   7724,5 total,    122,0 free,   6792,3 used,    810,2 buff/cache
MiB Swap:      0,0 total,      0,0 free,      0,0 used.    862,4 avail Spch

    PID USER      PR  NI    VIRT    RES    SHR S  %CPU  %MEM     ZEIT+ BEFEHL
     50 root      25   5       0      0      0 S  38,9   0,0  85:02.11 ksmd
  59512 libvirt+  20   0 5692164   4,0g   5888 S  27,8  53,4  56:17.83 qemu-system-x86
   4667 henfri    20   0 2901112 161088   8704 S  11,1   2,0  12:14.03 python3
 142895 root      20   0   11212   4224   3200 R  11,1   0,1   0:00.04 top
   1042 root      20   0   13444   2816   2176 S   5,6   0,0   0:03.96 systemd-machine
   7386 root      20   0   12,4g 382036  20004 S   5,6   4,8   9:55.50 influxd
  36970 root      20   0   14412   9340   1920 S   5,6   0,1   0:57.84 screen

in der VM
Code:
 vmstat -wSm 1
--procs-- -----------------------memory---------------------- ---swap-- -----io---- -system-- ----------cpu----------
   r    b         swpd         free         buff        cache   si   so    bi    bo   in   cs  us  sy  id  wa  st  gu
   0    0            0          184          134         2705    0    0   206   157  635    3   4   1  95   0   0   0
   0    0            0          184          134         2705    0    0     0  3247  376  520   2   1  97   0   1   0
   0    0            0          182          134         2705    0    0     0   292 1256 2166   7   3  90   0   1   0
   0    0            0          182          134         2705    0    0     0     0  497  696   2   0  98   0   0   0
   0    0            0          182          134         2705    0    0     0   408  383  506   1   1  98   0   0   0
   0    0            0          182          134         2705    0    0     0    20  423  506   2   0  97   0   0   0
free -m -l -t
               total        used        free      shared  buff/cache   available
Mem:            3911        1083         173           3        2708        2828
Low:            3911        3737         173
High:              0           0           0
Swap:            978           0         977
Total:          4889        1083        1151

Load ist aktuell allerdings "nur" 0.8

Gruß,
Hendrik
 
Schick mal dann Werte durch, wenn die Load > 1.x ist. Zum Vergleich.

Aktuell sieht man beim vmstat auf dem Host, dass manchmal 1-2 Prozess warten (-> wenn die Load > 1 ist, dann sollten hier mehr Prozesse warten). Bei I/O sind die Werte an sich auch hoch.

Und bei Top 17,6 sy für Kernel ist viel. Auf meinen Mini-PC (NUC) ist der Wert < 4.

Wenn die Load hoch ist, dann ist oft bei top der wa hoch.

An sich würde ich bei so wenig RAM auf dem Host swap einrichten. Damit das System Puffer hat und der OOM Killer nicht einschlägt. Wie viele VMs laufen dort? Nur die eine?

Der VM hast du 4GB zugewiesen. Der Host hat 8GB. Meiner Meinung nach, läuft es an der Kante.
Ergänzung ()

Mein Vorschlag wäre alle Docker Container zu stoppen, die du nicht ständig brauchst. Und wenn ja, dann starte den einen einfach. So kannst du sehen, ob dein Load Problem weg ist oder weiter bestehen bleibt.

Ich gehe auch davon aus, dass du häufig in Pi-Hole die Warnung siehst, dass die Load zu hoch ist.
1716056775390.png
 
Hallo,

jetzt mal 1.05:
Code:
top - 21:07:35 up  5:34,  3 users,  load average: 1,65, 1,06, 0,91
Tasks: 440 total,   1 running, 436 sleeping,   0 stopped,   3 zombie
%CPU(s):  9,3 us, 14,7 sy,  0,0 ni, 76,0 id,  0,0 wa,  0,0 hi,  0,0 si,  0,0 st
MiB Spch:   7724,5 total,    122,0 free,   6873,8 used,    728,6 buff/cache
MiB Swap:      0,0 total,      0,0 free,      0,0 used.    729,5 avail Spch

    PID USER      PR  NI    VIRT    RES    SHR S  %CPU  %MEM     ZEIT+ BEFEHL
     50 root      25   5       0      0      0 S  41,2   0,0 110:09.00 ksmd
  59512 libvirt+  20   0 5692164   4,0g   4608 S  35,3  53,4  72:05.42 qemu-system-x86
 174484 root      20   0   11212   4352   3328 R  11,8   0,1   0:00.03 top
      1 root      20   0  165312   7016   3432 S   0,0   0,1   1:50.81 systemd
      2 root      20   0       0      0      0 S   0,0   0,0   0:00.01 kthreadd
      3 root       0 -20       0      0      0 I   0,0   0,0   0:00.00 rcu_gp
      4 root       0 -20       0      0      0 I   0,0   0,0   0:00.00 rcu_par_gp

vmstat -wSm 1
--procs-- -----------------------memory---------------------- ---swap-- -----io---- -system-- --------cpu--------
   r    b         swpd         frei         buff        Cache   si   so    bi    bo   in   cs  us  sy  id  wa  st
   2    0            0          113            1          774    0    0  1014   597   15   91   8  14  78   1   0
   0    0            0          120            1          771    0    0  5868  6048 4961 11350  11  15  73   1   0
   2    0            0          115            1          776    0    0 12688    24 3070 6144   4  15  81   0   0
   1    0            0          125            1          766    0    0  3764  3316 3757 7924   7  16  77   1   0
   0    0            0          125            1          766    0    0     0     0 2746 5067   4  12  83   0   0
   0    0            0          123            1          766    0    0    60   576 3171 5967   8  10  82   0   0
   0    0            0          123            1          767    0    0     4   160 3287 6006   6  12  81   0   0
   0    0            0          123            1          767    0    0    20   356 3307 6139   7  16  77   0   0
   2    0            0          123            1          767    0    0     0   288 2959 5303   5  14  81   0   0
   1    0            0          119            1          769    0    0  3508 10832 5487 8871  13  16  70   2   0
   3    0            0          119            1          769    0    0  3064 25088 5714 10713   7  16  73   3   0
   1    0            0          198            1          705    0    0 24824 72704 8942 11972   6  22  68   4   0
   1    0            0          175            1          726    0    0 20660   608 4635 10775   9  19  71   1   0

free -m -l -t
              gesamt       benutzt     frei      gemns.  Puffer/Cache verfügbar
Speicher:       7724        6862         167          66         694         716
Niedrig:        7724        7557         167
Hoch:              0           0           0
Swap:              0           0           0
Gesamt:         7724        6862         167

Gruß,
Hendrik
Ergänzung ()

oicfar schrieb:
An sich würde ich bei so wenig RAM auf dem Host swap einrichten. Damit das System Puffer hat und der OOM Killer nicht einschlägt. Wie viele VMs laufen dort? Nur die eine?
Ja, das ist die einzige VM.

Ja, der Ram ist etwas knapp..
oicfar schrieb:
Mein Vorschlag wäre alle Docker Container zu stoppen, die du nicht ständig brauchst. Und wenn ja, dann starte den einen einfach. So kannst du sehen, ob dein Load Problem weg ist oder weiter bestehen bleibt.
Ich hatte die VM aus und der Load war 0.04 - obwohl alle Container an waren.

Gruß,
Hendrik
 
henfri schrieb:
Aber sobald ich HomeAssistant als VM (kvm in Openmediavault) starte, geht die load-avg hoch.

Auf was für einem Dateisystem mit welchen Parametern liegt die VM? Was ist alles sonst noch in der VM installiert und welches Dateisystem nutzt die VM intern? Was für Festplatten nutzt du? HDD, nvme etc?
 
Hallo,

es ist btrfs (rw,relatime,ssd,discard=async,space_cache=v2,subvolid=5,subvol=/). Aber nocow ist für die Datei gesetzt.
Code:
lsattr -d haos_ova-9.5.qcow2
---------------C------ haos_ova-9.5.qcow2
Es ist eine WD Blue NVME.

In der VM weiß ich nicht, welches Dateisystem genutzt wird:
Code:
mount | grep ' / '
overlay on / type overlay (rw,relatime,lowerdir=/mnt/data/docker/overlay2/l/SK4L6M2AVTH7WC6NRYJPAEJSI5:/mnt/data/docker/overlay2/l/MEWEMCY5U3NHBV5QB2M2LH5WOA:/mnt/data/docker/overlay2/l/3TV56U5XRFDN3PMCIDO6GMLIHS:/mnt/data/docker/overlay2/l/3WWDUZYDBWLK7WZILIOFTV4HNL:/mnt/data/docker/overlay2/l/ACJEEPFVND2OFRSE3XAIMC2DE7:/mnt/data/docker/overlay2/l/L6ETDY6OFEM2WFUDSLRRM56EEW:/mnt/data/docker/overlay2/l/CB7FYENZOZKWMXPLK7QLDK2RZA:/mnt/data/docker/overlay2/l/5R2SJV3LFA2KIVY4RQOAIEEF5S:/mnt/data/docker/overlay2/l/5DWVAXEPI4D7F6KKQ7WGHDD4WR,upperdir=/mnt/data/docker/overlay2/e717e6ed0675baaa43746bcbe6749ffe336fd90b39e160be0be6238c5ff6edcd/diff,workdir=/mnt/data/docker/overlay2/e717e6ed0675baaa43746bcbe6749ffe336fd90b39e160be0be6238c5ff6edcd/work)

Viele Grüße,
Hendrik
 
Was macht genau HomeAssistant? Erzeugt es zu einer bestimmten Zeit Last (alle X Minuten)? Weil das dann die Load erklären würde.

Auf dem Host hast du auch 3 zombie Prozesse. Kannst du mit
Code:
ps aux | grep "Z"
sehen was für welche es sind.

Also erstmal die Load ist nicht schlimm. Irgendwas passiert in der VM, was dann in einem kurzen Zeitfenster auf Netzwerk oder I/O wartet und deswegen geht die Load hoch. 1-2 ist ja nicht schlimm. Auf meinem Mini-Server (4 Cores -> deine CPU ist stärker als meine ;) https://www.cpubenchmark.net/compare/3144vs2599/Intel-Pentium-Silver-J5005-vs-Intel-i5-6500 , 32GB RAM, SATA SSD mit ext4) geht auch regelmäßig die Load bis fast 5 hoch. Dauert 1-2 Minuten. Und das ist auch ok so.

1716060719020.png


Aber ich weiß, was da passiert.

"Sorgen" würde ich mir machen, wenn die Load dauerhaft hoch ist.
 
oicfar schrieb:
Was macht genau HomeAssistant?
Mein Licht schalten und co :-)

Die Last in der VM schwankt, aber ist nicht soo hoch
1716061354962.png

Code:
ps aux | grep "Z"
USER         PID %CPU %MEM    VSZ   RSS TTY      STAT START   TIME COMMAND
root      195263  0.0  0.0      0     0 ?        Zs   21:37   0:00 [mountpoint] <defunct>
root      195264  0.0  0.0      0     0 ?        Zs   21:37   0:00 [mountpoint] <defunct>
root      195265  0.0  0.0      0     0 ?        Zs   21:37   0:00 [mountpoint] <defunct>

Was bedeutet das?

Zur Not kann ich mit einer load von 1 leben, aber es wundert mich schon.

Gruß,
Hendrik
 
na, solange cow aus ist, sollte das kein problem sein, oder?
 
Also deine Load ist voll ok. Du musst die keine Sorgen machen.

Ansonsten im Dunklen auf Klo gehen. Dann bleibt die Load niedrig. ;)

Wg. der Zombies ... https://forum.openmediavault.org/index.php?thread/21320-mountpoint-defunct-in-process-listing/ -> musst du aber weiter googlen was Sache ist.

So
Code:
$ free -m -l -t
               total        used        free      shared  buff/cache   available
Mem:           31704        3813         355        1106       27535       26711
Low:           31704       31348         355
High:              0           0           0
Swap:           6143        2234        3909
Total:         37848        6047        4265
sieht bei mir der RAM Verbrauch aus.

Mir ist wichtig, dass buff/cache (27535) hoch ist. Bei mir laufen paar Docker Container und auch eine PostgreSQL 16 mit 4 DBs für die Docker-Container. Und die DB ist insgesamt ca. 7GB groß. Und wenn buff/cache so gut genutzt wird, weil ich viel RAM habe, dann werden die Daten, die häufig gelesen werden nicht von der SSD neu gelesen. Ich hatte am Anfang nur 8GB und der Unterschied zu jetzt merke ich.

Aber wie ich schrieb, SWAP würde ich an deiner Stelle anlegen.
 
Danke.
Aber SWAP auf einer NVME ist auch nicht das Wahre, oder?

Gruß,
Hendrik
 
Muss die VM mit 4GB RAM laufen? Oder reicht da auch 1GB oder 2GB?
Ergänzung ()

henfri schrieb:
Aber SWAP auf einer NVME ist auch nicht das Wahre, oder?
Wieso nicht?

Ich habe seit ca 1161 Tagen (24/7) eine Samsung 1TB SATA SSD im Einsatz (belegt zu ca. 65%)
Code:
------------------------------
 SSD Status:   /dev/sda
------------------------------
 On time:      27,883 hr
------------------------------
 Data written:
           MB: 22,479,194.554
           GB: 21,952.338
           TB: 21.437
------------------------------
 Mean write rate:
        MB/hr: 806.197
------------------------------
 Drive health: 93 %
------------------------------
Hat in dem Zeitraum 7% "verloren". 1x in der Woche wird trim ausgeführt. Passt.
Ergänzung ()

henfri schrieb:
Aber SWAP auf einer NVME ist auch nicht das Wahre, oder?
Wg. BTRFS?

https://btrfs.readthedocs.io/en/latest/Swapfile.html
 
Zuletzt bearbeitet:
Zurück
Oben