xorg und flash 100% cpu

counterroot

Lt. Commander
Registriert
Feb. 2005
Beiträge
1.633
hallo in die runde,

jedes mal wenn ich mit firefox oder opera flash nutze bekomme ich auf die CPU eine Auslastung von 100% mit dem Prozess xorg -.-*
Fedora 9 mit Gnome und aktuellen Nvidia-Treibern von livna. Das Problem habe ich aber schon länger (auch mit alten Kernel und Nvidia versionen)
jemand mal was ähnliches gehabt?

gruß µatthias
P.S.: Graka, Nvidia Quadro 140M
 
Ist normal und passiert bei mir auch. Es hängt aber auch sehr von der Webseite (viel Bling-Bling?) und dem Flash-Dingens ab.
Bei mir macht er zB auch Volllast, wenn der Hintergrund animiert ist oder sehr viele Links da sind (mit viel meine ich seitenweise!).
 
counterroot, probier mal die flash beta der version 10 aus, die läuft um einiges runder (fullscreen, etc.) & konsumiert auch etwas weniger :)

wenn zuviel flash läuft beim firefox einfach flashblock aktivieren bzw.

Code:
killall -9 npviewer.bin
 
grr. :D
flash 10 hab ich drauf, welches aber beispielsweise mit der neuen Beta vom Firefox auch nicht mehr will *g*
Thema Killall :D geile sache, aber is dann auch a weng doof.

Mich würds ma freuen, wäre das Surfen wieder angenehmer.... Oder ich schmeiß diese ganze Flash gaga einfach überall raus ^^..... wird wohl das gescheiteste sein.

Danke für eure Info's
µatthias

//EDIT 08-08-28_08-29: nicht nur bei flash :D Wenn ihr beispielsweise auf ein Control-Panel von Plesk geht, passiert das gleiche während geladen wird. Ich schätze mal das sind irgendwelche Effekte die dazugerechnet werden müssen (Beispielsweise der Transparenz-Effekt)..... Während das "Bitte Warten" kommt, ist sense.

gruß µatthias

//EDIT 08-08-28_08-29: das kann doch nicht euer ernst sein, dass das normal ist:
08-08-28_xorg.png


[counterroot@freechip ~]$ killall -9 npviewer.bin
npviewer.bin: no process killed
 
Zuletzt bearbeitet:
Das ist ein Problem des NVidia-Treibers. Hast du schonmal die Beta 177.68 ausprobiert? Schau mal in nvnews.net im Linux Grfaikartenforum. Dort ist beschrieben, wie man seine xorg.conf tunen sollte.
 
Wie bekommt man 1,7 GB RAM belegt? O_o
Laufen da noch einige Datenbanken oder sowas?
 
xD
Im Hintergrund läuft eine virtuelle Maschine mit einigen Anwendungen drin ;) Linux selber nimmt ca. 400 mb in anspruch ;)
Das installieren der Beta-Treiber und das anschließende einfügen von

Option "RenderAccell" "true"
Option "PixmapCacheSize" "300000"
Option "OnDemandVBlankInterrupts" "True"
Option "AllowSHMPixmaps" "0"

in beide Device-Felder, hat zumindest schon mal das gebracht, dass nicht mehr alles lahm gelegt wird. plesk beispielsweise funktioniert teilweise wesentlich besser.
Ich habe den Treiber von http://www.nvidia.de/object/linux_display_ia32_177.67_de.html genommen.

Allerdings kommt der Xorg trotzdem auf gute 60%
danke erst mal ;) bitte noch ideen berichten. Ich probier derweil rum.
gruß µatthias
 
Zuletzt bearbeitet:
Hi

Accel bitte nur mit einem L ;)
Versuch beim PixmapCache mal einen Wert von 1000000, empfohlen hier von einem Treiberentwickler. Dann musst du noch daran denken nach jedem (Neu)Start des XServers folgendes auszuführen, damit die Beta-Features überhaupt aktiv werden:
nvidia-settings -a InitialPixmapPlacement=2 -a GlyphCache=1
Dafür braucht man keine Root-Rechte. Am besten packst du das in ein Skript und steckst es in den Autostart-Ordner deines Desktop-Environements.

mfg
aki
 
yeah nice thx! freundlichkeitshalber habe ich den Link zum Thread der Lösung in zwei weitere foren gepostet. fedoraforum.de Thread 16181 und fedoraforum.org Thread 1071966
muss ich die einträge eigentlich bei beiden device einträge machen oder nur bei einem?
bei mir schauts im moment so aus (Wobei ich normalerweise nur ein Display aktiv habe):

Code:
$ cat /etc/X11/xorg.conf
# nvidia-xconfig: X configuration file generated by nvidia-xconfig
# nvidia-xconfig:  version 1.0  (buildmeister@builder57)  Mon Aug 11 12:42:04 PD
T 2008

# Xorg configuration created by livna-config-display

Section "ServerLayout"
    Identifier     "Default Layout"
    Screen      0  "Screen0" 0 0
    Screen      1  "Screen1" RightOf "Screen0"
    InputDevice    "Mouse0" "CorePointer"
    InputDevice    "Keyboard0" "CoreKeyboard"
EndSection

Section "Files"
    ModulePath      "/usr/lib/xorg/modules"
EndSection

Section "ServerFlags"
    Option         "AIGLX" "on"
    Option         "Xinerama" "0"
EndSection

Section "InputDevice"
    # generated from default
    Identifier     "Mouse0"
    Driver         "mouse"
    Option         "Protocol" "auto"
    Option         "Device" "/dev/input/mice"
    Option         "Emulate3Buttons" "no"
    Option         "ZAxisMapping" "4 5"
EndSection

Section "InputDevice"

# keyboard added by rhpxl
    Identifier     "Keyboard0"
    Driver         "kbd"
    Option         "XkbModel" "pc105"
    Option         "XkbLayout" "de"
EndSection

Section "Monitor"
    Identifier     "Monitor0"
    VendorName     "Unknown"
    ModelName      "LPL"
    HorizSync       30.0 - 75.0
    VertRefresh     60.0
EndSection

Section "Monitor"
    Identifier     "Monitor1"
    VendorName     "Unknown"
    ModelName      "Samsung SyncMaster"
    HorizSync       30.0 - 81.0
    VertRefresh     56.0 - 75.0
EndSection

Section "Device"
    Identifier     "Videocard0"
    Driver         "nvidia"
    VendorName     "NVIDIA Corporation"
    BoardName      "Quadro NVS 140M"
    BusID          "PCI:1:0:0"
    Option         "RenderAccel" "true"
    Option         "PixmapCacheSize" "1000000"
    Option         "OnDemandVBlankInterrupts" "True"
    Option         "AllowSHMPixmaps" "0"
EndSection

Section "Device"
    Identifier     "Videocard1"
    Driver         "nvidia"
    VendorName     "NVIDIA Corporation"
    BoardName      "Quadro NVS 140M"
    BusID          "PCI:1:0:0"
    Screen          1
    Option         "RenderAccel" "true"
    Option         "PixmapCacheSize" "1000000"
    Option         "OnDemandVBlankInterrupts" "True"
    Option         "AllowSHMPixmaps" "0"
EndSection

Section "Screen"

# Removed Option "metamodes" "DFP: nvidia-auto-select +0+0"
# Removed Option "metamodes" "1920x1200_60 +0+0"
    Identifier     "Screen0"
    Device         "Videocard0"
    Monitor        "Monitor0"
    DefaultDepth    24
    Option         "TwinView" "0"
    Option         "metamodes" "DFP: 1920x1200_60 +0+0"
    Option         "RenderAccell" "True"
    SubSection     "Display"
        Depth       24
    EndSubSection
EndSection

Section "Screen"

# Removed Option "metamodes" "CRT: 1400x1050_60 +0+0"
# Removed Option "metamodes" "CRT: 1280x1024 +0+0"
    Identifier     "Screen1"
    Device         "Videocard1"
    Monitor        "Monitor1"
    DefaultDepth    24
    Option         "TwinViewXineramaInfoOrder" "CRT-0"
    Option         "TwinView" "0"
    Option         "metamodes" "CRT: 1680x1050_60 +0+0"
    SubSection     "Display"
        Depth       24
    EndSubSection
EndSection

Section "Extensions"
    Option         "Composite" "Enable"
EndSection
pmb µatthias
 
Zuletzt bearbeitet:
Nachtrag:

ich habe grade festgestellt, dass der Performanceaufschwung immernoch immens ist, setzt man diese einstellungen (wie oben beschrieben).
Aktuell wird bei mir der stable 180.29 eingesetzt und die Performance ohne diese Settings lässt zu wünschen übrig. (ruckeln etc). Also nur Mut und probieren.
grüße µatthias
 
noch daran denken nach jedem (Neu)Start des XServers folgendes auszuführen, damit die Beta-Features überhaupt aktiv werden:

nein, das ist seit einem der zwischen-releases 180.2X standardmäßig an und root-rechte braucht man dafür auch nciht ;)

180.27 scheint zur zeit das beste zu sein, wobei das sehr stark vom grafikchipsatz abhängig ist :rolleyes:
 
es geht mir um die parameter in der xorg.conf:

Code:
    Option         "RenderAccel" "true"
    Option         "PixmapCacheSize" "1000000"
    Option         "OnDemandVBlankInterrupts" "True"
    Option         "AllowSHMPixmaps" "0"
 
Zurück
Oben