32 Bit Farbtiefe unter Linux mit GeForce 6600GT

  • Ersteller Ersteller Green Mamba
  • Erstellt am Erstellt am
G

Green Mamba

Gast
Hi,

ich brauche unter SuSE 9.2 32bit Farbtiefe. Über Yast kann man maximal 24bit einstellen, ich brauche aber unbedingt den vollen Alpha Kanal. Wenn ich in der XF86Config die Bitzahl von Hand eintrage, startet X nicht mehr, und es kommt sinngemäß die Meldung dass die Karte diese Farbtiefe bei der Auflösung (1280x1024) nicht unterstützt.
Hier noch der entsprechende Part der XF86Config:
Code:
Section "Screen"
  DefaultDepth 24 [COLOR=DarkRed]#wenn ich hier die 32 hinschreibe, startet x nicht mehr[/COLOR]
  SubSection "Display"
    Depth      15
    Modes      "1280x1024" 
  EndSubSection
  SubSection "Display"
    Depth      16
    Modes      "1280x1024" 
  EndSubSection
  SubSection "Display"
    Depth      24
    Modes      "1280x1024" 
  EndSubSection
  SubSection "Display"
    Depth      32
    Modes      "1280x1024" "640x480"
  EndSubSection
  SubSection "Display"
    Depth      8
    Modes      "1280x1024" 
  EndSubSection
  Device       "Device[0]"
  Identifier   "Screen[0]"
  Monitor      "Monitor[0]"
EndSection
Kann mir jemand weiter helfen? Installiert ist der aktuelle Grafiktreiber. :)

Viele Grüße,
Green Mamba
 
Ich dachte immer 32bit wären eigentlich 24bit bei der farbtiefe..nur die windows treiber zeigen es halt als 32bit...naja vielleicht habe ich jahre lang falsch gedacht
 
Hi

24bit und 32bit stellen gleichviele Farben dar, wenn ich das richtig verstanden habe. "32" ging noch nie in der Konfig von XFree bzw. XOrg (zumindest nicht bei mir).

mfg
aki
 
Ja, 24 Bit sind je 8 Bit pro Farbe Rot Grün und Blau. Bei 32 Bit gibts noch den Alphakanal für die Transparenz. Das muss irgendwie einstellbar sein. :(
Ich bin auf den Alphakanal angewiesen in meiner Anwendung.
 
folgender Auszug aus der nvidia readme, sollte es klären


Code:
DEPTH, BITS PER PIXEL, AND PITCH

While not directly a concern when programming modes, the bits used per pixel
is an issue when considering the maximum programmable resolution; for this
reason, it is worthwhile to address the confusion surrounding the terms
"depth" and "bits per pixel". Depth is how many bits of data are stored per
pixel. Supported depths are 8, 15, 16, and 24. Most video hardware, however,
stores pixel data in sizes of 8, 16, or 32 bits; this is the amount of memory
allocated per pixel. When you specify your depth, X selects the bits per pixel
(bpp) size in which to store the data. Below is a table of what bpp is used
for each possible depth:

    Depth                              BPP
    -------------------------------    -------------------------------
    8                                  8
    15                                 16
    16                                 16
    24                                 32

Lastly, the "pitch" is how many bytes in the linear frame buffer there are
between one pixel's data, and the data of the pixel immediately below. You can
think of this as the horizontal resolution multiplied by the bytes per pixel
(bits per pixel divided by 8). In practice, the pitch may be more than this
product due to alignment constraints.
 
Zuletzt bearbeitet:
Habe es eben nochmal bei mir getestet mit "32", aber da ist nichts zu machen. Zumindest nicht auf diesem Wege. Benutze ebenfalls eine 6600GT.
Transparenzen lassen sich aber benutzen, z.B. bei Menüs etc. aber das ist wohl nicht das, was du meinst :)

bezüglich nvidia readme:
Sowas in der Art hatte ich auch noch im Sinn. Man gibt zwar 24 an, allerdings entspricht das 32bit.

mfg
aki
 
Zuletzt bearbeitet:
24 Bit Farbtiefe unter Linux ist das Höste aller Gefühle, höher gehts leider nicht ;)









gruss elmex
 
Zuletzt bearbeitet:
Ich weiß nicht, ob ich da völlig auf dem Holzweg bin.
Ich behaupte, dass 24 Bit in der Konfigdatei das ist was Windows mit 32 Bit Farbtiefe meint. Die 8 Bit für den Alphakanal sind dann implizit dabei.

Schließlich werden wirklich nur 24 Bit für Farbe benutzt (2^24; du weißt ja...).

Wenn du ein png-Bild hast, das den Alphakanal nutzt (Bild z.B. halbtransparent), dann sollte dieses doch in einem Browser zu erkennen sein.
Will heißen, dass wenn dein X auf 24 Bit eingestellt ist, du aber die Halbtransparenz siehst, dann hast du doch deine "32" Bit :), irgendwie zumindest.

Hier mal ein Bild mit Tranparenz (Gimp machts möglich). Einfach in eine HTML Datei einfügen, mit Hintergrundfarbe.
 

Anhänge

  • a.png
    a.png
    46,2 KB · Aufrufe: 424
Hi

ne, ich glaub die fehlenden 8 Bit werden erst beim starten von 3D Anwendungen
geliefert, durch die 3D-Schnittstelle(n) OpenGL/MESA.

Bin aber noch Neuling nicht gleich schlagen.

Cu
 
Nein, ich brauche die Farbtiefe für mein selbstgeschriebenes GL-Programm. Es kann doch nicht sein, dass der Alphachannel unter Linux einfach nicht supported wird!? :heul:

@Boron
Ich denke in dem Fall wird die Transparenz auf dem Prozessor berechnet, man braucht dafür nicht unbedingt den Alphakanal. Ich will die Transparenz aber eben auf der Grafikhardware berechnen, daher brauche ich den Kanal natürlich.
 
Japp, klappt wunderbar :)
Sonst dürften auch die ganzen Transparenz-Effekte, welche man innerhalb von KDE einstellen kann, nicht funktionieren.

mfg
aki
 
Tja, komischerweise kann ich den Alphakanal aber nicht nutzen. Ist es nicht möglich dass diese Transparenzen komplett auf der CPU berechnet werden. Ich denke nämlich nicht dass dafür die Grafikhardware genutzt wird, und die Bilderchen als Texturen verwendet werden. Das wäre ja dann eine hardwarebeschleunigte Desktopdarstellung. Sollte die nicht erst mit KDE 4.0 kommen?

Auch wäre es mir unverständlich dass man in die Config 24 Bit schreibt, wenn eigentlich 32 gemeint sind. Ich bekomme bei einer für mich wichtigen Transparenz-Einstellung folgende Meldung:

Coin warning in renderSingle(): Sorted layers blend cannot be enabled if ALPHA size != 8 (currently 0) or DEPTH size < 24 (currently 24). Rendering using SORTED_OBJECTS_BLEND instead.

Ich denke schon dass ich mich darauf verlassen kann.
 
longi schrieb:
Hi

ich dachte immer 32 Bit = 24+8 Transparenzkanäle

Cu

Da bin ich gleicher Meinung.

Tja, komischerweise kann ich den Alphakanal aber nicht nutzen. Ist es nicht möglich dass diese Transparenzen komplett auf der CPU berechnet werden. Ich denke nämlich nicht dass dafür die Grafikhardware genutzt wird, und die Bilderchen als Texturen verwendet werden. Das wäre ja dann eine hardwarebeschleunigte Desktopdarstellung. Sollte die nicht erst mit KDE 4.0 kommen?

Afaik liegt das am X-Server, d.h. dass das ganze auf CPU berechnet und nicht GPU wird. Deshalb wird auch der Xorg/Xfree-Server bemaengelt. Kann mich aber irren.

MfG
 
jo, die composite extension macht das dann per gpu mit echter transparenz.
im gentoo-wiki gibts ne prima anleitung dazu was man einstellen muss(auch bei nicht-gentoo).
damit sollte dann auf jedenfall die transparenz da sein - ob die dann von dem programm erkannt wird ist noch die frage..
 
wenn nur die ati treiber funktionierne würden ...
 
Hi,
also wenn du 24bit auf dem X Server aktivierst, dann sollte in deinen GL Programmen auch die Transparenz angezeigt werden.

Ich habe jedenfalls keine Probleme damit eine transparente PNG in OpenGL zu laden und unter XFree und Xorg korrekt anzuzeigen (sowohl im Fenster als auch im Vollbild).

Funktionieren die selben Programme denn im Windows richtig?

mfg
 
Kann ich leider nicht testen, schreibe gerade einen Prototyp, der ist momentan nur unter Linux lauffähig.
 
Dann lad dir doch mal glpng runter. Da ist ein Beispiel bei.
Die Beispiel PNG ist zwar nicht transparent, musst du also austauschen (davon abgesehen musst du auch noch die GL Includes anpassen) aber ansonsten löfts.

mfg
 
Zurück
Oben