News Asus kündigt nVidia GeForce 8500/8600 an

glaubst du wirklich das 20 statt 24bit so einen großen unterscheid im rechenaufwand machen?
aber ist ja auch egal du hast recht und ich meine ruhe
soll jeder glauben was er will

nur mal so am rande, warum gerade 20bit und nicht 21bit, würde sich viel besser auf 3 kanäle verteilen lassen

und wie soll ich auch nen unterschied zwischen 24bit und 32bit farbtiefe sehen, wenn beides das gleiche ist und nur einmal der alpha-kanal mitgerechnet wurde
 
Es geht um den UNsinn der dahintersteckt. Natürlich mussten "mehr" als 16 Bit Farbtiefe her, weil 65k Farben einfach zuwenig sind, aber 32 Bit sind einfach 16,3 mio. Farben die ausgerechnet und dargestellt werden für den allerwertesten, so ziemlich genau 97%.
Diese 97% der dafür benötigten Rechenkraft ließe sich sicherlich besser nutzen als für einen puren Marketing-Gag. Das ist so sinnvoll wie ein Fernseher mit mehreren Milliarden Farbdarstellungsmöglichkeiten.
 
Tiu schrieb:
Diese 97% der dafür benötigten Rechenkraft ließe sich sicherlich besser nutzen als für einen puren Marketing-Gag. Das ist so sinnvoll wie ein Fernseher mit mehreren Milliarden Farbdarstellungsmöglichkeiten.
Man hat halt einfach das doppelte von 16 genommen und gut ist. Das ist dann auch alles leichter technisch zu realiesieren. Einfach alles doppelt so groß/breit machen und fertig. Stell dich nicht so an!
32 bit sieht besser aus als 16bit. 24 bit liegt halt auf der Grenze. Es ist besser etwas mehr zu haben und in einem 32-bit Betriebssystem hat man sich für 32bit Farben entschieden auch wenn es damit nichts zu tun hat (nur Marketing) So viel mehr Power verbrauchen die auch nicht im Vergleich zu 24bit. Ich merke nicht mal einen Performancevorsprung wenn ich von 32bit auf 16bit umstelle! Wenn die Karte auf 32-bit ausgelegt ist, dann macht es nicht viel aus ob 24bit oder 32bit.
Die Farbdarstellung von Flachbildfernsehern ist auch nicht optimal. Da muss noch nachgebessert werden.

@!"EXXTREME"!
Bist ja nur neidisch, dass er mit einer billigeren Karte alles zocken kann :p
 
Zuletzt bearbeitet:
xp_home schrieb:
Man hat halt einfach das doppelte von 16 genommen und gut ist. Das ist dann auch alles leichter technisch zu realiesieren. Einfach alles doppelt so groß/breit machen und fertig. Stell dich nicht so an!
32 bit sieht besser aus als 16bit. 24 bit liegt halt auf der Grenze. Es ist besser etwas mehr zu haben und in einem 32-bit Betriebssystem hat man sich für 32bit Farben entschieden auch wenn es damit nichts zu tun hat (nur Marketing) So viel mehr Power verbrauchen die auch nicht im Vergleich zu 24bit. Ich merke nicht mal einen Performancevorsprung wenn ich von 32bit auf 16bit umstelle! Wenn die Karte auf 32-bit ausgelegt ist, dann macht es nicht viel aus ob 24bit oder 32bit.
Die Farbdarstellung von Flachbildfernsehern ist auch nicht optimal. Da muss noch nachgebessert werden.

@!"EXXTREME"!
Bist ja nur neidisch, dass er mit einer billigeren Karte alles zocken kann :p

Nein, neidisch worauf? Auf eine 6600GT? Ich halte es nur für ein Gerücht das er es mit seiner Karte so spielen kann, fertig.;)
 
Tiu schrieb:
Bensen, Hallo?
Wenn das absolute menschliche Auge lediglich 400.000 Farbnuancen unterscheiden kann, 32 Bit Farbtiefe mir aber 16,7 mio. Farben liefert, dann sind 16,3 mio. Farbnuancen schlicht und ergreifend für den Popo. Du unterscheidest auch nicht mehr zwischen 24 Bit und einem 32 Bit Bild.
Gerade die ersten Grafikkarten mit 32 Bit Farbtiefe waren absolut überfordert mit der Rechenleistung. Also, 32 Bit Farbtiefe = Schwachsinniger Marketinggag, 20 Bit sind mehr als genügend und würde weit weniger Rechenleistung der Chips erfordern und dennoch genau das bringen und darstellen was du auch in einem 32 Bit Bild sehen würdest. :rolleyes:

Das muß nicht zwangsläufig so sein. Ich übertreib mal um meine Überlegung klar zu machen. Man könnte sich auch eine 32 bit Karte vorstellen, die 16,3 mio verschiedene Rottöne darstellt. Die stellst zwar mehr Farben dar als das Auge wahrnehmen kann, deckt aber dennoch nicht das gesamte Farbspektrum des menschlichen Auges ab. Ganz so extrem ist das natürlich bei GraKas nicht, ich kann mir aber dennoch gut vorstellen, daß auch eine 20 bit Karte SSchwierigkeiten haben könnte, das gesamte Farbspektrum des menschlichen Auges darzustellen ...

Und der große Performancekiller ist 32 bit Farbdarstellung nun wirklich nicht. Das packt bei vielen Spielen ja sogar meine alte Gurke ( 9600 pro ) ... ;)
 
Nein, neidisch worauf? Auf eine 6600GT? Ich halte es nur für ein Gerücht das er es mit seiner Karte so spielen kann, fertig

tja ne dicke karte reinballern kann sich jeder. Ein kleines System vernünftig nutzen kaum einer.
Ob du das glaubst oder nicht - es ist so. Man muss halt wissen welche "knöpfe" man drückt :D

Das ist bei stalker ja auch nicht so schwer - man merkt dem spiel schon an das es im jahre 2003 angefangen wurde zu entwickeln. Die engine ist sowas von alt....

Mir ist halt wichtig das der Rechner quasi lautlos ist, kaum strom verbrät und kalt bleibt. Grafikkarten mit 250W -...- völlig sinnfrei,
Vor allem wenn man ein paar tweaks vornimmt rennt auch alles was es momentan gibt perfekt . Klar - CC3 legt da nen paar steine in den weg - ist aber immer noch gut auf mittel spielbar - spielt man ein spiel länger guckt man eh nciht mehr nach den effekten. Der wow effekt hält doch eh meistens nur 30min.
Wofür also ? Dicken penis hab ich, den brauch ich nicht vergleichen.

- die 8600er wird die 6600er sicherlich wieder gut vertreten -
Selbst wenn das Teil nen Stück langsamer ist als ne 7xxxer Karte - auf die Technologie kommts an ...nicht nur dx 10 sondern auch die gesamtleistung bzw Systemkompatibilität (wie verhält die karte sich unter linux etc) spielt hier ne wichtige rolle.
Technisch ist die Karte top.
Ich warte nur noch auf ne richtige Lüfterlösung (am besten ohne)
 
Bin auch am Überlegen ob ich mir die 8600GTS hole. Der geringe Stromverbrauch ist da auch mit ein Kriterium, schließlich muss ich meine Stromrechnung bald selbst zahlen...
Schade dass sie nur 128bit hat. Ist aber auch nicht so, dass ich nen virtuellen Schwanzvergleich machen muss. Wenn die Spiele vernünftig und nicht viel schlechter laufen, ist mir das latte.
 
The_Commander schrieb:
Ist aber auch nicht so, dass ich nen virtuellen SCHWANZVERGLEICH machen muss. Wenn die Spiele vernünftig und nicht viel schlechter laufen, ist mir das LATTE.
Entschuldige, wenn ich da schmuzeln muss ;)

Tja, ich stehe auch gerade vor der Entscheidung, mir einen neuen Rechner zusammen zu bauen, oder nicht?
Eigentlich wollte ich ja noch bis zum "PENRYN" in Kombination mit einer 8900 warten, aber irgendwie kribbelt es in meinen Fingern ;)
Zudem werden dann sicherlich die Preise eher etwas höher liegen.
Momentan ist der e4300 ja schon für schlappe 89,- zu haben.

Tja, die Leistung bei einer 8800 320er sind ja nett, aber für mich wäre sie einfach zu teuer, oder ich wäre nicht bereit, über 250,- für eine Grafika auszugeben ;)
Außerdem kommt mir so ein "Energieschluckspecht" einfach nicht in meinen Rechner!

Ich will hier die 8600GT ja nicht schön reden, aber immerhin bekommt sie schon ab 113,- :)
Die echte Alternative, eine 1950pro würde hier schon inkl. Versand 20,- Euros mehr, wobei sie natürlich mehr Leistung hat.
Allerdings spiele eher Spiele wie CnC3 oder SuM2, die nicht soooo hungrig sind.
Ein weiteres pro wäre natürlich DirX10.

Also schlagt mich nieder, aber ich überlege ernsthaft die obere Karte zu kaufen "indeckunggeh" ;)

Für den Preis von 113,- kämen dann nur die Leadtek oder Palit in Frage.
Mit Leadtek hatte ich eigentlich immer Erfahrung.
Was meint ihr welcher Kühler wohl besser wäre?
Tja, das wars...
 
Zurück
Oben