News Nvidia-Treiber enthüllt GTX 580, GTS 455 und GeForce 405

na ich hoffe mal, dass amd irgendwas anstrebt und sich nicht nur mit fremden federn schmückt. bisher hab ich weder bei havok noch bullet irgendwas von amds unterstützung gesehen.
nvidia vergeigt es mit agaia leider auch. anstatt es offiziell für alle zugänglich zu machen, und seis nur als zusatzkarte aus eigener produktion, halten sie diese vielversprechende technologie künstlich klein, in dem sie es auf reine nvidia-systeme beschrenken wollen. imho ziemlich kurzsichtig, auch aus wirtschaftlicher sicht.

aber um zum thema zurückzukommen: ich finds etwas merkwürdig, dass die gtx580 zusammen oder gar vor der gts455 und g405 kommen soll. also ich würd nicht all zu viel von der karte erwarten.
ich halte es eher mit diesem gerücht:
http://www.hwmag.de/grafikkarten/geruchte-um-die-gtx580
gtx580 = gf104 vollausbau als konkurrent zur 6870
an einen neuen chip wie den gf110 mit 20% mehr leistung bei gleichzeitig 20% weniger verbrauch glaub ich nicht. gf100 vollausbau mit 512 shadern wäre noch denkbar, aber dann mit etwa gleichem verbrauch und 10% - 15% mehrleistung maximal.
 
Und ... ?
Um Mafia2 und PhysX ist es auch hier im Board still geworden, ich würde meine physX Karte ausbauen wenn ich nicht zu faul wär für 2min Umbau :D und cuda hat mir immer noch keiner beweisse geliefert das es sinnvoll ist, für videokomprimierung wird sogar von schlechter Qualität geschrieben bei cudaH.264 gegeüber normal H.264.

Einzig das Mercury Playback Engine sehe ich Sinn.


Nachtrag : aus dem http://forum.doom9.org/

x264
12:480 sec = --preset ultrafast
13:915 sec = --preset veryfast --profile baseline --scenecut -1 --nf --partitions i8x8,p8x8 --aq-mode 0
14:204 sec = --preset veryfast --profile baseline --scenecut -1 --nf --partitions i8x8,p8x8


cuda
15:000 sec = ultrafast

3 mbits target 1280x720 25fps

so @ low bitrate targets cuda (in form of Nvidias Encoder) is pretty much useless compared to a old CPU architecture in this case AMD Athlon(tm) 64 X2 Dual Core Processor 4200+ (1603Mhz)

the visual quality in this case is also on the side of x264 compared vs a G92 8800GT 112 Stream Processors

X264 X2 vs G92 112 Stream Processors = X264 wins @ Baseline 3 mbit target (speed/quality)

http://picturepush.com/public/1968749
CUDA 6Mbps

http://picturepush.com/public/1968750
x264 6Mbps

http://picturepush.com/public/1968751
Source
 
Zuletzt bearbeitet:
Was heißt nichts vernünftiges geliefert? nvidia hat auch nichts gemacht.
Vorher hab es Havoc und Havoc FX (GPU Phsyik), wurde von Intel aufgekauft, dann kam Ageia und war der "Hoffnungsträger", haben aber auch "geschummelt", weil sie ihre Software für CPUs "deoptimiert" haben um ihre PhysX Karten zu verkaufen.

Dann kam nvidia und hat es einfach aufgekauft und die Software grob auf ihre Karten zugeschnitten. Einfach irgendwas aufzukaufen ist jetzt keine technologische Meisterleistung. Ich habe selber eine nvidia Karte, aber man muss nvidia nicht wegen PhysX loben.

Was nützt mir denn PhysX wenn ich es nur mit einem Hersteller mit einer minimalen Anzahl an Spielen nutzen kann, mit einer Teils lächerlichen Physik Darstellung und mieser Performance? Was nützt mir PhysX wenn ich meine nvidia neben eine mögliche AMD Karte packen möchte und ich erst sonstwo rumfummeln muss um PhysX nutzen zu können. Kundenfreundlichkeit hört sich irgendwie anders an.

Daher bin ich heilfroh das ein Hersteller an einem offenen Standard arbeitet, egal ob jetzt schon was vernünftiges vorhanden ist oder nicht. Es wird etwas getan das es für uns Kunden einfacher wird, egal welche Hardware man nun besitzt - und auch die Beweggründe sind mir egal, ich als Kunde profitiere davon.
Wieso sollte man sowas schon zum Tode verurteilen, warum nicht einfach mal eine Chance geben?
Letztenendes wollen nvidia, AMD, Intel usw alle nur an mein Geld. Wenn ich denen dann schon mein Geld gebe dann möchte ich die Features für die ich bezahlt habe in meinem Rechner so nutzen wie ich möchte. Uneingeschränkt und ohne Kindergartenverhalten eines Herstellers, denn einen technischen noch einen lizenztechnischen Grund gibt es dafür das PhysX deaktiviert wird wenn man sowohl AMD als auch nvidia im Rechner hat.
 
Lübke schrieb:
na ich hoffe mal, dass amd irgendwas anstrebt und sich nicht nur mit fremden federn schmückt. bisher hab ich weder bei havok noch bullet irgendwas von amds unterstützung gesehen.

Da hast du leider recht, allerdings macht es Nvidia auch nicht gerade besser.
Dass Physx bekannt ist und auf mit GPU Physx verwechselt wird (Nvidia zielt darauf bewusst ab) ist ein recht kluger weg.

usatzkarte aus eigener produktion, halten sie diese vielversprechende technologie künstlich klein, in dem sie es

Viel idiotischer ist, dass bei einer radeon der Treiber sagt: Nein!
Aber diese Physx Diskussionen gibts ja zuhauf und wurden schon tausend mal geführt, egentlich immer mit dem selben Ergebnis: Nice to have but not necessary.
 
Darf man der News von Post 1 glauben schenken..dann kommt die 580 GTX ja schon sehr bald??

Wenn die schneller ist als eine 480 GTX könnte dies sehr interressant für mich werden.

Da ich meine zwei 470 SOC morgen wieder zurückschicke brauche ich eine neue Karte.
 
Zuletzt bearbeitet:
Zwischen eine Karte vorstellen und dann auf den Markt zu bringen vergehen bei Nvivia gern mal ein halbes Jahr und mehr. Das Nachfolgemodell der GTX480 dürfte schneller und besser als die GTX480. Aber ob sich das Warten lohnt? Ich persönlich denke nicht wenn du jetzt ne Karte brauchst. Die GTX480 gibts schon ab 309 Euro.
 
Master92 schrieb:
Ein offener Standard wäre nötig ja, nur gibt es jetzt GPU Physx schon einige Zeit und AMD hat immernoch nichts vernünftiges geliefert.

Ich frage vorsichtshalber nochmal nach:
Du erwartest, dass AMD Geld in einen offenen Standard investiert, damit sich Nvidia nachher in das gemachte Nest setzt? :freak:

1. Den offenen Standard gibt es schon => OpenCl
2. Die Physik-Engine ist Sache der Entwickler, die Grafikkartenhersteller müssen nur die Mittel (z.B. OpenCl) breitstellen.
Wird das nicht so gemacht, passiert nämlich sowas wie AA-Gate/Batman-Gate oder Physx!



ATI Soldat schrieb:

Ich denke, selbst wenn man AMD hasst ( :rolleyes: ), sollte man bis zum 69XX Release warten, denn dann vermute ich wird preislich nochmal was passieren...
 
Zurück
Oben