News GTX 580: Benchmarks und Infos zu TDP sowie TMUs

Kitguru hatte letztes Jahr auch viel Blödsinn verbreitet.
Wenn man schon im Trüben fischt, dann halte ich mich doch lieber an Fudzilla.

... the new card has similar TDP to Geforce GTX 480, but its cooler is redesigned and works more efficiently than the previous one.

(...)

As for the rumous that this is a paper launch, we can definitely tell you that people have cards as we speak, the big names are testing them now and they should get available on the November 9th, after the official launch.

http://fudzilla.com/graphics/item/20709-geforce-gtx-580-has-a-better-cooler
 
Hach, ich liebe diese emotionsfreien VGA Threads.

Die Fakten bisher:

Nvidia hat ne neue High End Karte angekündigt.
AMD hat neue High End Karten angekündigt.

Leistung? - bei beiden unbekannt.
Preis? -bei beiden unbekannt.
Verfügbarkeit? -auch unbekannt.

Für mich echt ein Rätsel, wie man sich so in etwas reinsteigern kann, wovon man keinen unmittelbaren Nutzen oder Nachteil hat.
 
Es dient der reinen Unterhalten und der tatsache, das man in ganz wenig Zahlen, ganz viel Inhalt schieben kann.

Ob das nun alles war ist, sei dahingestellt, aber vor einer Grafikkartenpräsentation finde ich diese Art der Unterhaltung immer sehr schön und belustigend.

Es läuft doch immer daruaf hinaus, das es immer heißt: Rot gegen Grün!
 
@Mr_Blonde / Winnie0601
Es geht doch eh vorallendingen ums "Recht haben" und der andere ist ja eh doof, ist halt so ein "fundiertes" Halbwissen über irgendwelche Technologien, als ob hier viele überhaupt wüssten wie eine Grafikkarte überhaupt funktioniert, aber hauptsache über Shader und was weiß ich palavern.
 
yep, sehe ich ähnlich @Jenergy,
fakt ist auch, die 480GTX ist bis zu 20% schneller als die 5870, das zeigen etliche benchmark tests und ausführliche Berichte etlicher foren.
damit die 6970 deutlich schneller wie die 580GTX werden soll, angeblich, von vielen Meinungen hier, sollte sie 50% schneller wie die 480GTX werden, das, ist nur wunschdenken und wird niemals so sein.
Ich bin auf jedenfall mal auf die ersten tests der 580GTX und der 6970 gespannt ;)
 
Zuletzt bearbeitet:
LatinoRamon schrieb:
damit die 6970 deutlich schneller wie die 580GTX werden soll, angeblich, von vielen Meinungen hier, sollte sie 50% schneller wie die 480GTX werden, das, ist nur wunschdenken und wird niemals so sein.

Du bist der einzige der das hier behaupte und schreibt.
 
Ist doch egal, wer welche Grafikkarte aus welchen Gründen zu welchen Preisen kauft.
Wer der Meinung ist, es wäre richtig, der macht es einfach.
Warum müssen alle immer ihre Meinung oder bei Grafikkarten ihre "Schrott-Spiele" mit "Schrott-Monitoren" als Beispiel sehen?
Wenn ich auf Spiele wie Crysis auf einem 2560x1600 Monitor mit maximalen Einstellungen stehe, dann braucht sich auch keiner einmischen, wenn ich zwei Top-Grafikkarten kaufen sollte.

Denn so könnte man mit allem und jedem auf der Welt argumentieren.
Leute die 30.000 Euro für ein dummes Auto zahlen, obwohl ein 6.000 Euro auch reichen würde, Leute die für 200.000 Euro eine Wohnung kaufen, obwohl es 5km weiter eine vergleichbare für 130.000 Euro gibt, Leute die 20 T-Shirts für je 20 Euro kaufen, obwohl man auch für 1-2 Euro T-Shirts kaufen kann, Leute die jedes Wochenende 50 Euro versaufen, usw...

Es gibt so unglaublich viele Beispiele, aber im Endeffekt entscheidet jeder für sich selbst und Andere brauchen sich da nicht einzumischen, wenn die keine Ahnung haben oder das Geld für etwas Anderes ausgeben (würden).

Jeder sollte man zuerst auf sich schauen, denn ich garantiere jedem, dass jeder irgendwo zu viel Geld ausgegeben oder sehr dumme Entscheidungen getroffen hat.
Das macht einen Menschen aus, der von Marketing, Werbung und äusserlichen Einflüssen gesteuert wird.
 
Zuletzt bearbeitet von einem Moderator:
Xeljaga schrieb:
Es sind düstere Zeiten für einen 30 Zoll Monitor besitzer. Dämonen nagen an meinen FPS zahlen und meine Nerven werden mit Satans Peitsche strapaziert.

*amen*


sind auch bloß 1920x1080....
 
Kommt es nur mir so vor oder ist es tatsächlich so, dass 70% der geposteten Posts über Watt, Verwechslungen mit TDP und Stromverbrauch sind?

Schön wenn Nvidia angeblich eine TDP von 244 Watt aufsagt. Das heisst nämlich, dass der Kühler bereit sein muss, 244 Watt zu kühlen. Der Stromverbrauch liegt meist weiter oben. Die GTX580 kann genau so gut 350 Watt ziehen.

Und ausserdem ist eh alles Spekulation. Und dann noch Vergleiche damit zu machen. Naja wenns muss. Und die Tabelle wirkt mir unglaubwürdig. Ne nicht weil ich sie nicht selbst gefälscht habe. Es gibt definitiv noch grössere Abweichungen. Ob postive oder negative... lassen wir uns mal überraschen.

Schön aber fürs Geschäft, wenns ein Paperlaunch wird. x)
 
3 Tage alt und das gleiche/weniger wie ohnehin schon gesagt ;)
 
Gu4rdi4n1337 schrieb:
sind auch bloß 1920x1080....

2560x1600 .. und nach all den Monaten kann ich sagen, der Unterschied von 1920x1080 ist wie von 1280x1024 auf 1920x1080 ..

mind. 80% aller neuen spiele laufen mit dieser Auflösung selbst mit mittel-hoch Einstellung nur begrenzt oder schlicht nicht auf dieser Auflösung (sofern man Besitzer einer Grafikkarte ist).

Um es deutlicher zu machen:

Wenn man Crysis auf max. (Very High, AA max., AF max. etc.) spielen will, benötigt man mind. einen i7-920 @ 4Ghz~ und 4x 480GTX im Quad-SLi-Verbund. Ich rede von 60 Fps~ durchschnittlich.

Quelle: http://www.youtube.com/user/EtheEnthusiast#p/u/0/JktNjrfojsw

Und nein, ich bin kein verdammter Bonze der sich alles leisten kann. Es ist mein Hobby, Geld in PC-Hardware umzuwandeln :).

Wenn ich mich zurückerinnere .. von 800x600 auf 1280x1024. Die Spiele liefen immer flüssig. Klar waren die Anforderungen noch ganz andere als heute aber trotzdem. Es ist interessant wie es sich entwickelt. Heute ist eine Grafikkarte für die hohen Auflösungen schlicht zu wenig. 800€~ nur für Grafikkarten investieren zu müssen scheint normal zu werden .. (sofern man hohe Auflösungen möchte)

ps: Mir ist bewusst das Crysis für viele keine gute Referenz ist. Trotzdem ist es einfach krank wie sich der Leistungshunger seit höheren Auflösungen einfach mal vervierfacht oder weiter ..

pps: Ich will hier keine Nerdrages mehr hören wie: "30 Zoll braucht doch niemand, mimimi" .. es ist ganz einfach -> JEDEM DAS SEINE <-

ppps: Sollte Nvidia/AMD 3D Vision weiter pushen und auch 30 Zoll Bildschirme mit 120 Hz kaufbar werden. Dann wisst ihr wo das enden wird. 4 Grafikkarten der Mid-Range Grafikkarten werden minimale Anforderung werden (mir ist klar, dass viele [oder alle] Mid-Range Grafikkarten keine 2 SLi/Crossfire-Anbindungen haben).
 
Zuletzt bearbeitet:
Die Frage die ich mir bei 30" und dieser Auflösung stelle ist: Sitzt du überhaupt weit genug entfernt?
Ich habe einen 24" mit Full HD Auflösung und sitze einen guten Meter entfernt (vielleicht sind es auch 90cm ;)). Ich sehe so oft Leute mit 30" Geräten und Maus + Tastatur liegen quasi direkt davor, da frage ich mich wie man das komplette Bild überblickt und was nützt es mir wenn ich meinen Kopf hin und her bewegen muss?
 
PalimPalim schrieb:
Die Frage die ich mir bei 30" und dieser Auflösung stelle ist: Sitzt du überhaupt weit genug entfernt?
Ich habe einen 24" mit Full HD Auflösung und sitze einen guten Meter entfernt (vielleicht sind es auch 90cm ;)). Ich sehe so oft Leute mit 30" Geräten und Maus + Tastatur liegen quasi direkt davor, da frage ich mich wie man das komplette Bild überblickt und was nützt es mir wenn ich meinen Kopf hin und her bewegen muss?

Ja ich sitze sehr nahe am Bildschirm.

Jedoch .. sollten alle mal bisschen weiter denken und sich fragen:

30 Zoll Monitor:

Man kann ihn als Fernseher gebrauchen. (Vom Bett aus perfekter Abstand, in meinem Fall)
Um Blue-Rays zu schauen. (Vom Bett aus perfekter Abstand, in meinem Fall)
3 Word Dokumente nebeneinander.
Gamen und Photoshop gleichzeitig
Zwei bis viermal ein Spiel gleichzeitig offen haben.
Zwanzig Poker-Rooms besuchen.

Ich kann so ewig weitermachen ..

Desweiteren ist es einfach PHENOMENAL GEIL Colin Mcrae Dirt 2 in dieser Auflösung zu spielen. Es saugt einem fast in's Spiel und so soll es auch sein.

.. Wie ich jedoch schon vorher sagte, ihr braucht es oder eben nicht.

MfG - Xel
 
Zuletzt bearbeitet:
Was für ein Thread. 85% Fanboygequatsche :(
Wenn dann, ATi hier, Nvidia da, viel besser da, Verbrauch, in den Boden stampfen.. wo wohnt er? Der das alles wissen will?

Was ist so schwer daran zu warten bis beide Hersteller ihre Karten gelaunched haben, die Benchmarks zu lesen und sich dann zu entscheiden, ohne alle Menschen mit einer anderen Meinung / einem anderen Geschmack / anderen Prioritäten bei der Graka Wahl als Idioten zu diffamieren?

Echt schlimm... hast du nen High End PC, wirst du als Idiot gebranntmarkt, weil du so viel Geld ausgibst, hast du einen 30 Zöller ist das überflüssig, weil ein 22 Zöller ja auch reicht...

Hölle... ich stimme dem Highspeed Opi zu. Verdammter Kindergarten hier :mad:
 
Zuletzt bearbeitet:
ich finde es immer wieder erstaunlich, wie man sich über unveröffentlichtes so die köpfe einschlagen kann.

spekulation schön und gut aber andauerndes gebashe langweilt.
 
@ IntelCyphe
Da steht doch gar nix neues drin, nicht mal von den TMUs. Nur, dass sie wohl 10-15% weniger Strom brauchen sollte. Also auch nicht 20% wie anderorts kolportiert.
 
Xeljaga schrieb:
Wenn man Crysis auf max. (Very High, AA max., AF max. etc.) spielen will, benötigt man mind. einen i7-920 @ 4Ghz~ und 4x 480GTX im Quad-SLi-Verbund. Ich rede von 60 Fps~ durchschnittlich.

Es ist aber leider erwiesen, egal ob SLI oder crossfire 3x Karten sind "sinnvoller" als 4x Karten.
Ich kann dich mit Benchmarks zuschütten wenn du willst.
 
Hallo zusammen,

also ganz ehrlich, für mich ist das einmal mehr eine typische Nvidia Marketingshow! Meiner Meinung nach wird jetzt schon einmal Riesenwind gemacht um eine evtl. kommende Geforce 580 mit mehr oder minder fiktiven Daten, einfach um möglichst viele Potenzielle Käufer der Neuen Radeon 6900er Serie vom Kauf derselben möglichst Lange abzuhalten!

Im Grunde ist genau dieses Spiel in ähnlicher Art und Weise im vorigen Jahre genauso abgelaufen! Ich Persönlich traue der Sache erst, wenn das Teil überhaupt erhältlich ist. Wir Wissen ja alle, daß Nvidia sehr erfahren ist, was das Fabrizieren von Karten angeht, die nirgends in einem Rechner sind!

Gleichwohl würde ich es natürlich begrüßen, wenn Nvidia ein Äquivalent zu AMD`s 6900er Karten aus dem Ärmel ziehen würde, schon damit AMD Konkurrenz hat und wir Verbraucher dadurch auf Fallende bzw. günstigere Preise hoffen könnten, alleine der Glaube fehlt mir jedoch gänzlich.

So long...
 
Zurück
Oben