News Benchmarks: GeForce GTX 380/360 schlagen alles?

Status
Für weitere Antworten geschlossen.
Nochmal eine Zusammenfassung der technischen Daten (beim GTX 380 noch nicht final, da Taktraten noch nicht 100% sicher sind):

Ati 5870

Rechenleistung 2720 GFlOPs
Pixelfüllrate 27 GPixel/s
Texturierleistung 68 MT/s
Speicherbandbreite 154 GB/s


Ati 5970

Rechenleistung 4640 GFLOPs
Pixelfüllrate 46,4 GPixel/s
Texturierleistung 106 MT/s
Speicherbandbreite 256 GB/s

Nvidia GTX 380

Rechenleistung 1740 GFLOPs
Pixelfüllrate 31,2 GPixel/s
Texturierleistung 83,2 MT/s
Speicherbandbreite 202 GB/s


Es ist anhand der technischen Daten einfach nicht möglich, dass die GTX 380 um 20-30% schneller als die Dual-GPU von Ati wird. Damit sind die Bilder recht eindeutig als Fake enttarnt
 
na ja wie immer wird dann die NVIDIA so teuer sein wie immer alt da sie dann fast schon nicht mehr kaufbar wird für normale Leute beim Kauf einer Grafikkarte...ich hoffe NVIDIA übertreibt diesmal nicht wieder mit den Preisen...
 
erstmal ne echte karte präsentieren und dann weitersehn^^
kein kein dummie :D

auf dem foto sind doch zwei karten zu sehn?

im zweifel gilt: glaube keiner statistik die du nicht selbst gefälscht hast ...
 
Zuletzt bearbeitet von einem Moderator:
Wie auch immer der Wahrheitsgehalt ist, welche CPU soll das denn noch können? 5850 überlastet Dualcores, 5850 CF Quadcores, von einer 5870 CF ganz zu schweigen.
Alleine das läßt mich zweifel, denn die eigentlichen Graka müßte ja noch wesentlich besser sein wenn sie diese Mehrleistung bringt obwohl sie CPU limitiert ist.
 
Naja, falls diese Folien wirklich von NV stammen sollten, dann nur mit einen Zweck: USer sollen zur Weinachtszeit nicht die ATI KArten kaufen sondern auf den Fermi warten.

Aber wie ein User vor mir schon sagte, anhand der technischen Daten sind diese Folien und Ergebisse in der Praxis unmöglich! Daher 100%ig ein Fake/Fälschung.


Gruß
 
Wunderlich finde ich, dass die HD5970 in Stalker: Clear Sky mit 82 Frames rennt, im Test von CB schaffte sie allerdings nur 58.8. Sie läuft zudem in Far Cry 2 exakt gleich schnell, was auch bezweifelt werden darf.

In Crysis: Warhead gehts dagegen einigermassen auf.. Mal sehen, was sie wirklich leistet.

Spät ist sie ohnehin, selbst wenn sie schon im Januar auf dem Markt sein sollte. AMD werkelt vermutlich schon am Refresh und an der nächsten Generation, während NVIDIA sich auf den Fermi konzentrieren muss.
 
Abgesehen vom Homemade-Charakter der Benchmarks... Es war doch ohnehin schon beim Release der ATI-Karten klar, dass man besser fährt wenn man auf die NVIDIA-Antwort wartet: 1. Entweder, NVIDIA überrollt ATI in der Leistung und es kommt zum Preisverfall bei ATI
2. NVIDIA verhaut es und man kann sich immer noch ne ATI holen.

Wie auch immer, ich sehe am Ende die größeren Erfolgschancen bei ATI, da dort erfahrungsgemäß das bessere P/L-Verhältnis herrscht und NVIDIA sich in der Regel nur zögerlich auf Preiskämpfe einlässt, was damit einher geht, dass man dort ohnehin dank der Chipgröße höhere Kosten hat.
 
irgendwie vergessen hier alle den Stromverbraucht. Der wird nicht erwähnt wobei ich dieses Kriterium sehr sehr wichtig finde
 
Sag ich doch Raven
Complication schrieb:
Naja die HD6000 werden wohl im Q3/2010 raus kommen und vielleicht schon in 28nm Fertigung.
Das könnte ein schlimmes Jahr für Nvidia werden wenn sie den März nicht schaffen und ins Q2 rutschen sollten. Dann wäre die 40nm Technik schon bei Release fast überholt.
Ob man sich alte Technik zu Launchpreisen kauft?
http://www.hardware-infos.com/news.php?news=3231

Kaufen von 2 5870ern zum Preis einer GTX360, möglicherweise GTX380)
Na das wäre ja mal was neues in der Nvidia Preispolitik - soll man darauf jetzt warten? Ich denke warten lohnt nicht, da die Fermi Karten zu spät kommen werden.
 
Mal theoretisch, wenn die Leistung stimmen würde, würden die Preise der GTX360 auf der einer 5970 liegen. Und die GTX380 wieder 60-100€ höher.

Na toll =(

Da ne 5970 rund 500€ kostet, können wir uns auf schöne Preise von Nvidia freuen.
Diese sind ja tendentiell ein wenig höher in der selben Leistungsklasse.
Oder Leistung ist niedriger in der selben Preisklasse.
 
@gruffi

ich halte die Benchmarks ja genau wie eig alle anderen hier für nicht realistisch, aber ein Zuwachs im Bereich von 80% prinzipiell für möglich.

Ich habe mich jetzt nicht mit Details der Ausführungseinheiten beschäftigt, ich ging davon aus, dass die Shaderleistung in etwa gleich geblieben ist. Deswegen ist es mir natürlich klar dass der Shader an sich noch viel mit dem der G80 zu tun hat, aber vergleichen mit dem G200 wie ich finde mehr Neuentwicklung beherbergt und deswegen schwerer einzuordnen ist.

-> heißt die Pro-Shaderleistung kann steigen oder fallen, je nach dem was geändert wurde.

Bei Nvidia kann man von der Shaderanzahl sehr gut auf die Performance schließen.
https://www.computerbase.de/artikel...test.825/seite-28#abschnitt_performancerating

128 vs. 240 Shader, was der G200 fast umzusetzen vermag.

100% Skalierung wird es nie geben, esseiden an den Shadern selbst ändert sich etwas, was dies begründen könnte.
Interessant hierbei eventuell das statt Single Instruction Multiple Data (SIMD)-Einheiten nun Multiple Instruction Multiple Data (MIMD)-ähnliche-Einheiten zum einsatz kommen sollen.
 
Nun ja, dauert nach dem Release der 380 / 360er ja nicht mehr allzu lange, bis ATI die 6000er Reihe bringt.


Zitat "While we expect AMD to introduce a refresh this Spring, we have learned the next generation is slated for launch in Q3 2010.

Just like with the just launched Radeon HD 5800 series, the name has not been set at this point and the name right now is Radeon 100, which is subject to change though as the product materializes. Three ASICs are in the works that we know of. We're awaiting confirmation on the names, but they sound a bit Greek to us (think gargantuan)."

Radeon 29** -> 2007
Radeon 38** -> 2008
Radeon 48** -> 2008
Radeon 58** -> 2009
Radeon 68** -> 2010 (???)


Von daher... Zumal es so oder so ein Armutszeugnis gewesen wäre wenn Nvidia schlechter bzw. gleich schnelle Karten in den Umlauf gebracht hätte. War und ist also zu erwarten das sie die Radeons abhängen, aber wie immer bei NV: Zu WELCHEM Preis dann?! 600 Euro? 700? ;)

Kurzum: wird ein interessantes Jahr werden, CPU's mit 6 Kernen usw. Freue mich darauf (und hoffe inständig das der Launch der NV-Karten die Radeon 5*** Serie bezahlbar macht :D ).


So long, Spawngebob
 
@synergy

irgendwie hab ich das gefühl,dein post wird gelöscht^^. Mit beleidigungen gehst du ja nicht gerade sparsam um...

lass mich mal gucken, i habe seit anfang oktober eine 5870 im rechner, für 350..wenn im märz nun der fermi zum kaufen ist, habe ich bereits ein halbes jahr die schnellste karte gehabt, für einen in meinen Augen angemessenen preis. Die 5870 wird sicherlich fallen,da der Fermi, wenn au evt. nur minimal, schneller sein wird. Dann gibts die Karte eben für 300€, evt für 280. Das wären dann 50-70€ für ein halbes jahr gewesen, das ist gar nix.

Und hier leute als deppen zu bezeichnen, weil sie selber entscheiden was sie mit ihrem geld machen, und was ihnen wie viel wert ist, ist ein armutszeugnis deinerseits.

Ich könnte au sagen, deppen sind diejenigen,die nicht gleich am anfang eine 5870 für 320 gekauft haben und auf "Fermi" warten wollten,der angeblihc november hätte kommen sollen,und jetzt im märz kommt,und falls er diese leistung ansatzweise bringt, nicht für unter 500€ weg geht.


gruß
 
Zuletzt bearbeitet:
@ Turbostaat

Nicht aufregen... manche möchten die Realität nicht sehen...

Andere merken, so wie Du, dass an dieser "News" nichts dran ist... aber von so Gerüchte-"News" leben Seiten wie CB etc. ...

Haste nen link zu der "News" mit dem rosa Elefanten :-)


p.s. Alles gelesen und immer noch am schmunzeln über manche Weihnachtswunschkompensationsfake-Beiträge :-)

Edit:

ich glaube, wenn auf dem Bild groß Fake stehen würde, würden einige es trotzdem nicht merken (wollen)!
 
Zuletzt bearbeitet:
Wenn der Fermi tatsächlich wie der G80 wird dann wird selbst eure geliebte HD6er Reihe Probleme bekommen
 
Krautmaster schrieb:
-> heißt die Pro-Shaderleistung kann steigen oder fallen, je nach dem was geändert wurde.
Sie wird in jedem Fall fallen. Aber, durch mehr Shader und eventuell auch mehr Takt wird die Shaderleistung insgesamt natürlich steigen. Und die Effizienz, also dem Quotienten aus realen und theoretischen Peaks, womöglich ebenfalls. Zumindest, wenn wir über SP sprechen. Bei DP sieht es ja in der Tat etwas anders aus.
 
Zuletzt bearbeitet:
@Shurkien
Dann berichte doch mal über die Daten und Fakten der HD6000er - oh man. Merken es manche eigentlich noch :freak:

@iron_monkey
Ich rege mich noch nicht mal über die News auf - mehr über einige Menschen hier die alles, was man ihnen vorsetzt, ohne nachzudenken oder zu hinterfragen als Tatsachen ansieht - ohne sich nur einmal die Quelle angeguckt zu haben

Den Link zum rosa Elefanten habe ich leider noch nicht entdeckt, wird es aber bestimmt bald geben ;)

Ah schon gefunden.....
mu-41289eti1.jpg

:freak: Wäre somit bewiesen das es rosa Elefanten gibt
 
Zuletzt bearbeitet:
Spawn81 schrieb:
Nun ja, dauert nach dem Release der 380 / 360er ja nicht mehr allzu lange, bis ATI die 6000er Reihe bringt.


Zitat "While we expect AMD to introduce a refresh this Spring, we have learned the next generation is slated for launch in Q3 2010.

abwarten, man sieht ja momentan ganz gut, dass die einführung einer neuen architektur problematisch sein kann in bezug auf den angepeilten releasetermin.
 
Manche von euch scheinen nichtmal des durchdachten Lesens mächtig, da ich bereits sagte, das den Grafiken so wie sie sind _KEIN_ Glauben geschenkt werden darf, sondern das es eine Richtung angibt, in die es laufen wird.

Desweiteren sind meine Mathematik- und Physikkenntnisse über Jahre in einem Gymnasium und darüber hinaus auf einer technischen Universität erworben worden. Das bedeutet, das ich, laut der Meinung einiger, meine Professoren wegen beigebrachten sinnfreiem Stuss nochmal anmailen sollte um ein sachliches Gespräch über theoretische und praktisch erreichbare Leistung solcher Grafikadapter zu führen.

Mit Sicherheit wird es angenehm werden, sollte nVidia die Karten in absehbarer Zeit releasen, sich dann doch eher für die "Roten" zu entscheiden, schon allein weil u.U. die Fertigung des nächsten Grafikchips in meiner Heimatstadt passieren wird.

Und nochmal an alle die meinen mich hier irgendwie belehren zu müssen... Nachdenken erfordert etwas Gehirnschmalz. Da das Niveau hier aber sowieso zu Wünschen übrig lässt, immer weiter drauf auf die "Grünen" aber hinterher bitte nicht zu Mutti rennen und weinen. Meine Kaufentscheidung steht im Prinzip schon fest, deswegen nVidia : kommt aus dem A*sch, ich will ein 5870 CF System oder einen 5970 (oder wenn sie schnell sind einen Refresh)

MfG
 
Dieses absolute Highend interessiert mich weniger. Für mich wären eher die sparsameren 40nm Karten von Nvidia interessant, wenn sie z. B. die 5770 schlagen und dabei ähnlich viel, oder weniger verbrauchen.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben