News GTX 480 mit 512 Kernen und 2x 8-Pin-Strom

Lübke schrieb:
das sind in erster linie gpgpu-features und kleinigkeiten wie mehr aa-modi, mehr tesselationseinheiten, physx, etc. sowas kostet halt.

Hallo,
was genau bietet die Fermi in GPGPU mehr als ein Cypress? Mehr Leistung kann es schon mal nicht sein, denn sonst müsste die GTX480 in Milkyway@home (DP) oder Collatz Conjecture (SP) führen. Das sieht aber nicht ansatzweise so aus... Einzig in Folding@Home führt sie klar, was aber eher daran liegt, dass Stanford ein Cuda Center of Excellence ist (und damit ordentlich Kohle von NV bekommt).

Zur HD4870/4890 sei noch erwähnt, dass beide Karten den Grafikspeicher nicht heruntertakten (auch nicht mit aktuellen Treibern, auch wenn das hier schon behauptet wurde; das ist im BIOS so einprogrammiert). Dadurch ist der Idle-Verbrauch der Referenzkarten sehr schlecht. Legt man nachträglich Hand am Speichertakt an, spart mal locker 30W ein (bei meiner Sapphire 4890 Referenzdesign waren es ca. 40W). Das war ein klarer Mangel am Referenzdesign, der sich auch über fast alle Karten der Boardpartner hinweg zog. Lediglich ein Partner hat eine Karte angekündigt, die das Problem nicht haben sollte (war glaube ich Powercolor, ob die überhaupt im Markt erhältlich war, weiß ich aber nicht).

Bezüglich der 2 PCIe 8-Pin: Die aktuelle GTX480 braucht schon teilweise über 300W (siehe das hier so gerne zitierte HT4U). Entsprechend kann man wohl davon ausgehen, dass die 512er wohl kaum sparsamer sein wird (denn einen neuen Fertigungsprozess gibt's nun mal nicht). Insofern sind die 2 Stecker sicherlich gerechtfertigt und in Extremsituationen auch nötig.
 
Lübke schrieb:
um das ganze mal nicht ausufern zu lassen: können wir die diskussion bitte auf ferni und cypress beschränken? ältere generationen sind nicht teil der news. genaugenommen nichtmal der cypress, aber seis drum.

aktuell hat ati mit dem cypress ein besseres leistungs/watt-verhältnis, allerdings ist der chip auch deutlich schlanker gehalten und verzichtet auf features, die einen relativ kleinen kundenkreis ansprechen, wo nvidia aber dennoch besagte features in den chip verbaut hat.
das sind in erster linie gpgpu-features und kleinigkeiten wie mehr aa-modi, mehr tesselationseinheiten, physx, etc. sowas kostet halt.

Physx hat nichts mit dem Chipdesign zu tuen aber was ist mit den AA modi gemeint? Das SSAA für DX10 und 11, bei dem man die DX10/11 Spezifikationen bricht und sie deshalb warscheinlich nie in die offiziellen Treiber einfließen werden? Ist es dann nicht auch nur ein Software Feature?
Von den zusätzlichen Gpgpu Features bleibt beim Chipdesign auch nicht viel übrig oder wurden bei der Desktop Version so beschnitten das man letztenendes wieder hinter den Cypress zurückfällt. Letztenendes bleibt abgesehen von den zusätzlichen Tesselationeinheiten nicht mehr viel übrig, denn die meisten Vorteile sind lediglich Softwaregeschichten.
 
@Oberst08: doch es ist mehr rechenleistung. warum sollte man sonst bei aktuellen supercomputern wie dem nebulae (nr zwei der weltschnellsten supercomputer) auf stromfressende fermis setzen?

klar kann man auch cherypicking betreiben und einzelne tests raussuchen, die nur einem hersteller liegen so wie du es eben gemacht hast:

Bereits die kleinste NVIDIA Karte (GT220) erreicht über 50% der Leistung einer HD4890, die GTS250 überflügelt die HD5850 und die GTX275 ist mehr als doppelt so schnell wie eine HD4890 (+143%).
http://www.planet3dnow.de/vbulletin/showthread.php?t=375718&garpg=16

aber das bringt uns wohl kaum weiter, oder?

wer ein bisschen ahnung hat, weiß dass die unterschiede nicht von der rechenleistung sondern den anwendungen abhängen. die tatsächliche rechenleistung lässt sich nur in anwendungen vergleichen, die auf beide systeme zugeschnitten sind. und da gibt es derzeit nicht viel. wenn du aber die vorteile von beiden vergleichen willst, kannste hier mal lesen:
http://www.hwmag.de/grafikkarten/gpgpu-vergleich-ati-und-nvidia
nicht mehr ganz aktuell aber schön übersichtlich. und bezüglich der tflops solltest du dich mit der shaderarchitektur auseinandersetzen. nicht dass du den fehler wie viele andere machst und einfach 5d mit 1d vergleichst. 5d ist nämlich nicht fünf mal 1d, wie viele glauben.

@wadenbeisser: mit den aa-modi meinte ich sowas hier:
http://www.geeks3d.com/20100611/dir...ity-levels-differences-between-dx11-hardware/
ati spart dort, wo es eben kaum einen stört. und das muss nvidia erst noch lernen. schön dass sie ihren chip mit so vielen extras ausstatten, aber die leute wollen in erster linie kleine sparsame karten mit gleichzeitig möglichst hoher rohleistung. und das bietet cypress im gegensatz zu fermi.
 
Zuletzt bearbeitet:
Raptor2063 schrieb:
@ H1deAndSeek, Vapor-X ist von Sapphire ;)
Ja und die "Cyclone" Karten sind von MSi, ich wollte nur die beiden Kartennamen(bzw. nur Name der Kühlung) der Boardpartner nennen. Also nicht Vapor-X als eigener Boardpartner. Sollte aber eig. leicht erkennlich sein, wenn man gewusst hätte, das Cyclonekarten von MSi sind. ;)


Lilz schrieb:
Die AMP! sind nicht sehr gelungen? Es gibt wohl keine bessere GTX 470, als die Zotac AMP!, welche ich einer HD5870 jederzeit vorziehen wuerde.

Und keiner behauptet das man alle paar Monate die neuste und Leistungsstaerkste Karte kaufen muesse. Aber mal anders gefragt, wer wuerde sich jetzt noch ne laermende 4890er holen?

1. Hm, würdest du dir lieber eine "GTX460 Vapor-X" oder eine "GTX460 AMP!" Edition kaufen?

2. Schon klar, aber das ich gar nicht wüsste, was ich mit einer GTX460 anfangen sollte, zielt eher darauf ab, dass außer Enthusiasten mit mehr als 2 Bildschirmen es sich für keinen lohnt eine solche Karte zu verbauen.
Dann lieber ne GTX460/5850 und in 2 Jahren eine neue.
Der Preisverfall ist bei technischen Geräten einfach zu enorm, um High-End zu kaufen ;)
 
Zuletzt bearbeitet:
Lübke schrieb:
@Oberst08: doch es ist mehr rechenleistung. warum sollte man sonst bei aktuellen supercomputern wie dem nebulae (nr zwei der weltschnellsten supercomputer) auf stromfressende fermis setzen?

Hallo,
die Tesla ist in GPGPU auch bei selbem Takt 4 mal schneller als die GTX4xx (da bei DP nicht beschnitten) und bietet ECC Speicher. Somit ist die für Serveranwendungen ideal geeignet.

ATI hat auch sehr lange geschlafen, hat die Firestream Version der HD5 erst vor kurzem vorgestellt (NVidia agiert hier einfach flinker und aggressiver). Insofern hatten die Serverhersteller bisher ja keine Wahl (wenn nur NV anbietet, kann man schlecht ATI verbauen). Aber eine Tesla wird sich wohl keiner in seinen Privatrechner einbauen, entsprechend kann man hier nicht auf den Privatmarkt Rückschlüsse ziehen (weil die GTX4 eben genau hier deutlich beschnitten ist).
Viele denken, dass CUDA zwangsweise schneller als ATIs Stream ist (zumindest lesen sich etliche Kommentare so), was ganz klar falsch ist (belegen auch Anwendungen von 3. Anbietern wie z.B. Elcomsofts Security-Software oder auch Cyberlinks MediaShow Espresso). Hier noch ein paar Folding-Werte der 9300 im Vergleich zum 790GX (40% schneller als der 785G bei XBitlabs). In Folding ist der 9300 4x so schneller als der 790GX, der bereits 40% schneller als der 785G ist (die 9300 wäre als 6x so schnell als der 785G in F@H). In MediaShow hingegen ist sie langsamer. Entsprechend ist F@H hier klar auf die NVidia Hardware optimiert (oder noch schlimmer).

Schön auch dein Link zu P3DNow. Du verlinkst natürlich nur Folding, die 3 anderen GPGPU Anwendungen, die dort getestet wurden, laufen auf ATI Hardware deutlich schneller...so viel zu deinem Vorwurf von "cherypicking".
Im Gegensatz zu dir habe ich nämlich erwähnt, dass F@H auf NVidia Karten deutlich schneller läuft.
Und wenn 75% der Anwendungen auf ATI schneller laufen, dann kann es mit der gewaltigen Leistung von CUDA nicht unbedingt so weit her sein.

Sicher macht der Code viel aus, aber z.B. bei Milkyway stammt der Client von Privatleuten (der ATI Client ist von Gipsel aus dem P3DNow Forum programmiert). Insofern hatte ATI und NV die selben Voraussetzungen. Der Stream SDK kann also gar nicht so schlecht sein, wie es ihm von NV-Usern gerne nachgesagt wird bzw. CUDA ist wohl doch nicht so der Über-SDK.
Einen brauchbaren Vergleich wird es sowieso erst geben, wenn es viele OpenCL oder DirectCompute Anwendungen gibt. Aber dass NVidia in GPGPU klar im Vorteil ist (was hier auch wieder behauptet wurde), stimmt meiner Meinung nach überhaupt nicht (was ich auch mit Benchmarks belegen konnte).
So, genug OffTopic.
 
ich gebs auf mit manchen kann man nicht sachlich quatschen, nein ATI hat hier immer und überall immer das beste Produkt... schön wenn ihr zufrieden seid nur kann man ruhig mal zugeben, dass auch andere Firmen was gutes bauen (z.B. GTX460). Aber nun schluß mit den alten Kamellen, zurück zu Fermi!!!

naja NV hat die neuen Quadros jetzt auch relativ spät veröffentlicht, lieferbar sind sie soweit ich weiß noch nicht, ich warte in der Arbeit auch auf ne neue Quadro. Also hier hängt sowohl ATI als auch NV gleich weit hinterher, nur im pro Bereich hat NV schnell Fermilösungen verfügbar gehabt.

Ich mach mir auch keine Hoffnungen, dass GTX485 auf Basis des GF100 stromsparender wird, wie auch? Vielleicht kann man noch optimieren, vielleicht wirds auch nur eine GTX480² wie damals bei der GTX260 mit 192 und 216 Shadern und es kommt wirklich ein richtiger Refresh "GF100b" und damit eine echte GTX485 die wirklich besser ist, mehr kann, effektiver ist... aber das gehört wohl eher in die Gerüchteküche. So klingts wirklich nur nach GTX480², alles gleich bis auf die 512 Shadereinheiten, vielleicht noch die eine oder andere kleine Optimierung... aber nichts Weltbewegendes.
 
Oberst08 schrieb:
ATI hat auch sehr lange geschlafen, hat die Firestream Version der HD5 erst vor kurzem vorgestellt (NVidia agiert hier einfach flinker und aggressiver). Insofern hatten die Serverhersteller bisher ja keine Wahl (wenn nur NV anbietet, kann man schlecht ATI verbauen).
Kann man so nicht sagen. Die erste Grafikkarte für professionelle Einsatzzwecke auf RV8xx-Basis war die FirePro V8800. Und die gibt es schon länger. Auch wenn die FireStream Serie sicherlich spezifischer auf GPGPU ausgelegt ist.
 
H1deAndSeek schrieb:
1. Hm, würdest du dir lieber eine "GTX460 Vapor-X" oder eine "GTX460 AMP!" Edition kaufen?

2. Schon klar, aber das ich gar nicht wüsste, was ich mit einer GTX460 anfangen sollte, zielt eher darauf ab, dass außer Enthusiasten mit mehr als 2 Bildschirmen es sich für keinen lohnt eine solche Karte zu verbauen.
Dann lieber ne GTX460/5850 und in 2 Jahren eine neue.
Der Preisverfall ist bei technischen Geräten einfach zu enorm, um High-End zu kaufen ;)

kA wie du nun auf die 460 kommst, versteh auch nicht was du mit GTX460 Vapor-X meinst, wirds ja nie geben und die GTX 460 AMP! gibts meines Wissens auch noch nicht - also keine Angaben zur Kuehlung, zum Board, zu den Taktraten oder zu den Preisen...

zu 2. bringst du glaub ich ein wenig durcheinander :) denke du meinst die 480.. kA
aber selbst hast du ja auch ne 4890.. welche wohl bis auf die X2 die teuerste HD4k war oder? Und die Enthusiasten-Karte schlechthin(von Ati, versteht sich).
 
Zuletzt bearbeitet:
ja die dp-eigenschaften wurden bei der geforce auf 1/4 reduziert, weshalb die tesla speziell bei dp-berechnungen so viel schneller ist. sp nehemen sich beide karten nichts. das ändert aber nichts daran, dass der gf100 über diese hardware verfügt. das und nichts anderes habe ich gesagt. wie die einzelnen endprodukte, die aus dem chip gefertigt werden, die physikalisch vorhandene hardware nutzen können, steht auf einem anderen blatt. aber hier wird die effiziens von fermi in relation zu cypress gestellt.
falls du beispiele für den professionellen einsatz handelsüblicher karten suchst, sieh dir mal fastra I und fastra II an. da kommen 9800gx2 bzw gtx295 zum einsatz. wäre ati so überlegen wie du behauptest, hätte man wohl auf 3870x2 und 4870x2 gesetzt, meinst du nicht?

und bezüglich der vergleichbarkeit von vorgefertigten programmen gabs hier einen guten beitrag:
https://www.computerbase.de/forum/t...inem-pcb-von-zotac.768851/page-3#post-8252979

im supercomputerbereich werden aber eigene, hochspezialisierte anwendungen geschrieben. da ist in erster linie die hardware von belang. und insbesondere das leistung/watt-verhältnis, da hier tausende von chips zum einsatz kommen und versorgt und gekühlt werden müssen.

der gf100 wurde primär für den gpgpu-bereich entwickelt und wurde auch zur abdeckung des spiele-highendsegments verwendet, der cypress wurde primär für den spielemarkt entwickelt und ist dementsprechend schlanker ausgefallen. der cypress ist wohl am ehesten mit dem gf104 zu vergleichen. man darf wohl auf den vergleich des vollausbau des gf104 mit 384 shadern und der 5870 gespannt sein. ich erwarte die 5870 zwar leicht vorne, aber der "spielefermi" ist in sachen leistung und verbrauch offenbar nah am cypress dran. daran erkennt man schon, dass die ganzen extras die gf100 von gf104/cypress unterscheiden, nicht unerheblich für chipgröße und verbrauch sein müssen.
 
Lübke schrieb:
sp nehemen sich beide karten nichts.

Natürlich nehmen sich die Karten hier was.
Deine Rosinenpickerei mit Folding@Home war ziemlich dreist, wenn im restlichen Test ATI bei einfacher Genauigkeit deutlich vorne war.
Vorteil für Nvidia: Cuda
 
Deine Rosinenpickerei mit Folding@Home war ziemlich dreist,
das sollte sie auch sein, um den unsinn von rosinenpickerei zu verdeutlichen.
lies meine beiträge doch bitte mal komplett:
klar kann man auch cherypicking betreiben und einzelne tests raussuchen, die nur einem hersteller liegen so wie du es eben gemacht hast:

Zitat:
Bereits die kleinste NVIDIA Karte (GT220) erreicht über 50% der Leistung einer HD4890, die GTS250 überflügelt die HD5850 und die GTX275 ist mehr als doppelt so schnell wie eine HD4890 (+143%).
http://www.planet3dnow.de/vbulletin/...75718&garpg=16

aber das bringt uns wohl kaum weiter, oder?

das war kein beleg für die leistung von fermi (der in dem zitat nichtmal enthalten ist) sondern für die sinnlosigkeit einseitige unausgewogene tests als "beweise" anzuführen.
 
Zuletzt bearbeitet:
Artikel-Update: Einen Tag später hat Expreview unsere Wünsche erhört und liefert zwei Benchmarks, die den Vergleich vom Vorgänger zum Nachfolger zeigen. Demnach bringt die 512-Kern-Variante in 3DMark Vantage 550 Punkte mehr, was ziemlich genau fünf Prozent Leistungszuwachs entspricht. In Crysis Warhead werden statt bisher 32,96 FPS mit dem neuen Modell 34,72 Bilder pro Sekunde erreicht, was ebenfalls fünf Prozent Zuwachs entspricht.

[Bilder: Zum Betrachten bitte den Artikel aufrufen.]
 
Hmm 5 Prozent mehr aber was hätte man auch erwarten können bin aber aufjedenfall gespannt wer sich als erstes meldet mit seiner 480 und sagt er brauchen unbedingt die "Neue" :)

Aber eigentlich ist die ja auch okay so 80 - 90 Grad wird die schon zusammenbekommen mit schön verringerter Garantie seitens Nvidia wenn dann in ca. 18 Monaten wegen den Ausfall der Chips durch die Hohe Temperatur belastung die Leute stöhnen kann Nvidia es schön auf die Vertriebspartner schieben (aber vielleicht sehe ich alles ein bisschen zu Düster)
 
Zwei 8 Pin Stromanschlüsse. Das sagt ja wohl alles. Da versucht Nvidia wohl einen neuen Rekord aufzustellen. "Wie viel Strom kann man mit einer GPU verbraten?" diese Frage haben sich wohl die Leute bei Nvidia gestellt. Vielleicht wird es mit dieser GPU ja möglich ein Ei zu braten.
Ich muss sagen, Nvidia enttäuscht mich sehr. Man könnte meinen dass die Entwickler mehr auf Energieeffizienz setzen. Aber nein, statt dessen versucht man die schnellste Karte auf den Markt zu bringen, koste es was es wolle. Dass der Stromverbrauch mittlerweile auch ein Verkaufsargument ist, hat Nvidia wohl noch nicht kapiert. Ich hätte jedenfalls mehr von Nvidia erwartet, als nur ein riesiges stromvernichtendes GPU-Monster.
 
fragt sich halt, ob die verwendeten taktraten final sind und obs überhaupt ne gtx485 wird oder wie bei der gtx260 (von 192 auf 216 shader) einfach als gtx480 weiterverkauft wird...
denke mal, wenns nie gtx485 wird, dann wird sich wohl noch etwas mehr als nur die shaderzahl ändern (verbrauch und/oder taktraten), ansonsten wirds ne gtx480² oder so werden...
 
Hm, ich frage mich nun, ob das nun die GTX 485 sein soll oder bloss die neue "Revision" der GTX 480. Bei 5 Prozent Leistungszuwachs dürfte es sich hierbei wohl um die GTX 480^2 handeln. Ähnlich wie schon bei der GTX 260.

edit @Lübke
zwei Dumme, ein Gedanke :p
 
Zurück
Oben