ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Ailuros schrieb:
PS: auf Papier sieht GF100 nach 4 Tris/clock aus. NV gibt aber einen immer noch uebertriebenen Wert (IMO) von 3.2 Tris/clock an (siehe techreport Artikel). Ich persoenlich waere froh wenn das Ding unter allen Bedingungen zumindest 2 Tris/clock von sich spucken kann. Und das ist eben genau der Punkt wo man marketing herausfiltering sollte.

Ebenso behauptet NV dass die TMUs bis zu der 4x fachen Leistung von GT200 TMUs erreicht. Ihre Graph ueber Echtzeit-beispiele ist der Realitaet dann wohl am naehesten wie moeglich so wie es aussieht.

Etwas mehr zusammengefasst: ihre letzte GF100 Praesentation ist mit Absicht so irrefuehrend wie moeglich gestaltet was aber generell fuer solche Praesentationen normal ist. Es ist die eigentliche Aufgabe von PR/marketing die Realitaet so gut wie moeglich verdrehen zu koennen.
So oder so hat es NV wieder mal geschafft sehr gute Verwirrung zu stiften. Reale hw in PCs war wohl auf irgend eine Art reduziert. Was genau sie in whitepapers gesteckt oder sogar vermischt haben kann wohl keiner so leicht sagen. Das texturing state bucket Diagramm passt mir persoenlich erstmal nicht zu der gather4 Angabe.

Er hat auch verlauten lassen, dass der AF-Quality-Modus im GF100-Treiber vermutlich wieder mehr (zwar deaktivierbare) Optimierungen haben soll...
Sonst hab ich es schwarz auf weiss von einem engineer dass GF100 weniger TA/TF (und ja er erwaehnte beide) als GT200 insgesamt hat. Die Effizienz soll aber nach ihm bis zu 4x Mal so hoch sein. Da sie aber fast 3.3x im PR Quark mit gather4 gegen 5870 behaupten macht mir dieses 4x im Vergleich zu GT200 keinen besonderen Eindruck.

Und damit ich wieder nett viel zum aufraeumen habe: der GF100 Treiber hat mehr AF settings als heutige GPUs. Mehr sag ich noch nicht sonst wird es zu langweilig.
AMD's Schaetzungen fuer GF100 sind wohl um einiges zuverlaessiger als NVIDIA's.
stimmt anscheinend der von AMD original angegebene 280W TDP fuer die 380. Maximaler Lastverbrauch soll bis zu 240W reichen und ergo kann es auf keinen Fall weniger als 280 TDP sein.

Meine persoenliche Schaetzung fuer den groesser als original erwarteter Stromverbrauch duerfte sein weil erstmal die Mehrzahl der vorigen core clock Einheiten jetzt auf 1/2 hot clock getaktet sind (ausser ROPs/L2 cache), wobei die letzte tatsaechlich sogar 725MHz entsprechen koennte. Falls ja ganz grob vereinfacht: Zielfrequenz fast erreicht; Ziel-Stromverbrauch im Vergleich zum ersten eben nicht
Kann beim besten Willen kein "Weglassen von negativen Gerüchten" erkennen, Sorry. Und das "Promoten von positiven Gerüchten" musst du mir auch einmal zeigen - ausser du erkennst das blosse Erwähnen eben selbiger bereits als solches...
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

GreatEvil schrieb:
Wobei mir hier nicht klar ist, warum ich in ne Charlie Diskussion gezogen werde.
Stimmt eigentlich - die einzigen die hier immer wieder von Charlie reden sind Awsomesauce und y33 - ansonsten findet man die letzten Seiten niemanden der Charlie erwähnt hätte. Aber Awsome promotet ihn ja in seiner Signatur :D
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Wo hat NV gelogen? Dass Fermi-Produkte 2009 erscheinen? Die Teslas wurden 2009 gelauncht ... aber das Thema hatten wir schon.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Dan hätten aber auch schon genug andere Firmen / Spielehersteller gelogen bezüglich dem Release Termin und lieber lassen sie sich Zeit und es ist dan alles gleich verfügbar und funktionirt..

Nicht so wie bei ATI.. wo ja einiges nicht ganz so funkt. ...


Edit y33H@ war bezüglich dem Thema ja etwas schneller...
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

da fällt mir spontan die sperrholz attrappe des Fermi ein^^


gruß
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Fl_o schrieb:
...lieber lassen sie sich Zeit und es ist dan alles gleich verfügbar und funktionirt..

Nicht so wie bei ATI.. wo ja einiges nicht ganz so funkt...
Was war nicht verfügbar bzw. funktioniert nicht so ganz? So haltlose Aussagen kann man sich eigentlich sparen.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Fermi-based Geforce GTX 480 to debut at Cebit
http://www.fudzilla.com/content/view/17586/1/

Jetzt glaubt auch FUD das die riesen Fermi chips knapp sein werden. Auch wenn NV was andres sagt. Somit werden wohl die Händler wieder richtig abzocken können.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

HD5k-Launch-Verfügbarkeit sollte erreichbar sein;) Was mir mehr Sorgen macht, ist, dass y33h@ jetzt privat anscheinend doch zu einer HD5k greifen will. Ob das jetzt etwas über GTX470 und GTX480 kann ich aber nicht beurteilen, aber y33h@ war schon immer Fan von guter Bildqualität. Könnte also bedeuten, dass Nvidia die Filterqualität des AF wieder heruntergeschraubt hat (Quality mit mehr Optimierungen). Vielleicht ist die GTX260 aber auch einfach nur zu lahm geworden:D(kann davon ein Lied singen, aber ATi ist nichts für mich. AA in UE3 und anderen Engines nur über Exe-Renaming, was bei Steam-gekoppelten Titeln nicht funktioniert - und davon habe ich einige. Auf nHancer kann und will ich nicht mehr verzichten. Deswegen ging die vor einer Woche gekaufte HD5870 wieder zurück). Alles basiert natürlich darauf, ob sie bereits GF100-Testsamples erhalten haben...

Ich setz mal Tee auf...

EDIT: Halber GF100 soll jetzt schon ziemlich sicher sein, wenn sogar AMD damit auffährt:
Ailuros schrieb:
Ich dachte zuerst dass AMD herumulkt als sie den halben GF100 erwaehnten. Als ich aber von neliz die AIB Daten sah und sich das GF100 P Vantage Resultat mit der landing zone die NV dafuer angelegt hatte deckt (~22k), war das Ganze ausserhalb vom einfachen Zufall fuer mich.

Auf jeden Fall kommt das Ding was immer es genau ist nicht gleichzeitig mit 480/470 an sondern etwas spaeter. Die area womoeglich zwischen 350-380mm2.

@Schinzie
Dummies auf einer Messe zu zeigen, ist Gang und Gäbe. Dass dieser aber anscheinend so schlecht getarnt war, zeugt schon von einer gewissen Dreistigkeit, zumal auf einer solchen Messe (SC) doch sicher sehr viele Experten anwesend sind, die so was sehr schnell erkennen.
bsn* schrieb:
Ask around and you will find that 99% of products shown to the press and intended for them to handle or even be displayed are simply dummies with either dead components or nothing under the "hood" at all. After all these products are going to be shipped, handled and [more likely than not], killed by accidental ESD [electrostatic discharge].
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Dass dieser aber anscheinend so schlecht getarnt war, zeugt schon von einer gewissen Dreistigkeit, zumal auf einer solchen Messe (SC) doch sicher sehr viele Experten anwesend sind, die so was sehr schnell erkennen.
die experten wissen, dass als vorzeige objekt meist dummies oder designstudien zum einsatz kommen. das dreiste daran ist schlicht, dass ein gewisser ceo auf nachfrage eine schwammige antwort im sinne von "es wurde auf der messe ein fermi gezeigt" gebracht hat, was sich ja nicht unbedingt auf den dummie bezog und falls doch, dreist gelogen wäre... wobei der dummy schon ziemlich lieblos zusammengeschustert war.^^ so als hätten die den echten dummy vergessen und schnell hinter der bühne noch einen zusammengeschustert :D

viel mehr als das aussehn der karte interressiert mich aber das, was die karte zu leisten im stande ist. so eine verspätung ist mir bisher nur einmal bekannt und das war die radeon 2900xt. und das ist wirklich kein gutes omen für den fermi ;)
die parallelen sind ja erschreckend:
- monate lange verspätung
- als "über-gpu" erwartet, die ihren gegenpart der konkurrenz locker in die tasche stecken soll
- umbenennung vor release
...
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

so eine verspätung ist mir bisher nur einmal bekannt und das war die radeon 2900xt. und das ist wirklich kein gutes omen für den fermi

Die Frage ist: wie aussagekräftig ist dieses "Omen" für den Fermi? Im Vorfeld war das Leistungspotential der HD2900XT aufgrund der vollständig neuen Architektur überhaupt nicht konkret abschätzbar, beim fermi sieht das doch aufgrund weitestgehend feststehender Daten und deren bekannten Relationen zur Vorgänger-Karte wesentlich anders aus. Klar gibt es da noch großen Spielraum hinsichtlich des Taktes. Insofern kann man ja gern kritisieren, dass der Kram ganz schön spät kommt, aber unken über das Endprodukt muss man deshalb ja nicht unbedingt.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@ AwesomeSauce

Die maximale AF-BQ bleibt laut NV identisch zu GT200, ergo besser als Evergreen.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@rumpel01: ich unke nicht, ich hab nur die parallelen festgestellt.^^ alle erwarten hier den absoluten überflieger, aber imho werden die meisten wohl enttäuscht werden. 100% mehrleistung als eine gtx285, schneller als eine 5970... und das bei einer gpu, die primär nichtmal zum spielen entwickelt wurde, sondern für den gpgpu einsatz. imho ziemlich utopisch. ich gebe keine wertung über die karte ab. die parallelen zur 2900xt ziehe ich bewusst, um die leute mal wieder zurück auf den boden der tatsachen zu holen ;)
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Woher stammt die Aussage / das Gerücht, Fermi sei mit dem Fokus auf GGPU entwickelt worden? Gibt's da eine offizielle NV-Ansage?
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

die massiven verbesserungen auf dem gebiet legen den schluss wohl sehr nahe. oder kennst du einen nutzen von double-precision leistung in einem spiel? ;)
ok der spiele-fermi wird die dp-leistung nicht haben, aber sicherlich wurden keine zwei völlig unterschiedlichen fermis entwickelt. imho dürfte der spiele-fermi ein ableger des tesla-fermi sein, wobei der spiele-fermi über deutlich höheren takt (und verbrauch) verfügen wird.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Ich nehme mal an das ist einfach eine Herleitung von dem Fakt, dass Fermi vieles einführt, das in Spielen keine Vorteile bringt - Double Precision in einem Takt bspw.

P.S.
Greetz Lübke für die schnellere Antwort. :schluck:
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Die Entscheidung, den Computing-Deep-Dive vor dem Graphics-Deep-Dive zu veröffentlichen, hat dazu den Rest getan - obwohl dies wohl eher mit den geplanten Exhibitions (GTC, CES) zu tun hat.

Dennoch sehe ich den Schwerpunkt der GF100-Architektur eher beim (Rasterizing-)Rendering (4 Raster Engines, 4 Tris/clock, 16 Polym. Engines).
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Lübke schrieb:
die parallelen zur 2900xt ziehe ich bewusst, um die leute mal wieder zurück auf den boden der tatsachen zu holen ;)

Nur sagen die Parallelen einfach nix.^^ Der Vergleich entfernt doch überhaupt erst von der Diskussion über die Tatsachen, denn der große Unterschied ist ja, dass die Rohdaten von Fermi bekannt und die Leistungsfähigkeit in gewissem Rahmen einschätzbar sind. Dass Leute spekulieren und dabei sich bestimmte Dinge wünschen, liegt doch in der Natur der Sache. Hier in diesem Thread sehe ich übrigens wenige, die Fermi für die größte Offenbarung halten ...
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

bei der HD2900XT waren die Rohdaten auch lange bekannt.
bedingt durch das 512bit SI und den restlichen Daten gingen alle von einer Brachialen Leistung aus.
und das bis zum letzten tag vor der Veröffentlichung.
Davor gab es auch den ein oder anderen ATI Benchmark wo man überlegen war.

es ist sehr viel Wahrscheinlicher das sich Geschichte Wiederholt, als dass sie neu geschrieben wird ;)
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

R600 war halt auch ein gefraggtes Design, ohne Frag taugt R600 ja (siehe RV770), abgesehen von der TMU-Anzahl.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Äh, nein. Der Punkt ist doch, dass Vorgängerkarten wie die x1950xtx überhaupt gar keinen konkreten Anhaltspunkt dafür liefern konnten, wie gut die 2900xt sein sollte, denn die Architekturen waren grundverschieden, und das ist hier nun anders. ;)

Man sehe sich mal diese Auflistung an: https://www.computerbase.de/2007-05/test-ati-radeon-hd-2900-xt/2/#abschnitt_technische_daten

Wenn man jetzt die Relationen zu Fermi zu G200 sieht, dürfte klar sein, dass die Parallelisierung mit HD29XT eigentlich gar nichts bringt, es sind grundverschiedene Ausgangspositionen, mit einer Ausnahme: das Ding kommt spät^^.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben