News ATis Antwort auf Fermi: spezielle HD 5970?

Wenn die so umgesetzt wird ein absoluter Hammer zu einem Hammerpreis.

Allerdings wäre mir eine 5890 lieber gewesen, dank der Multigpu Probleme.

Mal sehen was der Fermi so ausrichten kann dagegen.
 
Spawn81 schrieb:
Ich bin mir recht sicher das ATI im Moment eigentlich nur den Launch der Fermi-GPUs abwartet um zu sehen, wieviel Leistung die Fermis hinblättern um dann noch irgendetwas "neues" zu bringen. Sei es eine 5890 als Single-GPU mit gesteigerten Taktfrequenzen oder eben eine 5970 wie hier gezeigt.
Und nebenbei sind die Ingenieure schon dabei die Architektur zu verbessern bzw. ich gehe mal schwer davon aus, dass es auch schon ein Team gibt, dass an der Nachfolgearchitektur sitzt. Und die haben jetzt nur nur aus der 4770 gelernt, sondern haben jede Menge laufende DX11-Karten in 40nm. Mit jedem Tag, der vergeht bis Fermi erscheint, wirds für NVidia schwerer den Rückstand aufzuholen. Und wenn Nvidia sagt, sie wollen vor allem auf GPGPU setzen, dann haben sie einen noch schwereren Stand, da AMD in der reinen, rohen, theoretischen Rechnleistung schon mit der 48XX vor GTX 28X rangierte, obwohl die Geforce mehr FPS in Spielen hatte. Die 5XXXer-Serie hat jetzt auch z.B. EDC, weiß aber nicht ob der Fermi das auch hat.

Pickebuh schrieb:
Nicht nur die MR sollen Geschichte sein. Nein auch die Effizienz wird Danke der super schnellen Kommunikation zwischen den Karten extrem gesteigert.
Im herkömmlichen Verfahren geht viel an Leistung verloren und der Wirkungsgrad liegt bei etwa 50-70 %.
Nun aber wird mittels eines 100GBit/s Interface eine direkte Kommunikation zwischen den einzelnen GPUs ermöglicht und sie somit perfekt zusammenarbeiten können.
NVIDIA hat sich dieses Verfahren extra patentieren lassen !

Das bedeutet. Wenn eine GPU mit einem Bild fertig ist werden blitzschnell die nötigen Daten der anderen GPU in den Speicher der ersten GPU geladen und dort weiter bearbeitet während die zweite GPU schon am 3 Bild rendert.
Somit liegt keine GPU brach und muss auf die andere warten bis sie fertig ist bzw. keine Leerlaufzeiten (Microruckler) existieren. Dadurch wird auch eine sehr gleichmäßige Bildausgabe erzeugt die der einer SingelGPU entspricht da ja keinerlei Verzögerung in den Frametimes entsteht.

Auch läßt sich mittels der direkten Kommunikation viele andere Formen des SLI verwirklichen.
Wenn ich das richtig im Kopf habe, gab es bei irgendeinem neuen Treiber von Nvidia plötzlich eine krasse Verbesserung der Mikroruckler. Und da können sie nichts an der Hardware gedreht haben. Werde danach suchen. Stay tuned...

/edit: Gefunden: https://www.computerbase.de/news/grafikkarten/neuer-geforce-treiber-gegen-mikroruckler.23709/ Bei Nvidia hat ein Treiber die Mikroruckler entschärft. Und ich würde bis auf den 10.3er oder 10.4er Treiber von AMD warten, die sollen ja Crossfire optimieren. Also immer ruhig mit den jungen Pferden.
 
Zuletzt bearbeitet:
ja ja immer warten... ich kaufe meine neue Karte auch "morgen". Ich glaube es erst, wenn es gemacht wurde. Ich bezweifle, dass ATI das schafft, zu wünschen wäre es allerdings. Man darf aber auch nicht vergessen, dass die meisten heutigen Spiele mit Auflösungen um 1920x1080 und normalen Treibereinstellungen kaum in den MR Bereich kommen. Die Anpassungen an neue Spiele dauern bei ATI meist sehr lang (siehe Anno 1404, ein Skandal!!!), bei 2 GPU erst recht.
 
GodCast schrieb:
Man darf aber auch nicht vergessen, dass die meisten heutigen Spiele mit Auflösungen um 1920x1080 und normalen Treibereinstellungen kaum in den MR Bereich kommen.

Aber die Frage ich auch warum ich eine 2GPU Karte nehmen soll, wenn ich 50fps brauche damit es so aussieht wie 30fps mit einer Single Karte. Wenn ich mit der 5970 so viele Frames habe, dass ich keine MR habe, würde auch die 5870 reichen. Somit halte ich diese Karten auch für überflüssig so lange es keine Lösung für das Problem gibt.

Fortatus schrieb:
Und nebenbei sind die Ingenieure schon dabei die Architektur zu verbessern bzw. ich gehe mal schwer davon aus, dass es auch schon ein Team gibt, dass an der Nachfolgearchitektur sitzt.

Richtig und wenn du bedenkst wie lange es schon her ist, dass die Jungs mit dem finalen Design von Cypress fertig sind, dann wird einem auch klar, das sie schon mächtig viel Zeit hatten. Die Designer sind wohl schon seit mind. 10 Monaten fertig. Bei der 4890 wurde schon gezeigt, dass sie wissen wie ein guter Refresh auszusehen hat und die Verwandschaft der Chips ist ja auch nicht zu leugnen. Da gibts also schon genügend Erfahrung.
 
@DvP

ich sage ja nichts anderes, solche Karten lohnen sich nur, wo eine GPU hoffnungslos verloren wäre.
 
für mich wären das auch gute Nachrichten... die ATI Karten bleiben damit teuer! :D:D:D

Toll? Niemand gewinnt damit was :rolleyes:
 
GodCast schrieb:
ich sage ja nichts anderes, solche Karten lohnen sich nur, wo eine GPU hoffnungslos verloren wäre.

Und in welchem Fall zeigt sich so ein Szenario in der Praxis?

Bzgl. planet3dnow: Mir gehts schon die ganze Zeit so und hab bereits im letzten September was in der Art geschrieben. Ich freue mich für ATI aber wenn es mit NV so düster aussieht, ist das auch verdammt schlecht für uns Kunden :-( Charlie hats schon so angekündigt:

"Fermi GF100 is six months late and slipping, can't be made profitably if it can be made at all, and initial production is going to be limited to essentially a PR stunt. Every card made will be sold at a huge loss, meaning that there will probably not be any more wafers run after the initial 9,000 risk wafers are used up. Those were paid for in advance, so there is little harm to finishing them for a stopgap PR stunt."

Quelle: http://www.semiaccurate.com/2010/02/17/nvidias-fermigtx480-broken-and-unfixable/
 
Zuletzt bearbeitet:
Das war leider zu erwarten - die Exklusiven Partner von Nvidia mussten irgendwie bei der Stange gehalten werden. Doch der Ärger wird jetzt erst anfangen für Nvidia. Sie müssen nun den richtigen Zeitrahmen für den Vorsprung definieren wann die anderen auch beliefert werden. Ist das zu lang gibt es Stress mit den einen, ist der Vorsprung zu kurz gibt es Ärger mit den anderen. Ich denke diese Taktik wird dazu führen dass keiner der Partner zufrieden sein wird und Nvidia viel Einfluss kosten - Einfluss der sich in er Vergangenheit sehr bezahlt gemacht hat.
 
@ GodCast

In Crysis Warhead macht die 5870 in 1900x1200 8xAA/16xAF 22fps und die 5970 32fps mit massivsten Mikrorucklern, die das Spiel wohl kaum flüssiger erscheinen lassen. Da ist die 5870 verloren und wo lohnt sich hier die 5970, so wie du es gemeint hast? Beides ist nicht wirklich spielbar. Also wo ist Zeigt sich das Szenario jetzt wirklich? Nenn mir doch bitte ein konkretes Beispiel wenn du schon die Behauptung aufstellst.

Zur Sicherheit, ich meinte diese Aussage:

GodCast schrieb:
ich sage ja nichts anderes, solche Karten lohnen sich nur, wo eine GPU hoffnungslos verloren wäre.
 
Zuletzt bearbeitet:
@Fortatus
ist ja nur der halbe artikel da drin, in nem englisch sprachigen steht nämlich noch drin, das die Second-tier Partner noch bis april warten müssen! das könnte uU ne ganze woche bedeuten! :eek:

ne mal im ernst ... vor april hat keiner von uns mit Second-tier Partnern gerechnet oder? -.^
 
@DvP

nochmal... ich sag ja nichts anderes wie du! die MGPU Karten würden sich nur lohnen wenn es keine MR gäbe.
 
@derschlambi

dann auch nochmal hier:

Nvidia Geforce GTX 470 1GB GDDR5 PCI-Express x16 - Retail

es gibt nur 1,5GB oder 3GB bei dem BUS ergo: FAKE!
 
GodCast schrieb:
für mich wären das auch gute Nachrichten... die ATI Karten bleiben damit teuer! :D:D:D

Toll? Niemand gewinnt damit was :rolleyes:

Doch, ich kann mich einen Monat länger darüber amüsieren, wie sich hier die Hardwarefreaks ärgern. Zugegebenermaßen nicht nett, aber mich betriffts nicht. Ich hatte ne Geforce4TI-4200, ne Radeon 9800Pro und jetzt ne 4670. Alle paar Jahre ne solide GK hat mir immer gereicht. Dieses ganze Gewhine, dass Nvidia so viel besser sei, wenn Fermi erstmal kommt, und sowieso jeder Unrecht hat, finde ich super :D
 
@ GodCast

Das hast du zwar bisher nicht gesagt, sondern das Gegenteil, dass sich dual GPU Karten eben lohnen wenn eine GPU zu schwach ist. So stimme ich natürlich auch zu. Leider gibts aktuell keine Daseinsberechtigung für Dual-GPU, außer um in Benchmarks gut auszusehen. Für die potentiellen Käufer kann ich nur hoffen, dass die Problematik überall so bekannt ist wie hier im Forum. Bezweifle das aber.

@ Fortatus

Dich betriffts nicht, wenn Grakas ev. nicht zu interessanten Preisen auf den Markt kommen würden? Keiner weiß wann und wie nVidia midrange DX11 Karten bringen will. Wenn für NV der Gamer Markt finanziell so uninteressant ist wie sie schon angemerkt haben und der GF100 wirklich so ein Verhau ist, wie man aktuell vermuten kann (bzgl. Kosteneffizienz für NV) vermuten viele bereits, dass sich NV aus dem Markt weiter zurückzieht. Das betrifft jeden der sich irgendwann mal wieder eine anständige Karte kaufen will zu sinnvollen Preisen, die es nur gibt wenn Konkurrenzdruck da ist.

Die Thematik hab ich auch oben schon kurz angeschnitten. Denke nicht, dass das für irgendwen von uns gut wäre, oder egal.
 
Zuletzt bearbeitet:
@Neo_Xsendra

Mag ja sein, dass der Händler nicht genau informiert war über die genauen Daten der Karten. Aber der Preis ist doch durchaus realistisch bei den Gerüchten, die über die Yieldraten bei der Fertigung der Fermi Chips im Umlauf sind ;)
 
Fortatus schrieb:
Wenn ich das richtig im Kopf habe, gab es bei irgendeinem neuen Treiber von Nvidia plötzlich eine krasse Verbesserung der Mikroruckler. Und da können sie nichts an der Hardware gedreht haben. Werde danach suchen. Stay tuned...

Es geht nicht um eine Verbesserung der Software, sondern dank der neuen Hardware des kommenden Fermi, um eine komplett anderer Technik die die Nachteile der Multi-GPU-Problematik nicht nur lindert sondern gänzlich beseitigt !


Das war NVIDIAs Bemühungen die MR zu bändigen aber nicht zu beseitigen.
Hier das Patent zum Nachlesen was NVIDIA eingereicht hat.
http://www.freepatentsonline.com/7616206.pdf

Mit dieser Änderung der Hardwareanbindung läßt sich ein perfektes Multi-GPU-System erstellen mit unzählichen Möglichkeiten.
Da nützen auch keine 10.3 oder 10.4er Catalysten da sie die Hardware nicht verändern können.
 
Zurück
Oben