Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News ATis Antwort auf Fermi: spezielle HD 5970?
- Ersteller Volker
- Erstellt am
- Zur News: ATis Antwort auf Fermi: spezielle HD 5970?
Und nebenbei sind die Ingenieure schon dabei die Architektur zu verbessern bzw. ich gehe mal schwer davon aus, dass es auch schon ein Team gibt, dass an der Nachfolgearchitektur sitzt. Und die haben jetzt nur nur aus der 4770 gelernt, sondern haben jede Menge laufende DX11-Karten in 40nm. Mit jedem Tag, der vergeht bis Fermi erscheint, wirds für NVidia schwerer den Rückstand aufzuholen. Und wenn Nvidia sagt, sie wollen vor allem auf GPGPU setzen, dann haben sie einen noch schwereren Stand, da AMD in der reinen, rohen, theoretischen Rechnleistung schon mit der 48XX vor GTX 28X rangierte, obwohl die Geforce mehr FPS in Spielen hatte. Die 5XXXer-Serie hat jetzt auch z.B. EDC, weiß aber nicht ob der Fermi das auch hat.Spawn81 schrieb:Ich bin mir recht sicher das ATI im Moment eigentlich nur den Launch der Fermi-GPUs abwartet um zu sehen, wieviel Leistung die Fermis hinblättern um dann noch irgendetwas "neues" zu bringen. Sei es eine 5890 als Single-GPU mit gesteigerten Taktfrequenzen oder eben eine 5970 wie hier gezeigt.
Wenn ich das richtig im Kopf habe, gab es bei irgendeinem neuen Treiber von Nvidia plötzlich eine krasse Verbesserung der Mikroruckler. Und da können sie nichts an der Hardware gedreht haben. Werde danach suchen. Stay tuned...Pickebuh schrieb:Nicht nur die MR sollen Geschichte sein. Nein auch die Effizienz wird Danke der super schnellen Kommunikation zwischen den Karten extrem gesteigert.
Im herkömmlichen Verfahren geht viel an Leistung verloren und der Wirkungsgrad liegt bei etwa 50-70 %.
Nun aber wird mittels eines 100GBit/s Interface eine direkte Kommunikation zwischen den einzelnen GPUs ermöglicht und sie somit perfekt zusammenarbeiten können.
NVIDIA hat sich dieses Verfahren extra patentieren lassen !
Das bedeutet. Wenn eine GPU mit einem Bild fertig ist werden blitzschnell die nötigen Daten der anderen GPU in den Speicher der ersten GPU geladen und dort weiter bearbeitet während die zweite GPU schon am 3 Bild rendert.
Somit liegt keine GPU brach und muss auf die andere warten bis sie fertig ist bzw. keine Leerlaufzeiten (Microruckler) existieren. Dadurch wird auch eine sehr gleichmäßige Bildausgabe erzeugt die der einer SingelGPU entspricht da ja keinerlei Verzögerung in den Frametimes entsteht.
Auch läßt sich mittels der direkten Kommunikation viele andere Formen des SLI verwirklichen.
/edit: Gefunden: https://www.computerbase.de/news/grafikkarten/neuer-geforce-treiber-gegen-mikroruckler.23709/ Bei Nvidia hat ein Treiber die Mikroruckler entschärft. Und ich würde bis auf den 10.3er oder 10.4er Treiber von AMD warten, die sollen ja Crossfire optimieren. Also immer ruhig mit den jungen Pferden.
Zuletzt bearbeitet:
GodCast
Banned
- Registriert
- Apr. 2009
- Beiträge
- 1.540
ja ja immer warten... ich kaufe meine neue Karte auch "morgen". Ich glaube es erst, wenn es gemacht wurde. Ich bezweifle, dass ATI das schafft, zu wünschen wäre es allerdings. Man darf aber auch nicht vergessen, dass die meisten heutigen Spiele mit Auflösungen um 1920x1080 und normalen Treibereinstellungen kaum in den MR Bereich kommen. Die Anpassungen an neue Spiele dauern bei ATI meist sehr lang (siehe Anno 1404, ein Skandal!!!), bei 2 GPU erst recht.
DvP
Admiral
- Registriert
- März 2001
- Beiträge
- 9.579
GodCast schrieb:Man darf aber auch nicht vergessen, dass die meisten heutigen Spiele mit Auflösungen um 1920x1080 und normalen Treibereinstellungen kaum in den MR Bereich kommen.
Aber die Frage ich auch warum ich eine 2GPU Karte nehmen soll, wenn ich 50fps brauche damit es so aussieht wie 30fps mit einer Single Karte. Wenn ich mit der 5970 so viele Frames habe, dass ich keine MR habe, würde auch die 5870 reichen. Somit halte ich diese Karten auch für überflüssig so lange es keine Lösung für das Problem gibt.
Fortatus schrieb:Und nebenbei sind die Ingenieure schon dabei die Architektur zu verbessern bzw. ich gehe mal schwer davon aus, dass es auch schon ein Team gibt, dass an der Nachfolgearchitektur sitzt.
Richtig und wenn du bedenkst wie lange es schon her ist, dass die Jungs mit dem finalen Design von Cypress fertig sind, dann wird einem auch klar, das sie schon mächtig viel Zeit hatten. Die Designer sind wohl schon seit mind. 10 Monaten fertig. Bei der 4890 wurde schon gezeigt, dass sie wissen wie ein guter Refresh auszusehen hat und die Verwandschaft der Chips ist ja auch nicht zu leugnen. Da gibts also schon genügend Erfahrung.
Gute Nachrichten.... für Leute die die Schadenfreude gegenüber Nvidia genießen:
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1267107540
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1267107540
DvP
Admiral
- Registriert
- März 2001
- Beiträge
- 9.579
GodCast schrieb:ich sage ja nichts anderes, solche Karten lohnen sich nur, wo eine GPU hoffnungslos verloren wäre.
Und in welchem Fall zeigt sich so ein Szenario in der Praxis?
Bzgl. planet3dnow: Mir gehts schon die ganze Zeit so und hab bereits im letzten September was in der Art geschrieben. Ich freue mich für ATI aber wenn es mit NV so düster aussieht, ist das auch verdammt schlecht für uns Kunden :-( Charlie hats schon so angekündigt:
"Fermi GF100 is six months late and slipping, can't be made profitably if it can be made at all, and initial production is going to be limited to essentially a PR stunt. Every card made will be sold at a huge loss, meaning that there will probably not be any more wafers run after the initial 9,000 risk wafers are used up. Those were paid for in advance, so there is little harm to finishing them for a stopgap PR stunt."
Quelle: http://www.semiaccurate.com/2010/02/17/nvidias-fermigtx480-broken-and-unfixable/
Zuletzt bearbeitet:
Complication
Banned
- Registriert
- Okt. 2009
- Beiträge
- 4.277
Das war leider zu erwarten - die Exklusiven Partner von Nvidia mussten irgendwie bei der Stange gehalten werden. Doch der Ärger wird jetzt erst anfangen für Nvidia. Sie müssen nun den richtigen Zeitrahmen für den Vorsprung definieren wann die anderen auch beliefert werden. Ist das zu lang gibt es Stress mit den einen, ist der Vorsprung zu kurz gibt es Ärger mit den anderen. Ich denke diese Taktik wird dazu führen dass keiner der Partner zufrieden sein wird und Nvidia viel Einfluss kosten - Einfluss der sich in er Vergangenheit sehr bezahlt gemacht hat.
GodCast
Banned
- Registriert
- Apr. 2009
- Beiträge
- 1.540
DvP schrieb:Und in welchem Fall zeigt sich so ein Szenario in der Praxis?
Wo z.B. eine 5870 abkackt und um knapp über 20 Frames werkelt, da wirds auch keine 5970 mit MR richten können.
DvP
Admiral
- Registriert
- März 2001
- Beiträge
- 9.579
@ GodCast
In Crysis Warhead macht die 5870 in 1900x1200 8xAA/16xAF 22fps und die 5970 32fps mit massivsten Mikrorucklern, die das Spiel wohl kaum flüssiger erscheinen lassen. Da ist die 5870 verloren und wo lohnt sich hier die 5970, so wie du es gemeint hast? Beides ist nicht wirklich spielbar. Also wo ist Zeigt sich das Szenario jetzt wirklich? Nenn mir doch bitte ein konkretes Beispiel wenn du schon die Behauptung aufstellst.
Zur Sicherheit, ich meinte diese Aussage:
In Crysis Warhead macht die 5870 in 1900x1200 8xAA/16xAF 22fps und die 5970 32fps mit massivsten Mikrorucklern, die das Spiel wohl kaum flüssiger erscheinen lassen. Da ist die 5870 verloren und wo lohnt sich hier die 5970, so wie du es gemeint hast? Beides ist nicht wirklich spielbar. Also wo ist Zeigt sich das Szenario jetzt wirklich? Nenn mir doch bitte ein konkretes Beispiel wenn du schon die Behauptung aufstellst.
Zur Sicherheit, ich meinte diese Aussage:
GodCast schrieb:ich sage ja nichts anderes, solche Karten lohnen sich nur, wo eine GPU hoffnungslos verloren wäre.
Zuletzt bearbeitet:
Neo_Xsendra
Lieutenant
- Registriert
- Sep. 2009
- Beiträge
- 809
@Fortatus
ist ja nur der halbe artikel da drin, in nem englisch sprachigen steht nämlich noch drin, das die Second-tier Partner noch bis april warten müssen! das könnte uU ne ganze woche bedeuten!
ne mal im ernst ... vor april hat keiner von uns mit Second-tier Partnern gerechnet oder? -.^
ist ja nur der halbe artikel da drin, in nem englisch sprachigen steht nämlich noch drin, das die Second-tier Partner noch bis april warten müssen! das könnte uU ne ganze woche bedeuten!
ne mal im ernst ... vor april hat keiner von uns mit Second-tier Partnern gerechnet oder? -.^
D
derschlambi
Gast
Ich glaube bei den Preisen braucht AMD erstmal keine große Antwort auf den Fermi:
http://www.sabrepc.com/p-175-nvidia-geforce-gtx-470-1gb-gddr5-pci-express-x16-retail.aspx
http://www.sabrepc.com/p-174-nvidia-geforce-gtx-480-2gb-gddr5-pci-express-x16-retail.aspx

http://www.sabrepc.com/p-175-nvidia-geforce-gtx-470-1gb-gddr5-pci-express-x16-retail.aspx
http://www.sabrepc.com/p-174-nvidia-geforce-gtx-480-2gb-gddr5-pci-express-x16-retail.aspx
Neo_Xsendra
Lieutenant
- Registriert
- Sep. 2009
- Beiträge
- 809
@derschlambi
dann auch nochmal hier:
Nvidia Geforce GTX 470 1GB GDDR5 PCI-Express x16 - Retail
es gibt nur 1,5GB oder 3GB bei dem BUS ergo: FAKE!
dann auch nochmal hier:
Nvidia Geforce GTX 470 1GB GDDR5 PCI-Express x16 - Retail
es gibt nur 1,5GB oder 3GB bei dem BUS ergo: FAKE!
GodCast schrieb:für mich wären das auch gute Nachrichten... die ATI Karten bleiben damit teuer!
Toll? Niemand gewinnt damit was![]()
Doch, ich kann mich einen Monat länger darüber amüsieren, wie sich hier die Hardwarefreaks ärgern. Zugegebenermaßen nicht nett, aber mich betriffts nicht. Ich hatte ne Geforce4TI-4200, ne Radeon 9800Pro und jetzt ne 4670. Alle paar Jahre ne solide GK hat mir immer gereicht. Dieses ganze Gewhine, dass Nvidia so viel besser sei, wenn Fermi erstmal kommt, und sowieso jeder Unrecht hat, finde ich super
DvP
Admiral
- Registriert
- März 2001
- Beiträge
- 9.579
@ GodCast
Das hast du zwar bisher nicht gesagt, sondern das Gegenteil, dass sich dual GPU Karten eben lohnen wenn eine GPU zu schwach ist. So stimme ich natürlich auch zu. Leider gibts aktuell keine Daseinsberechtigung für Dual-GPU, außer um in Benchmarks gut auszusehen. Für die potentiellen Käufer kann ich nur hoffen, dass die Problematik überall so bekannt ist wie hier im Forum. Bezweifle das aber.
@ Fortatus
Dich betriffts nicht, wenn Grakas ev. nicht zu interessanten Preisen auf den Markt kommen würden? Keiner weiß wann und wie nVidia midrange DX11 Karten bringen will. Wenn für NV der Gamer Markt finanziell so uninteressant ist wie sie schon angemerkt haben und der GF100 wirklich so ein Verhau ist, wie man aktuell vermuten kann (bzgl. Kosteneffizienz für NV) vermuten viele bereits, dass sich NV aus dem Markt weiter zurückzieht. Das betrifft jeden der sich irgendwann mal wieder eine anständige Karte kaufen will zu sinnvollen Preisen, die es nur gibt wenn Konkurrenzdruck da ist.
Die Thematik hab ich auch oben schon kurz angeschnitten. Denke nicht, dass das für irgendwen von uns gut wäre, oder egal.
Das hast du zwar bisher nicht gesagt, sondern das Gegenteil, dass sich dual GPU Karten eben lohnen wenn eine GPU zu schwach ist. So stimme ich natürlich auch zu. Leider gibts aktuell keine Daseinsberechtigung für Dual-GPU, außer um in Benchmarks gut auszusehen. Für die potentiellen Käufer kann ich nur hoffen, dass die Problematik überall so bekannt ist wie hier im Forum. Bezweifle das aber.
@ Fortatus
Dich betriffts nicht, wenn Grakas ev. nicht zu interessanten Preisen auf den Markt kommen würden? Keiner weiß wann und wie nVidia midrange DX11 Karten bringen will. Wenn für NV der Gamer Markt finanziell so uninteressant ist wie sie schon angemerkt haben und der GF100 wirklich so ein Verhau ist, wie man aktuell vermuten kann (bzgl. Kosteneffizienz für NV) vermuten viele bereits, dass sich NV aus dem Markt weiter zurückzieht. Das betrifft jeden der sich irgendwann mal wieder eine anständige Karte kaufen will zu sinnvollen Preisen, die es nur gibt wenn Konkurrenzdruck da ist.
Die Thematik hab ich auch oben schon kurz angeschnitten. Denke nicht, dass das für irgendwen von uns gut wäre, oder egal.
Zuletzt bearbeitet:
D
derschlambi
Gast
@Neo_Xsendra
Mag ja sein, dass der Händler nicht genau informiert war über die genauen Daten der Karten. Aber der Preis ist doch durchaus realistisch bei den Gerüchten, die über die Yieldraten bei der Fertigung der Fermi Chips im Umlauf sind
Mag ja sein, dass der Händler nicht genau informiert war über die genauen Daten der Karten. Aber der Preis ist doch durchaus realistisch bei den Gerüchten, die über die Yieldraten bei der Fertigung der Fermi Chips im Umlauf sind
SoEvilicious
Lt. Commander
- Registriert
- Aug. 2007
- Beiträge
- 1.441
Die Vorteile der Fermi bleiben jedoch in jedem Fall bei 3D , Cuda und Physx. Da hat Ati noch nichts entgegenzusetzen oder?
Oh Doch!
Eyefinity und ihre Shutterbrillen, die angeblich deutlich besser sind als die von nVidia
Zuletzt bearbeitet:
P
Pickebuh
Gast
Fortatus schrieb:Wenn ich das richtig im Kopf habe, gab es bei irgendeinem neuen Treiber von Nvidia plötzlich eine krasse Verbesserung der Mikroruckler. Und da können sie nichts an der Hardware gedreht haben. Werde danach suchen. Stay tuned...
Es geht nicht um eine Verbesserung der Software, sondern dank der neuen Hardware des kommenden Fermi, um eine komplett anderer Technik die die Nachteile der Multi-GPU-Problematik nicht nur lindert sondern gänzlich beseitigt !
/edit: Gefunden: https://www.computerbase.de/news/grafikkarten/neuer-geforce-treiber-gegen-mikroruckler.23709/ Bei Nvidia hat ein Treiber die Mikroruckler entschärft.
Das war NVIDIAs Bemühungen die MR zu bändigen aber nicht zu beseitigen.
Hier das Patent zum Nachlesen was NVIDIA eingereicht hat.
http://www.freepatentsonline.com/7616206.pdf
Mit dieser Änderung der Hardwareanbindung läßt sich ein perfektes Multi-GPU-System erstellen mit unzählichen Möglichkeiten.
Da nützen auch keine 10.3 oder 10.4er Catalysten da sie die Hardware nicht verändern können.