News Neues von ATis R520 und nVidias G70

Arne

Rear Admiral
Registriert
Nov. 2003
Beiträge
5.380
Die Gerüchteküche The Inquirer hat wieder einmal sehr interessante Informationen veröffentlicht, wie gewohnt ohne irgendwelche Quellen zu nennen. Betroffen ist die nächste Generation Grafikchips der beiden großen Platzhirsche am Markt, ATis R520 und nVidias G70.

Zur News: Neues von ATis R520 und nVidias G70
 
hört sich ja schon mal gut an,
da hat sich ja noch meine 6800GT für 235€ gelohnt, wenn die Karten eh erst zum Weinachtsgeschäfft ausreichend verfügbar sein werden...
 
Na mal sehen was daraus wird.
Ich bin mal gespannt ob Nvidia wirklich einen kühlen Chip gebacken bekommt.
Schön währes ja.

Auch ATI "SLI ähnliche Technik" (zu faul den richtigen Namen nachzugucken), werd ich genau beobachten.
Wenn es die selbe oder gar einen höheren Geschwindigkeitsvorteil als SLI bringt, ist das Geld für neue ATI Grakas schon sicher reserviert^^

m.f.G. Sunehund
 
und wie bist du zufrieden mit der karte ... wie schauts aus mit spielen die laufen/ nicht laufen ?
 
also wenn man bedenkt, was alles als "normal" bei Nvidia als Stromversorgung galt, dann wird es hoffentlich nur ein PCI-e 6 pol Stromstecker sein (obwohl dieser ja eigentlich auch aus zwei 4 Pin Molex Steckern besteht wie bei einer 6800 ultra)

Aber trotzdem ist es sehr komisch wie hoch der bisherige Verbrauch von den 6000er Karten war - 6200 AGP mit extra Stromversorgung bei 64 MB 64bit?

Wenn Nvidia weiter auf SLI setzen will müssen einfach die Chip kühler und stromsparender sein - nicht jeder will 500+ Watt Netzteile einbauen.
 
Sehe ich das richtig? DUAL-GPU? Ist ja cool... 2 * X850XT mit je 512MB... lechtz....
 
Mit einer 6800 Gt kannste ja eh alles Zocken.
Meine Meinung dazu:
ATIs SLI und nVidias SLI passen eh nicht zusammen, war klar - aber das man da nicht eine Norm machen könnte, nein, man muss sich, wenn man von nVidia auf ATI wechselt automatisch ein neues Board kaufen - Sinnlos!

Und das nVidia kühlere (=leisere Kühler) und stromsparendere Grafikkarten herstellt wäre zwar schön (besonders im Hinblick auf SLI Systeme, die unter 500 W verbraten ;) ), aber ich kann das irgendwie nicht glauben, jedenfalls glaub ich kaum, dass man das jetzt schon so sicher sagen kann.
Und am Ende sind es dann wieder Karten mit Verlusteistungen über 100 W :( .

Naja, mal sehen was die Zukunft noch so alles bringt.
 
Daran ist aber nur NVIDIA schuld - sie haben sich alles geschützt.
Ati war bis jetzt meist netter - haben ja GDDR3 mit entwickelt und Nvidia profietiert davon auch oder jetzt hat ATI Nvidia 3DC gegeben für die neue G70 oder spätere GPU's.

es wäre schon nett, wenn einfach jedes Mainboard mit zwei physikalisch echten 4 Fach PCI-e Steckplätzen oder als 16x auf der Platine verbaut automatisch für SLI tauglich wäre und ATI und Nvidia damit problemlos arbeiten könnten.
 
Ich habe ja auch ATI niemals die Schuld gegeben - Im Gegenteil, auch ich bin davon überzeugt, das nVidia an dieser Misere schuld ist. Aber deine Veranschaulichung finde ich dann doch wieder übertrieben ATI-freundlich, die Beiden schenken sich nichts, das gilt für ATI und nVidia.
Naja, bei deiner These müssten aber ATI als auch nVidia mitziehen - jeder versucht aber, dem Anderen das leben schwer zu machen, sodass nVidia keine Platinen herstellen würde, auf denen dieses ATI SLI geht, und ATI keine Platinen, auf denen nVidia SLI geht. Würden die beiden Firmen das machen, gäben sie ja der jeweils anderen Firma die Chance, deren SLI mehr zu verbreiten - praktisch finanzieller Verlust. Da aber jede Firma bemüht ist, diesen zu verhindern, wird so etwas leider nicht geschehen - Schade!
Denn die Leittragenden sind dann im Endeffekt wieder wir, die Konsumenten, wie das in vielem so der Fall ist heutzutage. :(
 
Sieht so aus, als ob Nvidia seinen Vorsprung in technischem Bereich noch weiter ausbauen könne!!

Najo also ganz so mit ATI und NVIDIA ists auch ned !!! SLI ist immerhin was (wiedereingeführtes) Neues - das ATI hinterher hinkt ist halt wiedermal Fakt!

ATI wollte irgendwie ja gar ned die die 2-GFXKarten-Lösung gehen. Daher musste Nvidia hier alleine entwickelt und klarerweise haben die das auch alleine schützen lassen!

Hat INTEL ja auch versucht mit dem RamBus-Systemen ... ist aber bei denen in die Hose gegangen .. wäre dem nicht so, müsste man sehr vieles bei Systemwechsel neu kaufen!

Irgendwann wirds Chips geben die beide 2-karten-Systeme verarbeiten können. So wie mit den DVD-Playern. DVD-R und DVD+R kann jeder billigsdorfer Player lesen ... ABER das war auch nciht immer so!
 
Zuletzt bearbeitet:
@10 NV hat SLI nicht entwickelt sondern nur gekauft
 
@ Autor der News: "Da sowohl der R520 als auch der G70 ihr Tape-Out schon hinter sich haben, könnte es auch zu einer ähnlichen Situation kommen, wie sie derzeit bei den Dual-Core Prozessoren herrscht: AMD und Intel verschieben die Release-Termine ihrer CPUs immer weiter nach vorne, um als erster Hersteller eine Dual-Core CPU auf dem Markt zu haben."

Bestechende Logik. ATI verschiebt den unbestaetigten Releasetermin nach hinten, trotzdem koenne es zu einem Wettlauf um den fruehesten Releasetermin kommen?
 
*kopfschüttel*
Vor gerademal gut einer Woche hat Inquirer das genaue Gegenteil geschrieben:
http://theinquirer.net/?article=22917
Nochmal + 75 Watt bei der PCI-Sig angemeldet. :rolleyes:

Ja watt denn nun...

mfg Simon
 
Ich denke mal der sicherste Weg ist es auf genaue informationen seitens nvidia und ati zu warten, denn informationen von The Inquirer bestechen nun nicht unbedingt dadurch, das sie auf fundierten und gesicherten informationen basieren, sondern haben doch eher spekulativen charakter.
 
oh weh wo soll das alles noch hinführen? alles braucht mehr strom nur damit es schön bunt und hell und leuchten tut. nicht das ich was dagegen habe das die grafik so gut ist aber irgendwann muss ja mal schluss sein mit dem ganzen zeug. ich hab echt nicht mehr den willen und die lust dauernd den rechner umzubauen, mittlerweile brauchen meine 2 rechner so viel strom, dagegen ist ein backofen ja harmlos. da sind konsolen doch ein wenig besser finde ich.
 
Is ne super Idee von ATI zu warten aber wenn ATI´s "SLI" so sein wird wie beschrieben mit Master und Slave dann bekomm ich nen lachkrampf.

UNd leute hört mit der scheiße auf man braucht ein 500Watt Netzteil wer sagt den sowas!? EIn gutes 400Watt tut es auch!
Gute Idee von nVidia mal was gegen die Hitze zu tun. Da wird man sehen ob nVidia Team das ausschließtlich für die Kühlung da ist gute arbeit leistet.
 
Naja wenn ATi's MVP nur auf ATi-Boards läuft, denn interessiert mich diese Technik um so weniger. Diese oards gefallen mir überhaupt nicht. Und die Geschichte mit der Master & Slave Karte gibt diesemr Technik den Gnadenschuss.....
 
Der Vorteil bei Ati ist du kannst später dein mobo verticken neues kaufen, alte x850xt versklaven, neue R5... anhenken, einwenig besser als SLI,
hoffentlich bringt es aber viel Mehrleistung!!!! Trotzedem bau ich mein `Home Brewed` 4fach Vapochill zusammen ab dann geht mir alles am Arsch vorbei.
Die Grafik, Northbridge, Cpu und irgendwie den Arbeitsspeicher wird Minuzgekühlt, das wird schon gehen. Nachher laüft mein system mit fsb400 wie dieser Shamino-Typ es
gemacht hat (vr-zone.com).
EVILLOL
 
hey leute,
wir sollen erstmal auf den ersten test abwarten. Danach kann man ja weiter rumdiskutieren.
Immo werden hier nur Vermutungen und Spekulationen diskutiert :)

mfg.
 
Zurück
Oben