News nVidia-Gerüchte-Allerlei: NV50 und Co.

Ich vermute mal, daß für die neuen Chipsätze eine identische Southbridge zum Einsatz kommt.

Zum NV50: schwer zu kommentieren, außer dem ominösen Zeichenstring war ja noch nichts bekannt. Die Meldung über die ALUs des R5xx könnte bei NV über eine Strategieänderung entschieden haben. Vielleicht aber auch nicht und der neue Chip wird "nur" für einen neuen Prozeß aufgelegt. Immerhin wird der R520 wohl im größten Fall in 90nm von TSMC daherkommen.

Multi-GPU: mit einem skalierbaren ALU-Design sicher möglich. Würde aber vermutlich als "mehrere DIEs in einem Gehäuse"-Variante daherkommen. Wobei NV dann aber Chips ohne 2D-Zeugs, Speichercontroller und den ganzen Quatsch produzieren müßte: mehr als einmal auf der Karte braucht das ja kaum jemand. Immerhin: HTT könnte alles verbinden...

Jetzt brauchen wir nur noch PEG für'n Sockel A :D...

---

Nachtrag zur ALU:

Eigentlich ab SM 4.0 vorgesehen. Eine Pipe kann min. 4 32Bit-FP-Werte als Vektor plus einen 32Bitter als Skalar verarbeiten. Jene kann potentiell alle Operationen ausführen: Texturwert rendern, Vertex/Geometrie-Operationen, sonstige Effekte. Ergo: der Chip kann je nach anliegenden Aufgaben unterschiedlich reagieren. Liegen zukünftig z.B. abnormal viele Gemetrieoperationen an ((c) plättet deine Basis und deformiert dabei alles :D), so kann ein Großteil der Pipes als Vertex-Prozessor auftreten.
 
Zuletzt bearbeitet: (Version 1.1 =))
Ich habe jetzt schon mehrmals über ein NV47 gelesen.
Der Chip soll dann 24 Pipelines besitzen und noch im 1H 05 kommen.

Vielleicht nVidias "R520-Konkurrent" ?!?
 
Die sollten lieber den stromverbrauch ihrer Grafikkarten runterschrauben. Und multi-GPU´s sind nicht besonders effektiv. sie müssten ihre daten untereinander austauschen können. und das schnell auf "weite" distanz. Stärkere paralelisierung mit nicht ganz so leistungsfährigen pipes. dann diesen "müll" antialysing nicht vor der berechnung sondern, nach dem ramdac.
 
Multi GPU's können auch ganz schön vorteilhaft sein. Z.B. kann das AA dann erhöht werden ohne allzugroßen Leistungsverlust (siehe Voodoo5 5500 und Voodoo5 6000)
Wenn nVidia das gescheit macht, dann wird es wohl keine Probleme geben dürfen
 
Wenn ATi im R520 so viele technische Verbesserungen gegenüber dem NV40 integriert, sieht nVidia vielleicht die Notwendigkeit, den NV50 grundlegend zu ändern. Nachdem aber in letzter Zeit überall von Dual-Core Chips gesprochen wird, könnte nVidia natürlich auch etwas in dieser Richtung planen.

Vielleicht erwartet uns eine DualCore-GPU basierend auf dem NV40. Gepaart mit SLI und der aktuellen Featurepalette inklusive SM3 könnte man so in neue Leistungsregionen vorstossen. Und Motherboards mit PEG bieten bereits jetzt alle Voraussetzungen, um diese potentiellen Pixelmonster auch effektiv nutzen zu können (Bandbreite, Strom und SLI-Support).
 
Das Ganze erinnert mich ein wenig an Intel und den Tejas...
Scheinbar hat man die Verlustleistung der Karten auch bei Nvidia nichtmehr im Griff, nachdem Intel umdenkt, sollte auch Nvidia dies tun, sonst haben wir irgendwann GraKa's wie Staubsauger und die 5800 Ultra wird uns wie ne Silent Karte vorkommen :p
 
Ich hab mal paar Fragen:

1. Wann soll eigendlich R520 kommen?

2. Wann soll eigendlich NV50 [Jetzt einen andere Bezeichnug] kommen?
 
Ich versteh nicht, wieso die high-end Varianten der 6800er aufgrund von Taktproblemen nicht verfügbar sein sollen. Immerhin taktet jeder Durchschnitts-Overclocker mit dem NiBiTor und NVFlash seine 6800le auf 420-450Mhz Coretakt bei erhöhter VGPU von 1,1V auf 1,4-1,5V.
Somit sollte doch wohl der Herrsteller in der Lage sein, seine NV40er mit 400Mhz laufen zu lassen oder was?
 
Cr0w schrieb:
Ich versteh nicht, wieso die high-end Varianten der 6800er aufgrund von Taktproblemen nicht verfügbar sein sollen.

Das ist ja auch nicht so. Das Angebot wird kuenstlich knapp gehalten um die Preise hoch halten zu koennen. Das ist eben Marktwirtschaft.
Waeren mehr NV40U verfuegbar wuerde das die Preise aller darunterliegenden Karten ebenfalls druecken. Und das ist nicht im Interesse eines jeden Unternehmens das Geld verdienen will.
 
multicore? sicherlich nicht! wenn man bedenkt, dass die momentan schon 2 Slot Kühlung benötigen...
ich hoffe sie bekommen die Kühlung mit dem neuen Chip in den griff, dann steht multi-core/gpu nichts im weg
 
DiGiTaL schrieb:
Ich habe jetzt schon mehrmals über ein NV47 gelesen.
Der Chip soll dann 24 Pipelines besitzen und noch im 1H 05 kommen.
Vielleicht nVidias "R520-Konkurrent" ?!?
Immerhin, Sinn würde das durchaus ergeben, somit hätte Nvidia etwas gegen den R520.
Anderherum: Wieviel Transistoren würde der Chip dann haben? Imo um die 270Millionen, wohl eine derzeit unmögliche Aufgabe im 130nm Prozess ohne auf neue Kühlmethoden oder lansgameren Takt zu wechseln.
 
Der Trend zu Multi-Chip/Core-Lösungen zeigt eben doch, dass die Taktschraube nicht beliebig weit gedreht werden kann und Moore so langsam an seine Grenzen stößt. Man sieht ja schon an CPUs, dass heutige Prozessoren bei weitem nicht doppelt so schnell sind wie die vor 1,5 Jahren. Oder hab ich den Athlon XP 6400+ im August verpasst? Mag sein dass mit vollzogenem 64Bit-Sprung nochmal ordentlich Speed draufkommt, aber ich bezweifle dennoch ernsthaft dass wir Februar 2006 eine 12Ghz-CPU kaufen können, das ist völlig utopisch...

Bin mal gespannt mit was für Technik die nächste Generation Transistoren hergestellt wird... irgendwo nach 65nm ist sicher Schluss mit herkömmlicher Fertigungstechnik
 
Nochmal eine kleine ANmerkungzu der CB News. Ich halte es alleine schon für unlogisch bald mit einem Dual Chip Design zu rechnen, da imo der NV40 nicht für Dual Chiops auf einem Board konstruiert wurde. Somit müsste Nvidia den Chip imo deutlich modifizieren.
 
Soweit ich weiß, geht es beim Moore'schen Law nicht um die Frequenz, sondern um die Anzahl der Transistoren, was nicht zwangsläufig mit Speed zu tun hat. Oder irre ich mich da ?
 
@Throx: So unwahrscheinlich ist eine Dual/Multi-Core GPU nicht, setzt man voraus, dass nVidia eventuell eine neue Architektur entwickelt (hat?).

@nobody_: Mit einem BIOS Update kann man leicht aus einer 6800 GT eine Single-Slot Ultra machen, die auch mit nur einem 12V-Anschluss auskommt. So kam ich 'günstig' (wenn man das so nennen kann) zu meiner 6800 Ultra, die ich nach ein paar Wochen noch mit einem Arctic Cooling Silencer abgerundet habe.

@all: Oder plant nVidia gar eine Qualitäts-Offensive? Gleiche Leistung bei fast perfekter Bildqualität ohne 'Optimierungen'? Wer weiss... :)
 
DukeGosar schrieb:
Soweit ich weiß, geht es beim Moore'schen Law nicht um die Frequenz, sondern um die Anzahl der Transistoren, was nicht zwangsläufig mit Speed zu tun hat. Oder irre ich mich da ?

Da hast du recht, ich habe einfach mal eine starke Analogie zwischen Transistorenzahl und Speed angenommen. Wenn man mal irgendwelchen Befehlserweiterungs-/mehrL2Cache-/mehrFSB-/32auf64Bit-Quatsch weglässt, dann behaupte ich mal ist ein Prozessor mit 200 Mio. Transistoren doppelt so schnell wie dieselbe CPU mit 100 Mio... so ungefähr jedenfalls.
 
Zuletzt bearbeitet:
Butterbemme schrieb:
Da hast du recht, ich habe einfach mal eine starke Analogie zwischen Transistorenzahl und Speed angenommen. Wenn man mal irgendwelchen Befehlserweiterungs-/mehrL2Cache-/32auf64Bit-Quatsch weglässt, dann behaupte ich mal ist ein Prozessor mit 200 Mio. Transistoren doppelt so schnell wie dieselbe CPU mit 100 Mio... so ungefähr jedenfalls.
Es sollte kein prlbem sein, eine GPU zu produzieren, die doppelt soviele Transistoren hat und trotzdem keinen Deut schneller ist. Man kann ja problemlos alles mit Features vollstopfen, welche im alltäglichen Gebrauch unnütz sind.
 
Das mit dem Moorschen Gesetz heißt.
Die Rechenleistung verdoppelt sich alle 18 - 24 Monate.
Tja die letzten 18 hatten wir keine Verdoppelung bei CPU,
aber die GPU sind etwa 3 * so schnell.
Mit der Umstellung auf 2 Cores bei CPU's ohne die 64-Bittechnik einzurechnen,
werden wir in 2 Jahren sicher eine Verdoppelung zu heute sehen, etwa 2 * 3 GHZ A64,
schätzungsweise dann in 65 nm.
 
phil99 schrieb:
Das mit dem Moorschen Gesetz heißt.
Die Rechenleistung verdoppelt sich alle 18 - 24 Monate.
Tja die letzten 18 hatten wir keine Verdoppelung bei CPU,
aber die GPU sind etwa 3 * so schnell.
Mit der Umstellung auf 2 Cores bei CPU's ohne die 64-Bittechnik einzurechnen,
werden wir in 2 Jahren sicher eine Verdoppelung zu heute sehen, etwa 2 * 3 GHZ A64,
schätzungsweise dann in 65 nm.

Naja.... also das Moorsche gesetz im eigentlichen Sinne bezieht sich wie #15 schon sagte nur auf die Transistorzahl eines Prozessors. Ich sehs noch ein wenn man das Verständins des Gesetzes auf die Rechenleistung der CPU als ganze erweitert und sagt "meine 2 Ghz 32 Bit - 265KB L2 - 166Mhz FSB CPU von vor 2 Jahren ist halb so schnell wie mein 3 ghz Rechner - 64 Bit - 512KB L2 - 200 Mhz CPU heute" (nurn Beispiel, das stimmt so sicher nicht), aber auf die gesamte Rechnerleistung hat sich Moore mit Sicherheit nicht bezogen. Nicht was die größere Gesamtleistung durch Grafikkarten angeht und schon garnicht DualCore-Lösungen, denn das is etwas vereinfacht gesagt nix anderes als 2 CPUs unter einem Kühler und mehrere CPUs kann ich zu jedem Zeitpunkt zusammenstecken und die Leistung vervielfachen --> das gültet meiner Meinung nach nich wenns um Moore geht *gg*.

GPUs haben ihre Leistung in den letzten 2 Jahren sicherlich verdreifacht, mag sein. Das ist aber imho nicht ganz mit CPUs vergleichbar. Die Leistung einer GraKa hat man in letzter Zeit gewaltig erhöht, indem man ständig weiter parallelisiert hat, d.h. mehr und mehr Pixel werden gleichzeitig berechnet. Das wird bei CPUs in dem Sinne (noch) nicht gemacht. Hm... ne 16-Core-CPU mit 300 Mhz, das wär mal interessant...

Übrigens gabs deinen erwähnten 3Ghz A64 schon vor über nem Jahr, die Verdoppelung müsste also in 4 bis spätestens 10 Monaten erreicht sein. Wetten, daß das nicht der Fall sein wird? :D
 
Zuletzt bearbeitet:
Zurück
Oben