News Next-Gen-Grafikkarten: Unbekannte Nvidia-GPUs im Geekbench aufgetaucht

FuchsDer schrieb:
Tja wenn man an der Spitze liegt und keine Konkurenz hat kann man die Nutzer mit 20% mehr performance nach 3 jahren zufrieden stellen
Naja
1. bei der Logik, wäre die 1080 bzw. 2080 schon langsamer gewesen, weil NV da auch keine Konkurrenz hatte, bzw. die Konkurrenz deutlich später nachgelegt hat.
2. ist natürlich alles Spekulation, aber 20% plus wäre viel zu wenig, um interessant zu sein. Das hat NV ja schon mit der Superreihe durch bloße Optimierung rausgekitzelt.
3. ist NV ja mit Blick auf die "Big Navi" nicht konkurrenzlos.
4. "muss" der Sprung schon aus technischen Gründen größer sein. Denn durch den Shrink wird ja einiges an Potenzial freigesetzt.
5. ich wiederhole mich, wenn man die letzten 3 Generationen zurückgeht, dann lässt sich ein Schema bei der Leistungsentwicklung erkennen (780Ti => 970; 980Ti =>1070; 1080Ti => 2070/2070S). Warum sollte NV davon jetzt abweichen, wo sie gerade sogar noch deutlich mehr Möglichkeiten hätten, ohne an die Physikalischen Limits gehen zu müssen?
 
oldman65 schrieb:
Das hat nie wirklich richtig funktioniert, geschweige CF .....
Nettes Gimmick zum Benchen, mehr nicht.
Hattest Du mal SLI oder CF? Nach Deiner Aussage eher nicht. Ich hatte beides viele Jahre, und es hat sehr wohl und sogar gut funktioniert.

@Topic

Ich wäre für meinen Teil schon froh, wenn die Karte etwas kühler daherkommt. Das Gejaule der 2080TI FE geht mir schon ziemlich auf den Keks.
 
pipip schrieb:
@Smartin
Das Teil ist eine Profikarte und für den HPC Markt. Wenn HBM bei AMD ein Kostenfaktor ist, wird es NV erst recht bezahlen lassen.
Allein wegen dem Si lässt sich nicht auf Gaming Karten ableiten die sicherlich gddr6 haben werden. Und Shader Anzahl und Si werden abgestimmt sein müssen. Wir sehen hier sicherlich einen Chip weit uber 500mm^2. Allein wenn man bedenkt, dass Big Navi mit angeblich 80 CUs bereits 505 haben soll.
Hab ich ja oben auch schon geschrieben. Mit Blick auf den sehr niedrigen Takt und das mit einem höheren Takt verbundene Potenzial, spricht das wieder für die neue Tesla.
 
usb2_2 schrieb:
@Wolfgang sind das nicht SMs statt CUs bei Nvidia oder haben die das geändert?
Bei Nvidia heißen die immer noch Streaming Multiprocessors - zumindest nennen sie die Cluster bei den GeForce-Karten immer noch so. Ich bin nur extra bei Compute Unit geblieben, da der Geekbench die (unabhängig von der GPU) immer Compute Unit nennt.
pipip schrieb:
Big Navi News sind Notizen und das ist gleich ne News?
Es kommt immer auf die Qualität/Umfang des Leaks an, ob RDNA2 oder Ampere spielt da keine Rolle.
 
  • Gefällt mir
Reaktionen: -WATC- und usb2_2
Ich hoffe, dass Nvidia beim Namensschema die 3xxx überspringt und direkt zur 4xxx geht. Irgendwie sieht das einfach besser aus.
 
Asghan schrieb:
2x? SLI ist doch tot dachte ich?
tot ist vllt übertrieben....kurz vorm verrecken passt eher :D
Ergänzung ()

KuestenNebel schrieb:
Ich hoffe, dass Nvidia beim Namensschema die 3xxx überspringt und direkt zur 4xxx geht. Irgendwie sieht das einfach besser aus.
War von der 280 auf die 480 ja genau so. Die 300serie war den OEM's vorbehalten und war dann auch nur umgelabelt...wobei das mit dem G92 Chip jahrelang betrieben wurde...8800gt bis zur 250gts :D
 
  • Gefällt mir
Reaktionen: Smartbomb
Sind eh wieder prof. Grafikkarten.
24GB Speicher wird meiner Meinung nach dieses Jahr im Consumerbereich nicht erscheinen.
Maximal eine 32GB Titan für mehrere Tausend €.
Ich rechne mit 3080 12GB und 3080TI 16GB.
NVIDIA ist natürlich eh nicht auf Consumergrafikkarten fokusiert. Das ist technologierecycling aus dem prof. Umfeld. Man nimmt es natürlich dankend mit. Auch wenn die Marge schlechter ist.
Begründung:
Konsolen, keine Konkurrenz, man kann besser neue Karten verkaufen wenn die alten aufgrund Speichermangel langsamer werden. Außerdem gibt mehr Speicher derzeit(!) nicht wirklich mehr Performance, sobald man den Mindestwert überschreitet. Spiele werden auch nicht für 1080TI oder 2080TI Entwickelt.
Die Geforce RTX 2080 aus 2018 bsp ist als zweit-/drittschnellste Karte (mit/ohne TITAN Betrachtung) mit 8GB ausgestattet.
 
  • Gefällt mir
Reaktionen: fox40phil
@news

Warum soll der Takt zu niedrig sein? Man beachte, das Nvidia bei zumindest allen Consumerkarten in den letzten Jahren den Referenztakt immer weiter abgesenkt hat, je mehr Shader freigeschaltet waren.

Schließlich hat NV sich ja im Gegensatz zu ATI freiwillig seit Jahren auf ein max PT von 250W/260W beschränkt und damit das trotz größerem Chip bzw größerer Chip-Ausbaustufe eingehalten wird, hatten die Topmodelle immer weniger Takt als zB die Mittelklasse.
 
  • Gefällt mir
Reaktionen: ChrK
Gelbsucht schrieb:
@news

Warum soll der Takt zu niedrig sein? Man beachte, das Nvidia bei zumindest allen Consumerkarten in den letzten Jahren den Referenztakt immer weiter abgesenkt hat, je mehr Shader freigeschaltet waren.

Schließlich hat NV sich ja im Gegensatz zu ATI freiwillig seit Jahren auf ein max PT von 250W/260W beschränkt und damit das trotz größerem Chip bzw größerer Chip-Ausbaustufe eingehalten wird, hatten die Topmodelle immer weniger Takt als zB die Mittelklasse.

Takt verringern macht keinen Sinn da man sonst den Chip vergrößern muss um die Leistungsfähigkeit zu Kompensieren. Auf der anderen Seite hat die Takt-schraube zur folge dass die Leistungsaufnahme ungleich zur Grafikleistung steigt. Da muss der Hersteller abwägen, aber mehr Takt und weniger Fläche resultiert in mehr $. Also ne GPU die mit weniger als 1500mhz @Stock Läuft werden wir von NV glaub ich nicht mehr sehen, außer vllt im Professionellen bereich (Wobei hier auch der Preis nen ganz anderer is)...der Ausschuss wird dann wieder als High end verkauft wie meine 2080ti mit Deaktivierten Einheiten. Aber vllt verhindert Corona auch noch die Auslieferung der Next-Gen noch ne weile, ich wär mir aktuell nicht so sicher ob dieses Jahr großartig viel Neues kommen wird außer Papiertieger.
 
Novasun schrieb:
Das wird nicht passieren.
was wird nicht passieren^^

das ist schon passiert u zwar mit quasi jeder bedeutenden Grafikengine ist die Umstellung vollzogen









Die können Effekte wie Legobausteine entweder dem Raytracing oder dem Rasterpart zuweißen.
Die Skalierung für das eine oder andere bestimmt lediglich die Tensor oder 32bit Shaderpower der GPU

Hier muss sich niemand was von AMD abschauen, obwohl die selbst den hybriden Ansatz forcieren, weil es eben logisch ist das nach und nach umzustellen

 
Zuletzt bearbeitet:
Also grundsätzlich erwarte ich +50% Leistungssteigerung durch die Bank für alle Preisbereiche.

Wenn das nicht passiert, werd ich mir überlegen, ob ich noch in den PC investiere oder mal ein paar Jährchen warte und primär auf Konsole umsteige.

Der Punkt ist halt einfach, dass die neuen Konsolen Leistung ca. auf RTX2080S Niveau liefern werden und ca. 500-600€ kosten werden.

Das würde für mich dann aber bedeuten, dass die gleiche Leistung im PC Bereich für 300-400€ zu haben sein muss und sich high End Karten entsprechend absetzen müssen. Denn wofür sollen die Leute ne 3080ti für über 1000€ kaufen, wenn die dann z.B. nur mickrige 30-40% schneller als ne 500€ Konsole wäre?

Erstmal wäre dann das Preis/Leistungsverhältnis durch die Bank unglaublich schlecht und zudem könnte man sich, selbst wenn man bereit ist, viel Geld zu investieren keinen großartigen Leistungsvorsprung erkaufen..

Ich mein, klar, es könnte so kommen, was einfach mist wäre, aber es wäre zugleich ein Armutszeugnis für den gesamten Grafikkarten Markt. Nvidia muss jetzt richtig ranklotzen, und sowohl im HighEnd, als auch im mittleren Preisbereich deutlich mehr Leistung bieten, sonst ist das ne totale Blamage.

Zumal AMD mit Big Navi ja auch noch ziemlich gefährlich werden könnte.

Nvidia braucht endlich mal wieder ordentlich druck. Meine GTX980 ist jetzt 5 1/2 Jahre alt und heute bekomme ich zum selben Preis gerade mal ein bisschen mehr als die doppelte Leistung. Das ist lächerlich nach so langer Zeit.
Und erzählt mir nix von verlangsamten Fortschritt. Wer GPUs für über 1000€ verkauft, den vollausbau gar nicht in den Privatkundenmarkt bringt und auch noch massig Chipfläche für Raytracing opfern kann, der demonstriert doch schon sehr deutlich, dass er alles andere als unter Druck ist und den Kunden Leistung wo es nur geht vorenthält bzw. sich sehr teuer bezahlen lässt.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Chismon, -WATC-, dohderbert und eine weitere Person
Asghan schrieb:
2x? SLI ist doch tot dachte ich?

Coeckchen schrieb:
tot ist vllt übertrieben....kurz vorm verrecken passt eher :D
 
Zuletzt bearbeitet:
Bei Jim@AdoredTV vermutet man, dass diese extreme Leistungssteigerung durch eine Dual-GPU zustande kommen soll. Hatten wir ja echt lange nicht mehr, wer weiß.
 
PHuV schrieb:
Hattest Du mal SLI oder CF? Nach Deiner Aussage eher nicht. Ich hatte beides viele Jahre, und es hat sehr wohl und sogar gut funktioniert.

Beides, ich war unter marcusT im hwbot.
hab so ziemlich alles in der vergangenheit in meinen händen gehabt und gebencht.
wenn es unter deinen augen gut funktioniert hat ist ja alles gut.
zig leute sind da anderer meinung.
 
Gelbsucht schrieb:
@news

Warum soll der Takt zu niedrig sein? Man beachte, das Nvidia bei zumindest allen Consumerkarten in den letzten Jahren den Referenztakt immer weiter abgesenkt hat, je mehr Shader freigeschaltet waren.

Ich schließe mich der Frage an. Insbesondere halte ich einen Auslesefehler der Taktfrequenz für unwahrscheinlich:
Tesla V100: 5120 ALUs, 1,455GHz, 153.741 Punkte -> 20,6 Punkte/(ALU*GHz)
Next-Gen langsam: 6912 ALUs, 1,01GHz, 141.654 Punkte -> 20,3 Punkte/(ALU*GHz)
Next-Gen schnell: 7552 ALUs, 1,11GHz, 184.096 Punkte -> 22,0 Punkte/(ALU*GHz)
Die Taktraten passen also grob zum Benchmark-Ergebnis (riesige Sprünge in der Recheneffizienz sind ja nicht zu erwarten und eine höhere reale Taktrate würde gar eine Verringerung bedeuten).

Auch wenn ich acuh von Vorserienwerten ausgehe, wäre diese meiner Meinung nach nicht unplausibel. Die Verbrauchskosten (Platz, Strom, Kühlung) übersteigen in der professionellen Anwendung die Anschaffungskosten sicherlich recht schnell. Da Strom und Kühlung noch etwas kostenintensiver als Platz sein dürften, wäre das Hauptargument für ein neues Produkt mehr Leistung/Watt, was man ja am ehesten durch geringere Taktraten erzielt und ggfs. über erhöhte Parallelisierung kompensiert.
 
der niedrige takt ist gut möglich wenn der chip so in die breite gegangen ist... siehe allcore boost 3950X(4.2GHz) vs. 3960X(3.9GHz)... oder auch 2080 vs. 2080 Ti --> knapp 200MHz taktunterschied zugunsten der 2080.

in die breite gehen heisst grundsätzlich den takt reduzieren zu müssen, klar werden die karten dadurch evtl. sehr gut taktbar sein(wenn NV da nicht wieder nen bios lock reinbastelt, wovon ich aber ausgehe).

und durch 7nm wird der chip für die anzahl der einheiten ziemlich klein sein, entsprechend schwer wird sich das mit der kühlung rausstellen --> weiterer grund den takt niedrig zu halten.

fazit: karten kommen mit niedrigen taktraten, aber enorm viel einheiten, lassen sich wenn richtig gekühlt extrem gut takten(sofern kein bios lock).
 
GERmaximus schrieb:
Immer dieses Gemecker über Eine für euch Kostenlose Plattform. Wenn es dich nicht interessiert, klicke es nicht an.

Kostenlos ist da gar nichts. Die Währung im Internet ist entweder Geld oder Daten automatisch übermitteln und ungefragt Werbung anschauen. So einfach weggucken und ignorieren kann man das nicht. Adblock und No-Script sind gute Hinweise darauf dass man ohne Tools eben gar keine Wahl hat. Insofern muss das kein Gemecker sein und der Hinweis sich nicht aufzuregen ist etwas zynisch.

Dito schrieb:
Wieso, es funktioniert doch. Ihr antwortet darauf.

Ja weil es funktioniert, soll es gut sein? Wende die Logik mal überall an.
 
Ich hoffe einfach nur auf eine 3080 mit 12GB VRAM und meine 1080Ti darf endlich in Rente gehen. Obwohl ich sagen muss das mir die 1080 Ti für WQHD immer noch dicke reicht vllt lass ich diese Gen auch nochmal aus und investiere lieber nochmal in mehr Radiatorfläche 💪🏻
 
Zurück
Oben