News CPU-/GPU-Gerüchte: Intels 48-Kerner, AMDs 64-Kerner und Nvidia RTX 2060

SaschaHa schrieb:
Doch gibt es. Die Chipfläche ist durch die neue Architektur enorm gewachsen, damit auch die Herstellungskosten. Der "Fortschritt" ist somit durch höhere Kosten erkauft, also kein "echter" Fortschritt in Bezug auf die Produktionskosten. Das kommt erst mit einem DIE-Shrink.
Naja. Sie haben aber vorsätzlich mehr Chipfläche gemacht für unnötige RT- und Tensorkerne (denn die bringen keine Mehrleistung).

Ich hoffe ja dass AMD mal liefern kann, Leistung auf RTX 2080 Ti Niveau mit 12 GB VRAM, aber dafür ohne RT/Tensor-Kerne. Dafür würde ich auch 700 Euro zahlen (wie halt bei der etwas langsameren 1080 Ti).

Aber da Radeon seit längerer Zeit im Highend-Segment keine Chance hat rechne ich damit nicht - dennoch, die Hoffnung stirbt zuletzt, auf eine Karte, bei welcher man nicht den RT/Tensor-Quatsch mitbezahlen muss (daher werde ich auch garantiert keine RTX-Karte kaufen - zumindest nicht solange eine mind. 11 GB VRAM-Karte 700 Euro kostet).

Die RTX-Karten sind allesamt ne Frechheit, preislich völlig überzogen, weil VRAM spielt für mich eine ganz wichtige Rolle, denn ich will nicht in zwei Jahren wieder ne neue Graka kaufen. Und 8 GB für 700 Euro ist ein No-Go, da kann ich auch ne RX 580 nehmen und dann in zwei Jahren wieder ne Midrange-Karte und ich zahl dann zusammengerechnet immer noch weniger.
 
  • Gefällt mir
Reaktionen: Bruder Tak, ThePowerOfDream, Chismon und eine weitere Person
j-d-s schrieb:
Naja. Sie haben aber vorsätzlich mehr Chipfläche gemacht für unnötige RT- und Tensorkerne (denn die bringen keine Mehrleistung).

Ich hoffe ja dass AMD mal liefern kann, Leistung auf RTX 2080 Ti Niveau mit 12 GB VRAM, aber dafür ohne RT/Tensor-Kerne. Dafür würde ich auch 700 Euro zahlen (wie halt bei der etwas langsameren 1080 Ti).
Ich bin immer wieder verblüfft, wie viele Fortschrittsbremsen in einem Tech-Forum wie CB rumlaufen, die allesamt nicht über den eigenen Tellerrand schauen können, sondern für die nur die reine Gaming(Freizeit)-Performance zählt. Und das in Zeiten, wo KI immer wichtiger wird...
j-d-s schrieb:
Die RTX-Karten sind allesamt ne Frechheit
Niemand zwingt dich, sie zu kaufen.
 
  • Gefällt mir
Reaktionen: LPCyber
Tue ich auch nicht :).
Ergänzung ()

SaschaHa schrieb:
Ich bin immer wieder verblüfft, wie viele Fortschrittsbremsen in einem Tech-Forum wie CB rumlaufen, die allesamt nicht über den eigenen Tellerrand schauen können, sondern für die nur die reine Gaming(Freizeit)-Performance zählt. Und das in Zeiten, wo KI immer wichtiger wird...

Woher willst du wissen, dass RT/Tensor überhaupt Fortschritt ist, also für Gaming?

Ich würde ja bei Tensor-Kernen noch mit mir reden lassen, DLSS halte ich für nen gutes Konzept. Raytracing dagegen in der Form wie es bei den RTX-Karten gemacht wird ist Unsinn, zumindest mit der geringen Rohleistung und Zahl an RT-Kernen (RT läuft ja nur auf Full HD flüssig), in zwei Jahren hat man wenn RT sich durchsetzt dann zehnmal so viele RT-Kerne und kann die RTX-2000-Karten für RT in die Tonne treten.
 
  • Gefällt mir
Reaktionen: ThePowerOfDream
j-d-s schrieb:
Ich hoffe ja dass AMD mal liefern kann, Leistung auf RTX 2080 Ti Niveau mit 12 GB VRAM, aber dafür ohne RT/Tensor-Kerne. Dafür würde ich auch 700 Euro zahlen (wie halt bei der etwas langsameren 1080 Ti).
Jup. Ich würde dafür sogar 1000 Euro bezahlen. Hauptsache ich kann dann Spiele wie NMS oder GTA in 4K Auflösung mit besseren Deteis spielen.

Die RTX-Karten sind allesamt ne Frechheit, preislich völlig überzogen, weil VRAM spielt für mich eine ganz wichtige Rolle, denn ich will nicht in zwei Jahren wieder ne neue Graka kaufen. Und 8 GB für 700 Euro ist ein No-Go, da kann ich auch ne RX 580 nehmen und dann in zwei Jahren wieder ne Midrange-Karte und ich zahl dann zusammengerechnet immer noch weniger.
Was für eine Karte hast du denn jetzt wenn ich fragen darf? Und was zockst du so?
 
Ich hab ne 780 Ti, die muss jetzt halt noch ein, zwei Jahre durchhalten, mit den derzeit völlig überzogenen Preisen für Grakas. Stell ich halt die Details runter (und ich hab eh nur Full HD).

Falls die 780 Ti vorzeitig abraucht kauf ich wohl ne RX 580 8 GB zum Übergang und dann sobalds was vernünftiges gibt (vor allem zu nem vernünftigen Preis) ne High-End-Graka.
 
  • Gefällt mir
Reaktionen: CBL und Chismon
j-d-s schrieb:
Ich hab ne 780 Ti, die muss jetzt halt noch ein, zwei Jahre durchhalten, mit den derzeit völlig überzogenen Preisen für Grakas. Stell ich halt die Details runter (und ich hab eh nur Full HD).

Falls die 780 Ti vorzeitig abraucht kauf ich wohl ne RX 580 8 GB zum Übergang und dann sobalds was vernünftiges gibt (vor allem zu nem vernünftigen Preis) ne High-End-Graka.

Bevor Du ne High End zu einem normalen Preis bekommst hasste Dir eher ne Konsole geholt.
 
SaschaHa schrieb:
[...]Fortschrittsbremsen [...]eigenen Tellerrand [...] reine Gaming(Freizeit)-Performance zählt. Und das in Zeiten, wo KI immer wichtiger wird...[...]

Öhm... dafür gibt es die Tesla und Quadro Karten.

Wenn ich Grafikkarten unter dem GeForce Label explizit an Gamer verkaufe, muss ich mich nicht wundern, wenn die Karten an der Gaming Leistung gemessen werden.
 
  • Gefällt mir
Reaktionen: TheBear1517
Ich weiß nicht, warum hier viele eine RTX 2060 für ausgeschlossen halten. Da die Karte sehr wahrscheinlich auf einem beschnittenen TU106 basieren wird, könnte man ihr durchaus die RT-Kerne der 2070 lassen und nur die sonstige Leistung reduzieren. Wie sinnvoll das ist, sei mal dahingestellt, letztlich taugt derzeit schließlich nur eine RTX 2080 Ti tatsächlich als Raytracing-Karte. Aber Marketing ist Marketing und so könnte man RT problemlos in die entsprechende Feature-Liste schreiben.
 
  • Gefällt mir
Reaktionen: CBL und LPCyber
@DeathShark Ne, ein beschnittener TU106 ist zwangsläufig immer in RT, Tensor und Cuda Cores beschnitten. Das lässt sich nicht so schön trennen, wie es in manchen schematischen Zeichnungen vlt. den Anschein gemacht hat.

Hier mal ein TU102 Die und das passende Schema dazu:
tu102.jpg

Tu102 schema.jpg


Analog sieht es beim TU106 aus:
Tu106 schema.jpg


Und runtergebrochen auf die einzelnen SMs:
Turing SM.jpg


Deaktivierst du da auch nur ein GPC (oder SM) um Resteverwertung der TU 106 Chips zu betreiben fällt die gewöhnlich Rasterisierungsleistung um 1/3, aber eben auch die eh schon 'unterirdische' RT Leistung.

Man könnte natürlich einen GPC abschalten und die RT Einheiten in den anderen beiden deaktivieren, aber dann sind -mal grob über den Damen abgeschätzt- 50% des Chips deaktiviert. Glaube nicht, dass das für NVidia wirtschaftlich ist.

PS.: Quelle: Internet
 
  • Gefällt mir
Reaktionen: CBL und ThePowerOfDream
Was soll das mit der GTX/RTX 2000er Serie, das gab es bis jetzt immer mehr Leistung zum gleichen Preis einer Serie. Wenn nvidia so weiter macht haben wir in 4 jahren eine GTX 4050 mit der Leistung einer jetzigen 1080/2070 für 600€?? Und ne mittelklasse Karte für 4070 für 1000€? Und was die da drüber kosten sollen, will ich gar nicht drüber nachdenken und alle schön max. 30% Leistungstechnisch auseinander, so wie es Intel seit Sandy Bridge mit uns macht.
 
ThePowerOfDream schrieb:
Bevor Du ne High End zu einem normalen Preis bekommst hasste Dir eher ne Konsole geholt.
Niemals, ich spiele doch nicht mit nem Gamepad. Hab nie eins besessen und brauche auch keins.

Aber vor dem Miningboom hatten wir ja vernünftige Preise (ein Jahr später waren die gleichen Preise nicht mehr vernünftig, weil eben ein Jahr ältere Hardware), jetzt hat Nvidia mal auf Wucherpreise gesetzt, daraus dann gleich zu konstruieren dass NIEMALS wieder vernünftige Preise kommen halte ich schon für abwegig.

Zumal AMD und/oder Intel sicher auch in den nächsten 10 Jahren irgendwann mal GPUs rausbringen werden die mit Nvidia mithalten können, dann gibts wieder Wettbewerb. Und wenn nicht müssen wir hoffen dass die US-Behörden Nvidia wegen illegaler Monopolbildung zerschlagen.
 
  • Gefällt mir
Reaktionen: alkaAdeluxx
j-d-s schrieb:
Niemals, ich spiele doch nicht mit nem Gamepad. Hab nie eins besessen und brauche auch keins.

Aber vor dem Miningboom hatten wir ja vernünftige Preise (ein Jahr später waren die gleichen Preise nicht mehr vernünftig, weil eben ein Jahr ältere Hardware), jetzt hat Nvidia mal auf Wucherpreise gesetzt, daraus dann gleich zu konstruieren dass NIEMALS wieder vernünftige Preise kommen halte ich schon für abwegig.

Zumal AMD und/oder Intel sicher auch in den nächsten 10 Jahren irgendwann mal GPUs rausbringen werden die mit Nvidia mithalten können, dann gibts wieder Wettbewerb. Und wenn nicht müssen wir hoffen dass die US-Behörden Nvidia wegen illegaler Monopolbildung zerschlagen.

Was hat ein Gamepad explizit mit Konsolen/PCs zu tun. Das ist nur ein Eingabegerät.
Hast du auch noch nie einen Joystick besessen? Tja, gabs früher für PCs zu Hauf, vor allem fürs Gaming.
Du hast einfach nur eine beschränkte Sichtweise.

Die Entwicklung der Preise wird sich so schnell nicht ändern. Die Leute kaufen doch die (überteuerten) RTX GPUs.
Wenn du (nahezu) High-End willst gibt's ja noch Vega(+Freesync).
Die GTX 780Ti ist ja auch nicht mal mehr Mittelklasse und dann wird hier über High-End diskutiert.:daumen:
 
v_ossi schrieb:
Öhm... dafür gibt es die Tesla und Quadro Karten.

Wenn ich Grafikkarten unter dem GeForce Label explizit an Gamer verkaufe, muss ich mich nicht wundern, wenn die Karten an der Gaming Leistung gemessen werden.
Wenn man sie schon ausschließlich an der Gaming-Leistung misst, sollte man doch auch wenigstens den Technologie-Sprung berücksichtigen. Turing sind die ersten Karten, die Raytracing ermöglichen. Mit RT haben sie die vielfache Leistung wie der Vorgänger. Auch, wenn die FPS bei Verwendung erstmal einbrechen, sollte berücksichtigt werden, dass dies die erste Generation dafür ist und ein solcher Technologie-Sprung nicht von heute auf morgen vollzogen wird.
Zudem sind die Karten bei Nicht-Verwendung ja trotzdem deutlich schneller als der Vorgänger, nur eben nicht kosten-effizienter. Aber ein Rückschritt ist es so oder so nicht.

Zudem sollte eigentlich klar sein, dass Tesla und die ganzen Spezial-Karten kaum möglich wären, wenn es nicht entsprechende Algorithmen und Software dafür gäbe. Und die für eine solch kleine Zielgruppe zu entwickeln, ist finanziell kaum möglich, wenn dies nicht auch von der Gaming-Industrie mit getragen wird.

Das alles kann man natürlich ausblenden und sich auf die reine Rasterizing-Performance beschränken, aber dann sind wir wieder beim Tellerrand.
 
@SaschaHa Ich hoffe, du hast in deiner letzten Antwort nur die Ironie-Tags vergessen oder meinst du ehrlich, dass NVidia die Profi Karten und deren Software mit den Gaming Ablegern quersubventionieren muss?

Die verdienen sich in Santa Clara seit ~2 Jahren dumm und dämlich und konnten sich sogar erlaube Volta mehr oder weniger als Experiment wieder einzustampfen. Davon gab es nur eine Titan und eine Quadro Karte mit dem gleichen Die.
Quartalszahlen.PNG

Und es wird eher anders herum ein Schuh draus; ohne Tesla und Quadro Karten hätten wir keine RTX Ableger, denn immerhin kamen die Quadro RTX 8000 mit dem gleichen Die wie die RTX 2080Ti (TU102) schon im August raus, während man auf den Gaming Ableger noch 6 Wochen warten musste. Und selbst dann ist der leicht beschnitten. 4608 Cuda Cores in der Quadro vs. 4352 in der RTX. Daran sieh man doch schon, wie rum die Priorität da gesetzt wurde.

Das alles kann/will/muss ich nicht ausblenden, aber in meinen Augen ergibt eine Sichtweise einfach keinen Sinn.

NVidia hat einen -zugegeben sehr guten; mit seinen RT und Tensor Kernen evtl. sogar revolutionären- Profi Chip entwickelt und dann das Marketing so gestrickt um einen Gaming Ableger davon vermarkten zu können.

Raytracing ist geil und Realtime Raytracing in Spielen ist ebenfalls geil, aber man muss NVidia doch nicht über Gebühr dafür dafür feiern, dass sie ein im Profi Markt sinnvolles Feature in den Consumer Markt drängen, wo es so noch nicht sinnvoll ist.

Die Auflösung bei gleicher Framerate halbieren* oder bei gleicher Auflösung die Framerate dritteln* kann auch in der ersten Generation kein sinnvoller Einstieg für etwas realistischer Pfützen sein.

*Bezogen auf die RTX Benchmark Werte aus dem Computerbase BF V Test.
 
  • Gefällt mir
Reaktionen: TheBear1517 und CBL
v_ossi schrieb:
*man vergleiche hier nur mal den Polygon Count. Kaum grafische Unterschiede, trotzdem doppelt so aufwändig zu berechnen. Also sieht die Mehrleistung nicht direkt proportional 'besser' aus. Also ja, technischer Fortschritt wird teurer, das ist mir bewusst und das ist nur das einfachste Beispiel um das zu illustrieren.
Anhang anzeigen 727391
Der Vergleich von der Seite wäre besser gewwesen denn Polygonenarmut sieht man vor allem an Rundungen wie den Rädern und Kanten der einzelnen Elemente, ein höher aufgelöstes Bild wäre auch hilfreich gewesen. ;)
 
Wadenbeisser schrieb:
Der Vergleich von der Seite wäre besser gewwesen denn Polygonenarmut sieht man vor allem an Rundungen wie den Rädern und Kanten der einzelnen Elemente, ein höher aufgelöstes Bild wäre auch hilfreich gewesen. ;)

Google ist dein Freund. Also nur zu, darfst gerne besseres Material zur Veranschaulichung hier ins Forum stellen. ;)
Mir ist die Problematik natürlich bekannt, aber besonders an der Vorderseite der Motorhaube kann man mMn gut erkennen, worauf ich hinaus will.
 
v_ossi schrieb:
Mir ist die Problematik natürlich bekannt, aber besonders an der Vorderseite der Motorhaube kann man mMn gut erkennen, worauf ich hinaus will.
Jein, dafür ist die Fläche noch zu gerade aber an den Scheinwerfern sieht man es recht gut.
Die Motorhaube wirkt bei dem Beispiel schon mit 60k Polygonen eben genug, bei 120k ist davon praktisch nichts mehr zu sehen aber bei den Scheinwerfern verschwinden die Polygonenkanten erst bei 240k. Man darf aber auch nicht vergessen dass das nur das Rohmodell ist auf das noch die Texturen und die ganzen anderen Effekte drauf kommen.
 
Zurück
Oben