News CPU-/GPU-Gerüchte: Intels 48-Kerner, AMDs 64-Kerner und Nvidia RTX 2060

Volker

Ost 1
Teammitglied
Dabei seit
Juni 2001
Beiträge
14.524
#1
Die Gerüchteküche greift in der Thanksgiving-Woche gleich mehrere Themen auf: Einen Prototypen von AMDs 64-Kern-Prozessor Rome inklusive Taktraten, von Intels 48-Kern-CPU Cascade Lake-AP soll ein Benchmark-Ergebnis vorliegen, gleiches wird auch von einer angeblichen RTX 2060 von Nvidia behauptet. Ein kurzer Überblick.

Zur News: CPU-/GPU-Gerüchte: Intels 48-Kerner, AMDs 64-Kerner und Nvidia RTX 2060
 

Falbor

Lt. Commander
Dabei seit
Okt. 2008
Beiträge
1.075
#4
na dann heißt es noch warten, bis da was verlässliches kommt, wenn in der küche so ordentlich umgerührt wird...

bin auf jeden fall schon gespannt. ganz so viel neu ist da ja nicht, die 2060 z.b. is der nächste logische schritt, wenn die 1060 auch auslaufen wie die 1080(ti)
 

Simon

Fleet Admiral
Dabei seit
Jan. 2002
Beiträge
10.297
#5
@Volker

Hast du Infos darüber, ob auch noch Intel Atom auf Basis von Goldmont+ kommen (ggf. C4000-Serie)?
Die waren ja vor rund einem Jahr in den News wegen einem möglichen 32-Kern Atom.

Oder wurde der hinten dran gestellt oder sogar komplett gecancelled, weil die 14 nm Fabs sowieso mit größeren CPUs ausgelastet sind.

Was ist eigentlich aus dem EPYC 3000 geworden? Bislang sieht man da ja auch noch nicht so viel.
 

dec7

Lieutenant
Dabei seit
Nov. 2007
Beiträge
604
#6
2060 macht ja erst Sinn wenn man den Berg an kastrierten gp104 in 1060 Form losgeworden ist. Aber gut Nvidia kann natürlich auch jederzeit noch nen Stapel "abschreiben" wie letztens, alte gp104 im Lager vs fehlerhafte tu106... wird der Berg an tu106 chips die für 2070 grad so nimmer taugen natürlich höher wenn man mit der 2060 nicht mal langsam startet.
 

Faranor

Lt. Commander
Dabei seit
Nov. 2007
Beiträge
1.350
#7
Zum Intel Text.
Die Leistung ist 2.8 mal so hoch. Bei 2.8mal höher wäre sie 3.8 mal so hoch
 
Dabei seit
Apr. 2007
Beiträge
2.776
#8
die RTX 2060 muss doch klar Fake sein? Ich dachte Nvidia hätte bereits offiziell bestätigt, dass die RTX 2070 das untere Ende der RTX-Beschleuniger dieser Generation sei? Erst mit der nächsten Fertigungsstufe soll RTX dann durch die Bank für die diskreten Grafikkarten verfügbar sein.

Ich muss mal gucken, ob ich die Quelle finde.

edit: okay, ich finde es nicht. Vielleicht hatte ich es falsch im Kopf. Aber für welche RTX-Anwendungen soll die dann überhaupt noch gut sein? Da müssten sie bei Battlefield V noch ein "Ultra-Low" DXR einführen.
 
Zuletzt bearbeitet:
Dabei seit
Juni 2011
Beiträge
2.406
#9
Sollte die Leistung stimmen, sind für den schnelleren Nachfolger der GTX 1060 aber kaum die Preise der GTX 1060 zu erwarten – die Preisspirale dürfte sich dort, wie bei den anderen Turing-Karten, nach oben orientieren.
Was aber nur darauf zurückzuführen ist, dass "wir" es schon irgendwie schlucken.

Es gibt keinen rationalen Grund, warum der 1060 Nachfolger wesentlich teurer werden sollte. Mittelklasse ist Mittelklasse und kostet mittelmäßig viel Geld. Das nach zwei Jahren und einer neuen Generation 25% mehr Leistung dabei herumkommen nennt sich technischer Fortschritt. Für 25% mehr Leistung wesentlich mehr Geld zu verlangen nennt sich Gier*.

Davon abgesehen kann NVidia die 2060 wohl kaum als RTX vermarkten, wo die 2070 schon ins Straucheln kommt, sobald entsprechende Effekte angeschaltet werden.

*Leichte Preisanpassungen und die Inflation mal außen vor gelassen.
 

Makso

Lt. Commander
Dabei seit
Okt. 2006
Beiträge
1.429
#11
Dann heizen wir mal die Gerüchteküche :)
PS5 APU Zen2 & Navi @ 7nm
8c/16t @2,6Ghz zen2
Navi GPU @ 2ghz und 9,7 TFLOPs
unbekannt.jpg
 
Dabei seit
Juli 2012
Beiträge
2.052
#12
wenn es sich in Sachen 2060 bewahrheitet wird es nur hier und da ein Schnäppchen in Sachen 1070(ti) geben kein Abverkauf, denke die Beste Möglichkeit eine Karte günstig ab zu greifen - ist in den kommenden Angeboten zu/vor Weihnachten...
 
Dabei seit
Feb. 2012
Beiträge
3.984
#13
Ja wenn es soviele 1060 gibt, wo bleiben die Preissenkungen
Warum sollte man den Preis senken, wenn man den nachfolger mit schlechter Preis Leistung auf den Markt wirft, dann verkaufen sich die alten Karten doch von ganz alleine. Sieht man doch super bei der 1080(ti). Wenn dann die alten karten abverkauft sind, passt man lieber die neuen karten etwas im Preis an.
 
Zustimmungen: ed33
Dabei seit
Okt. 2007
Beiträge
4.091
#14

SaschaHa

Lt. Commander
Dabei seit
Nov. 2007
Beiträge
2.014
#16
Es gibt keinen rationalen Grund, warum der 1060 Nachfolger wesentlich teurer werden sollte. Mittelklasse ist Mittelklasse und kostet mittelmäßig viel Geld. Das nach zwei Jahren und einer neuen Generation 25% mehr Leistung dabei herumkommen nennt sich technischer Fortschritt. Für 25% mehr Leistung wesentlich mehr Geld zu verlangen nennt sich Gier*.
Doch gibt es. Die Chipfläche ist durch die neue Architektur enorm gewachsen, damit auch die Herstellungskosten. Der "Fortschritt" ist somit durch höhere Kosten erkauft, also kein "echter" Fortschritt in Bezug auf die Produktionskosten. Das kommt erst mit einem DIE-Shrink.
 
Dabei seit
Juni 2005
Beiträge
3.475
#17
Wie man es nicht machen sollte sieht man ja gerade bei Samsung.

Galaxy S7 zum Schleuderpreis, jeder wartet auf den Preisverfall bei S8 und S9. Ich denke Samsung wird es schwer haben jemals wieder ein Handy über 500 EUR zu verkaufen.

NVidia dagegen scheint gewillt zu sein die Preise stabil zu halten. Mal sehen ob sie genug Puste hat, um durchzuhalten.
 
Dabei seit
Juni 2007
Beiträge
2.290
#18
Wie man es nicht machen sollte sieht man ja gerade bei Samsung.

Galaxy S7 zum Schleuderpreis, jeder wartet auf den Preisverfall bei S8 und S9. Ich denke Samsung wird es schwer haben jemals wieder ein Handy über 500 EUR zu verkaufen.
Der Handy Markt ist aber viel breiter aufgestellt und hat ausreichend Konkurrenz.
Wenn man aktuelle top-Leistung bei GraKas möchte muss man zu nV greifen.
 

SKu

Vice Admiral
Dabei seit
Aug. 2012
Beiträge
6.874
#19
Es gibt keinen rationalen Grund, warum der 1060 Nachfolger wesentlich teurer werden sollte.
Doch, indem die zusätzliche Leistung über eine größere Chipfläche erkauft wird. Das steigert die Kosten und diese wiederum werden auf die Kunden umgelegt. Man sieht es doch auch bei der Ti. Die-Size ist um 60% gestiegen im Vergleich zum Vorgänger. Dazu kommt evtl. noch eine schlechte Yield-Rate und treibt die Kosten noch weiter nach oben durch ein geringes Angebot.

Auch bei einer RTX 2060 würde sich zwangsläufig die Die-Size erhöhen aufgrund der zusätzlichen Ray- und Tensor-Cores. Vom Preis gleichbleibend zu sein würde bedeuten, dass Nvidia alle Einheiten in ähnliche Die-Größe pressen müsste wie es bei der 1060 der Fall ist. Das wird aber mit 12nm nicht passieren, denke ich.
 
Dabei seit
Juni 2011
Beiträge
2.406
#20
Doch gibt es. Die Chipfläche ist durch die neue Architektur enorm gewachsen, damit auch die Herstellungskosten. Der "Fortschritt" ist somit durch höhere Kosten erkauft, also kein "echter" Fortschritt in Bezug auf die Produktionskosten. Das kommt erst mit einem DIE-Shrink.
Die Chipfläche wird mit der Zeit aber billiger. Die Kosten pro 16nm Wafer waren 2016 mit Gewissheit höher, als sie es heute bei 12nm Wafern sind, die ja selbst auch nur optimierte 16nm Wafer sind.
Wie viel größer der Chip selbst wird, steht ebenfalls noch gar nicht fest. Die Tensor und RT Einheiten könnten z.B. komplett entfallen, da die schon bei der 2070 nicht ausreichend dimensioniert sind um die gewünschten Effekte zu liefern. Damit bleibt wahrscheinlich ein recht 'konservativer' Chip über; ein Turing Aufguss von Pascal in 12nm. Der muss nicht zwangsläufig größer sein und gewiss nicht viel teurer.

Aber Jen-Hsun "Jensen" Huang freut sich bestimmt, dass du deren Verhalten auch noch ohne Grundlage schön redest.
Die Preiserhöhung beim Die Shrink in 7nm kannst du dann übrigens damit rechtfertigen, dass das eine neue Technik/Fertigungsgröße ist und diese NVidia ja teuer zu stehen kommt. Da sind die 1499€ für die 3080Ti ja irgendwie noch fair. :rolleyes:

PS.: Auch an @SKu Woher nehmt ihr eigentlich die Gewissheit, dass der einzelne Die so viel teurer geworden ist?
 
Top