News Interview: AMD über Zen 3, Big Navi, Desktop-APUs und mehr

DonL_ schrieb:
Wenn du schlicht und einfach zu dumm bist,......
Jetzt wirst du auch noch persönlich, und bezeichnest mich als dumm.
Wenn ich einmal Quatsch schreibe, gebe ich dass ganz offen zu, und habe auch überhaupt kein Problem damit gegen den Strom zu schwimmen.

Genau deshalb habe ich mich selbst bei PCGH gelöscht, weil die Community toxischer ist als hier, und Post wie deine bestätigen mich immer wieder.....
 
Der Test stammt von CB und nicht mir und diente der Vergleichbarkeit, eine 5700XT taktet ohne Probleme 1900-2000 MHZ, aber ansonsten ist hiermit das Gespräch für mich beendet!

Und ja Leonadis ist ein Schwätzer, wenn er davon ausgeht, das Nvidia von einem Jahre alten (Verbesserungen) 12nm Prozess bei gleicher Chipgröße, bei dem Sprung auf 7nm EUV die Transistorenanzahl schlicht verdoppeln kann, da das noch kein anderer Hersteller geschafft hat!
Ergänzung ()

matty2580 schrieb:
Jetzt wirst du auch noch persönlich, und bezeichnest mich als dumm.
Wenn ich einmal Quatsch schreibe, gebe ich dass ganz offen zu, und habe auch überhaupt kein Problem damit gegen den Strom zu schwimmen.

Du warst 0,0 damit angesprochen!
 
Dann sorry, ich hatte dass falsch verstanden, und entschuldige mich gleich dafür. ^^

Und Leo als Schwätzer zu bezeichnen, halte ich selbst für sehr ungerecht.
Jedes Gerücht deklariert er mehrfach, und gibt sich selbst unheimlich viel Mühe möglich neutral zu bleiben.
Die Industrie liefert halt kaum Fakten für eine vernünftige Diskussion, besonders Nvidia nicht, wo eine neue Gen oft einen Monat vor Release erst offiziell vorgestellt wird.
 
  • Gefällt mir
Reaktionen: yummycandy und MR2
DonL_ schrieb:
Und ja Leonadis ist ein Schwätzer, wenn er davon ausgeht, das Nvidia von einem Jahre alten (Verbesserungen) 12nm Prozess bei gleicher Chipgröße, bei dem Sprung auf 7nm EUV die Transistorenanzahl schlicht verdoppeln kann, da das noch kein anderer Hersteller geschafft hat!
Vielleicht bist du ja einfach nur ein Schwätzer ,wenn du nichtmal weißt das der "12 nm" einfach nur ein modifizierter 16nm ist und kein Shrink in dem Sinne, und Leo da doch etwas mehr Durchblick hat, wenn er 16nm u 7nm Vergleicht
Und mit der Info im Nacken ,ist es eben doch möglich die Transistorzahl zu verdoppeln, wenn nicht gar mehr ,sollte Nvidia gar wieder einen 700 mm2 großen Chip auflegen , als Titan oder Ti Brand

Als Volta kam ,ist auch einigen die Kinnlade gekippt, ob der schieren Größe ,im damals frischen Prozess

poor war da lediglich das AMD Marketing
 
Zuletzt bearbeitet:
JohnDeclara schrieb:
Mir ging es vorallem um die 2080TI, die weit über dem liegt, was die 1080TI gekostet hat, weswegen ich auch ganz deiner Meinung gefolgt bin und mir diese nicht geholt habe, sondern auf das ca. 350,- billigere Modell zurückgegriffen habe, obwohl die Leistung für AAA-Title in 4K nicht immer ausreicht.

Sorry, ne 1080ti gegen eine 2080s ersetzen und sich überhohe Preise beklagen......
Versteh mich nicht falsch, wenn man immer das Neueste und Beste haben muss, soll man sich es kaufen. Gerne. Aber dann akzeptier die Preise wie sie sind und beklag dich nicht.
Wenn man güstigere Preise haben will, dann muss man halt auch mal nicht kaufen. Das einzige was die Hersteller verstehen ist Konsumverzicht. Wenn die Teile wie Blei im Regal liegen und der Umsatz nicht mehr stimmt, wird's billiger.

Viel schlimmer trifft es diejenigen, die kleineres Budget haben und Mittelklasse kaufen wollen/würden.
Durch die überzogenen Preise der Highend-Karten, die ja fleissig gekauft werden, rutschen die auch massiv nach oben.

Cunhell
 
  • Gefällt mir
Reaktionen: Rock Lee und Rockstar85
matty2580 schrieb:
Dann sorry, ich hatte dass falsch verstanden, und entschuldige mich gleich dafür. ^^

Und Leo als Schwätzer zu bezeichnen, halte ich selbst für sehr ungerecht.
Jedes Gerücht deklariert er mehrfach, und gibt sich selbst unheimlich viel Mühe möglich neutral zu bleiben.
Die Industrie liefert halt kaum Fakten für eine vernünftige Diskussion, besonders Nvidia nicht, wo eine neue Gen oft einen Monat vor Release erst offiziell vorgestellt wird.


Leonadis ist in seiner Analyse zu Ampere, die ich damals als Link von dir hatte, von einer Verdoppelung der Transistoranzahl bei gleicher Chipgröße beim Sprung von 12nm auf 7nm ausgegangen, ohne das auch nur mit dem geringsten Beleg oder einer Argumentation zu belegen.

Die Fakten der anderen Hersteller die bereits auf 7nm unterwegs sind, zeigen, dass das nicht der Fall ist, man ist bei 75-80% und nicht 100% von 12/14/16nm und alle hatten ihre Probleme bei der Umstellung, da gerade der normale 7nm Prozess ohne EUV noch nicht wirklich für riesige Chipgrößen wirtschaftlich oder von der Ausbeute optimal ist. Auch Nvidia muss erstmal mit dem neuen Prozess zu Rande kommen, das alles hat Leonadis völlig ausgeblendet und ist mehr oder Minder von einer einfachen Verdoppelung der Turingleistung ausgegangen, was ich als unseriös für eine erste Literation in einem neuen Prozess empfinde!
Ergänzung ()

captain kirk schrieb:
Vielleicht bist du ja einfach nur ein Schwätzer ,wenn du nichtmal weißt das der "12 nm" einfach nur ein modifizierter 16nm ist und kein Shrink in dem Sinne, und Leo da doch etwas mehr Durchblick hat, wenn er 16nm u 7nm Vergleicht
Und mit der Info im Nacken ,ist es eben doch möglich die Transistorzahl zu verdoppeln, wenn nicht gar mehr ,sollte Nvidia gar wieder einen 700 mm2 großen Chip auflegen , als Titan oder Ti Brand

Als Volta kam ,ist auch einigen die Kinnlade gekippt, ob der schieren Größe ,im damals frischen Prozess

poor war da lediglich das AMD Marketing

Die Packdichte des 12nm Turing Prozess ist nach Angaben im Internet eindeutig höher als des 16nm Pascal Prozess!
 
Zuletzt bearbeitet:
Aktuell kann man noch GAR NICHTS abschätzen, wie 7nm EUV bei AMDs GPUs wird, oder bei Nvidia.

Deshalb halte ich selbst mich aus entsprechenden Diskussionen fast immer zurück, und zitiere hier selten einmal Leo, weil er viel mehr Hintergrundwissen hat als ich, dass 3dcenter auch keinen NDA hat, und theoretisch ganz offen schreiben kann.

Zum neuen Fertigungsprozess kommen ja noch Architekturänderungen von AMD und Nvidia dazu.
Und auch dazu gibt es aktuell NULL Infos bis jetzt......

Einzig Leo traut sich ab und zu einmal an das Thema heran, was natürlich furchtbar schrecklich ist.....

Um wirkliche Infos zu bekommen, müsste ich schon mit Huang schlafen.....
Und selbst dann wird er nicht sehr gesprächig sein, weil er kein dummer Kerl ist. ^^
 
DonL_ schrieb:
Die Packdichte des 12nm Turing Prozess ist nach Angaben im Internet eindeutig höher als des 16nm Pascal Prozess!

Es ist die selbe Strukturgröße wie der 16er , lediglich modifiziert für Nvidia und mit Marketingsprech 12nm tituliert .Also nenn nicht irgendwem nen Schwätzer wie du es bei Leo tust ,wenn dir das nichtmal bewusst war

Für Nvidia gehts also mit Ampere runter von 16nm , auf 7nm /(+??) , und der Nodesprung hat sehr wohl das Potential für Nvidia ,die Transistordichte signifikant zu steigern
 
Zuletzt bearbeitet:
AMD hat das geschafft was sie wollten, sie sind in aller Munde.
Die AM4 Plattform ist zur Zeit die beste, auch mit den schlechten x570 der zu viel Abwärme produziert. Ich kann mir mal eben für 30 Euro eine CPU kaufen und sie später durch eine 800 Euro CPU ersetzen (ggf. die vrm's des boards machen mit) und bin dann schneller als die high end Plattform von Intel. Auch wenn paar Intel jünger meinen, dass ist eine schlechte Option, wegen den alten Funktionen.... Ich bin mir ziemlich sicher, dass es hier den meisten Usern um die Leistung und Geld geht und nicht ob es jetzt PCI-3.0 oder 4.0 PCI hat. Klartext viel Leistung für wenig Geld und das Bietet AMD auf jedenfall!
 
Pisaro schrieb:
Gut, geht wohl nicht bei allen Monitoren. Aber wohl bei sehr vielen.
Bei dem Samsung flickert das Bild wenn eine Nvidia benutzt wird.
 
@happylol:
Du findest also Nvidias Preispolitik ok, und es auch überhaupt nicht komisch wenn Nvidias 1660S als Preisdrücker für AMDs 5600XT agiert? ^^

Hat sich dein Gehalt seit Fermi-Zeiten mehr als verdoppelt?
Mein Einkommen leider nicht....:(
 
  • Gefällt mir
Reaktionen: rolandm1
Satan666 schrieb:
Das ist doch das verdammte Problem! JEDER wünscht sich Konkurrenz in diesem Bereich, jeder vernünftig denkende Mensch jedenfalls

Sorry, aber die Wahrheit ist eher das interessiert kein Schwein ob es eine andere Grafikkarte jenseits der 500€ gibt, die dann trotzdem kein besseres 4k ermöglicht. Finde diese Grafikkarten völlig Sinnfrei, was auch der Gaming-Markt immer wieder bestätigt. Kaum optimierte Games und Verkaufszahlen im Vergleich zu Konsole und Mainstream-Hardware geradezu ein Witz.
Dir wird es auch nichts bringen wenn AMD was schnelleres für 50€ weniger raus bringt.
Die Wahrheit ist nämlich, in dem Preisbereich machen ein paar Euro gar nichts. Entweder man gönnt sich das oder eben nicht. Du kannst auch bei Nvidia 500 oder 1.000 Euro für eine Grafikkarte ausgeben. AMD wird daran nichts ändern. Kauf dir Enthusiast Hardware wenn du es willst oder ganz normale Hardware, wie jeder "vernünftige" Mensch.
Durch die AMD Konsolen Deals und Nvidias Eigenbrödlerei am PC wird sich eh nichts ändern, die Standpunkte sind völlig klar. Nvidia bleibt gar nichts als irgendwelche Enthusiasts mit Anpassungen zu bespaßen.

Ich hab erst einem Freund einen PC zusammengebaut für 450€ da er nicht viel Kohle hat, da hat sogar der 100€ AMD 6 Kern rein gepasst und eine 8 GB VRAM Karte. Besseres P/L geht gar nicht, der kann alle Games mit hohen Details und sehr guten FPS zocken. Und andere kaufen für 800€ oder so Grafikkarten, sollte man auch mal drüber nachdenken. Nach 1-2 Jahren sind die eh immer veraltet und die Enthusiasts kaufen sich wieder neue Hardware, gibt dafür einfach Null Argumente. Kommt viel häufiger auf die verwendete Technik an als auf die Leistung, die wird nämlich am PC eh kaum abgerufen, als ob Nvidia jahrelang Treiber für die letztjährige Serie verbessert so wie es auf den Konsolen oder guter Mittelklasse Hardware möglich ist. Bin immer wieder verwundert, w,as Einsteiger-Hardware zu leisten im Stande ist. Gerade die Eenthusiast sollten sich mal mit jemand treffen der solche Hardware hat und was damit geht zu welchem Preis, öffnet häufig die Augen für eine andere Ansicht... ich hatte früher mal SLI / Crossfire...
 
Zuletzt bearbeitet:
captain kirk schrieb:
Sorry du legst den Turing also Fußfesseln an , um was aufzuzeigen,das AMDs Navi nicht in dessen Taktregionen kommt, und sich trotzdem schon 7nm bedient?
Eine Shrink den Nvidia nicht mal in Betracht gezogen hat für Turing
Bitte belege dass der von AMD verwendete 7nm Prozess bezüglich Taktrate auch besser ist, als der für NV angepasste Prozess.

Naja, es wird spannend das Jahr. Mit 7nm+ von TSMC, wird man dann genauer vergleichen können. Dann wird man sehen, woher die Performance kommt, aber auch der höhere Takt, wenn gleich sowohl NV und AMD an den jeweiligen Arch weiter optimieren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DF86
master.science schrieb:
Nvidia bleibt gar nichts als irgendwelche Enthusiasts mit Anpassungen zu bespaßen.
Nvidia bespaßt nicht nur die Enthusiasten(siehe Steam ,oder generell die Marktanteile bei diskreten Karten) , und wenn sie weiter so Gaß geben, dann werden sie auch wieder ne Option für Konsolen, ohne sich zu prostituieren und auf Marge zu verzichten

Nintendo hats glaub ich auch nicht geschadet , auf Nvidia Hardware zu setzen , wo wir mit dem Tegra ein weiteres Einsatzszenario haben
Und ich nehme auch mal an das die Shield , ebenso recht erfolgreich ist u war
 
Zuletzt bearbeitet:
AMD und Nvidia werden (vermutlich) gleich viel vom neuen Fertigungsprozess von TSMC profitieren.

Offen in der Rechnung sind hier Architekturveränderungen, über die wir heute noch GAR NICHTS wissen.

Schon bei Turing wurde hier in diesem Forum völlig FALSCH argumentiert.
Angeblich sollte Turing nur ein Pascal-Shrink werden, ohne viel Änderungen.
Turing brachte aber die größten Architekturänderungen seit Maxwell mit.....

Spekulationen dazu bringen wenig, weil selbst wir alle zusammen viel zu wenig Infos haben.....
 
@captain kirk
Der Zug ist wie auch die letzten Jahre für die nächsten Jahre bereits abgefahren, zumal neben dem Paket was AMD bieten kann bei Nvidia der einzige Vorteil wäre eine große dedizierte High-End GPU zu verbauen, womit Sony schlechte Erfahrungen gemacht hat, dadurch war die PS3 noch teurer als eh schon. Und naja dadurch das Nvidia immer einen Sonderweg geht und nicht wie AMD lizenzfreie Software nutzt hat auch viel dazu beigetragen, siehe Havok vs Physx... was gabs am Ende für Konsole?

Ist ja nicht so, dass Microsoft und Sony beide nicht schon Erfahrungen mit Nvidia gemacht hätten. Die erste XboX damals war quasi ein Panzerschrank.

Würden vermutlich aktuell nicht mal umsteigen, wenn Nvidia ein besseres Angebot macht, also z.B. Zen + Nvidia GPU. Das rentiert sich einfach nicht, im Konsolenmarkt kommt es auf den Verkaufspreis an und da bringt es nichts mehr eine dedizierte Enthusiast Grafikkarte zu verbauen. Beim Preis gibt es auch Grenzen, ich mein schau dir an was so eine Nvidia GPU kostet, das ist deutlich mehr als die gesamte Konsole, selbst wenn sie den 1.000 Euro Enthusiast Chip für die Hälfte verschleudern.

Nintendo geht ja sogar ganz andere Wege, da nimmt man gut und gerne einen Tegra den man sonst nur noch im Auto unterbekommmt. Win - Win für beide Seiten, die Switch finde ich für ein 720p Gerät übrigens massiv überteuert, da habe ich schon vor 4 Jahren zu dem Preis 2k Tablets bekommen... aber naja, da hatte Nvidia auch Glück das man von ATI Adreno abgestoßen hat, sonst wären die in dem Bereich auch noch Nummer 1. Ich sag mal so, wäre auch nicht unbedingt ideal wenn AMD in jedem Marktsegment dominieren würde. Lasst Nvidia den PC Enthusiast Nischenmarkt und deren Anpassungen, so lange sie damit Geld verdienen.


Entscheidend ist vor allem, dass AMD alles aus einer Hand bauen kann und man einen gemeinsamen Speicher für System und GPU verbaut. Das wäre mit Nvidia bedeutend schwieriger zu bewerkstelligen, denn die müssten erst solch starke iGPUs entwicklen und da die auch nur mit Wasser kochen... ich denke sogar, da wäre nicht viel besseres als bei AMD drin. So wie ich Microsoft und Sony kenne werden die sich nicht lumpen lassen und RNDA2 wird ziemlich krass sein in den Konsolen, dazu die wirklich starken Zen Cores von AMD. Ist kein Vergleich mehr zur aktuellen Gen was die Leistung angeht...
So nen 8 Core mit 16 Threads, mindestens 12 GB VRAM und RDNA2 würde auch jeder am PC nehmen, dazu hoch angepasst und auf Games optimiert... vermutlich wieder extra Cache verbaut, etc...


captain kirk schrieb:
Und ich nehme auch mal an das die Shield , ebenso recht erfolgreich ist u war

So erfolgreich, dass man Shield in Europa importieren musste. Das Ding war ein Fiasko und der Tegra ist nur wegen der Switch ein Erfolg, ansonsten wie gesagt nur im Auto untergekommen. Dort ist es egal wenn man Mondpreise verlangt, Auto kostet eh entsprechend.
 
Zuletzt bearbeitet:
pipip schrieb:
Aber vllt wiedersprichst du auch gern dem CEO von NV, der selbst gesagt hat, den besten Prozess für ihre Chips verwendet zu haben. Oder glaubst TSMC hat nur AMD 7nm angeboten?

@Jensen Huang
Der Vorteil eines neuen Prozesses sei eine erhöhte Leistung, kombiniert mit einem niedrigeren Energieverbrauch, und hier sieht man sich auch mit der alten 12-Nanometer-Fertigung gegenüber dem Mitbewerber AMD immer noch im Vorteil

er sagt da sehr wohl das der 7nm Vorteile bringt, die man derzeit aber nicht benötigt, weil man mit 12nm noch gut aufgestellt ist
Er war einfach wirtschaftlich noch nicht in dem Bereich für den es Nvidia dazu bringen würde zu wechseln ,wozu auch der höheren Kosten wenn man sich Turing ansieht
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Web-Schecki
AMD konzentriert sich dieses Jahr lang ganz auf die Semi-Custom-Chips der nächsten PS5 und X-Box.
Da werden sie viele, viele Millionen Chips verkaufen, und die RTG wird damit auch sehr erfolgreich sein.

Was wir "Techies" dabei bedeuten, wie R. Hallock von AMD uns bezeichnet, könnt ihr selbst, ohne große Glaskugel, ableiten.....^^
 
@captain kirk
Genau und schon gibst du @DonL_ Hand und Fuß, denn NV profitiert vom großen Die und Taktrate des 12nm Prozess und einfacheren Fertigung. Somit sehe ich bei 7nm+ keinen Vorteil mehr, sondern Architekturvergleiche, worauf @DonL_ hinauswollte.

captain kirk schrieb:
er sagt da sehr wohl das der 7nm Vorteile bringt, die man derzeit aber nicht benötigt, weil man mit 12nm noch gut aufgestellt ist
Er sagt, man ist im Vorteil?

Tegra wird auch kein besserer Deal als der von AMD mit Sony und MS sein. Tegra selbst war eigentlich für Tablets geplant.
 
Zuletzt bearbeitet:
Zurück
Oben