News CES-Keynote: AMD über Raytracing, 16 Kerne und PCIe 4.0

Toprallog schrieb:
Da eine RTX 2080 leistungsmäßig ungefähr auf der Höhe einer GTX 1080ti ist und dabei teilweise schon unter 500 Euro kostet, würde ich mich ärgern. War aber vor 3 Wochen schon ähnlich. Schlechter Deal, vermute ich.
Eine RTX 2080 ist leistungstechnisch 1 zu 1 wie eine 1080TI. Wenn du Raytracing nicht benutzt.
Wenn du es einschaltest dann hat sie keine Chance gegen eine 1080TI. Dann stell ich mir die Frage warum eine Karte kaufen die schlechter ist wie meine wenn ich das neue Feature benutze ?
 
TheMetalViking schrieb:
Auf den I/O Die. Das hätte was. Platz sollte auf dem Teil genug sein, ist ja riesig.

Riesig im Sinne von: Da ist noch was im Busch.

ca 1/3 beim Ryzen Die war für i/o bestimmt , das wären auch schon 63mm2 , dieser I/O chip ist meiner Meinung nach größer weil er bereits auf mehrere Konfigurationen ausgelegt ist = I/O + ein 8C chiplet / + 2 zwei 8C chiplets / + einem Navi Chiplet
 
  • Gefällt mir
Reaktionen: Gortha
mrhanky01 schrieb:
Wenn du es einschaltest dann hat sie keine Chance gegen eine 1080TI. Dann stell ich mir die Frage warum eine Karte kaufen die schlechter ist wie meine wenn ich das neue Feature benutze ?
Der Vergleich hinkt. Sinnvoll ist so ein Vergleich nur, wenn du mit gleichen Einstellungen arbeitest. Schalte Raytracing bei einer GTX 1080Ti ein (ich weiß, dass geht treiberseitig nicht - aber mal hypothetisch), dann hat die 1080 Ti keine Chance.
Sonst könnte ich ja auch behaupten, dass meine GTX 1060 besser als eine RTX 2080 ist, weil die 1060 in 720p mehr fps liefert, als die 2080 in 4K... auch völlig Banane der Vergleich.

Meine Aussage zum Preis und zum Deal, habe ich in einem späteren Post ja schon revidiert. :)
 
  • Gefällt mir
Reaktionen: Zitterrochen und mrhanky01
xexex schrieb:
Habe ich nie behauptet und AMD hast du ins Spiel gebracht, also spare dir bitte irgenwelche Fanboy Vorwürfe.

Ich habe nie behauptet, dass AMD selbst produzieren würde, was du einem in bester Fanboy Manier jedoch gleich vorgeworfen hast, von daher nein spare ich mir nicht, da es bei dir 100% zutrifft. Liest man von dir doch immer nur so gestänkere in den entsprechenden Threads...
Und dazu wird keine Gelegenheit ausgelassen den anderen Unwissenheit etc zu unterstellen ala AMD fertigt aber nicht mehr selbst :rolleyes:

xexex schrieb:
Behaupotet habe ich jedoch, wie der Volker schon angemerkt hat, dass die EUV Produktion ihre eigenen Kiosten und Fallstricke hat.

Volker hat auch behauptet, dass auf der CES keinen neue Produkte vorgestellt werden, da er keine Infos hat. Auf seine Meinung kann man nicht besonders viel geben, aber das kann ja jeder selber beurteilen.

xexex schrieb:
Wie du schon selbst anmerkst arbeitet Intel schon seit Jahren daran und auch TSMC hat zum gleichen Zeitpunkt mit der Entwicklung begonnen. Diese Kosten und die Jahrelange Entwicklung wird in der erster Zeit auf Kunden und Produkte umgewälzt und macht die Produktionskosten alles andere als günstig.

Und wenn ich lange an etwas arbeite, es nicht zum laufen bekomme, andere Fabs deswegen wieder hoch oder umrüsten lassen muss, macht das meinen Prozess günstiger? Klingt wirklich sehr logisch!
Und wie lange TSMC an den Schritten forscht weißt du doch gar nicht, ansonsten müssten die Smartphone SOCs ja auch immer sündhaft teuer sein, deiner Logik nach.
Aber hier zu behaupten AMD würde bei TSMC teuer fertigen und bei intel ist alles für ein Apfel und ein Ei zu haben ist doch sehr haarstreubend....
 
Bärenmarke schrieb:
Aber hier zu behaupten AMD würde bei TSMC teuer fertigen und bei intel ist alles für ein Apfel und ein Ei zu haben ist doch sehr haarstreubend....

Du dichtes dir schon wieder Sachen hinzu die niemand gesagt hat. Volker meinte, dass die 7nm fertigung am aktuellen Stand bestimmt nicht billig ist und dem kann ich nur zustimmen. AMD und Intel reimst einzig du dir dazu.

Die jahrelange Forschung, Fehlversuche und Probleme werden alle Fertiger auf die Prudukte umwälzen. Die reinen fertigungskosten sind da zunächst nur ein kleiner Teil davon.
 
xexex schrieb:
Du dichtes dir schon wieder Sachen hinzu die niemand gesagt hat. Volker meinte, dass die 7nm fertigung am aktuellen Stand bestimmt nicht billig ist und dem kann ich nur zustimmen. AMD und Intel reimst einzig du dir dazu.

Die jahrelange Forschung, Fehlversuche und Probleme werden alle Fertiger auf die Prudukte umwälzen. Die reinen Fertigungskosten sind da zunächst nur ein kleiner Teil davon.

Richtig , TSMC wird die Kosten umwälzen , was sich ja auch im hohen Wafer Preis wiederspiegelt , das war s dann aber auch für AMD , durch die kleinen Chiplets sind die Kosten für AMD gar nicht mal sooo hoch , denn die Ausbeute an komplett intakten dürfte bei 70 - 75 % liegen , weil so klein , die restlichen 25 - 30 % dürften wiederum nicht komplett defekt sein , vermutlich kann man einen Großteil noch als 4 / 6 Kerner gebrauchen , wegen der geringen Chipgröße dürfte der Anteil der komplett funktionsunfähigen im einstelligen Prozentbereich liegen .
Zudem , TSMC hat nicht nur den 7 nm schnell zum laufen gebracht , sie hatten die Produktion sogar vorgezogen , zum Vergleich Intel : seit 2016 Jahr für Jahr Ankündigungen von 10 nm Chips , wer hatte wohl die höheren Entwicklungskosten ? und wird versuchen die auf die Kunden umzulegen .... ?
 
Ich möchte dich korrigieren @MK one. Ursprünglich sollten 2015 schon 10nm Mobilchips von Intel kommen.
 
  • Gefällt mir
Reaktionen: Benji18
Cinebench ist extrem FPU lastig und bei den FPUs hat AMD Zen2 ja deutlich überarbeitet, so sind die AVX Einheiten nun 256 statt vorher nur 128 Bit breit. Man wird sehen müssen wie die Performance bei anderen Benchmarks und bei Spielen sein wird, inbesondere bei denen die sehr an der Singlethreadperformance hängen. Ist doch klar das AMD für die Demo etwas auswählt wobei die CPU besonders gut abschneidet, dies sagt aber nicht wie gut sie bei anderen Benchmarks ist. Vielleicht hat man ja auch das SMT so erweitert das die Kerne bei FPU Befehlen die AVX Einheit mit zwei getrennten Befehlen zeitgleich nutzen können, was für die Zielgruppe von Rome ja sehr interessant wäre, denn die haben ja meist auch FPU-lastige Anwendungen.
 
MK one schrieb:
Zudem , TSMC hat nicht nur den 7 nm schnell zum laufen gebracht , sie hatten die Produktion sogar vorgezogen , zum Vergleich Intel : seit 2016 Jahr für Jahr Ankündigungen von 10 nm Chips , wer hatte wohl die höheren Entwicklungskosten ? und wird versuchen die auf die Kunden umzulegen .... ?

Da brauchen wir gar nicht darüber zu diskutieren, natürlich frisst die Entwicklung bei Intel enorme Gelder auf. Die bezahlen wir auch schon seit Jahren mit! Globalfoundries hat sich ja nicht umsonst aus dem Geschäft verabschiedet, weil die Kosten nun mal exponentiell in die Höhe gestiegen sind.

Bei einem Fertiger kommt natürlich aber noch ein gewisses Risiko dazu. Sie müssen die Investitionskosten möglichst zeitnah einholen, weil ein aktueller Prozess morgen schon veraltet sein kann und die Kunden sich immer den aussuchen werden, der die möglichst aktuelle Technik zu einem günstigen Preis liefern kann.

Ist aber letztlich irrelevant, ich bin nur durchaus der Meinung, dass 7nm heute exponentiell teuer ist, auch wenn die reine Fertigung an sich eigentlich nicht so viel teurer auf dem Papier erscheint.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xexex
Holt schrieb:
Cinebench ist extrem FPU lastig und bei den FPUs hat AMD Zen2 ja deutlich überarbeitet, so sind die AVX Einheiten nun 256 statt vorher nur 128 Bit breit.
Seit wann spielt für Cinebench AVX eine Rolle? Habe ich da was verpasst?
Die 256 Bit AVX Einheit dürfte man auch nur dann mitbekommen wenn man den entsprechenden Code bekommt und er in einem Rutsch anstatt in 2 Durchläufen durch geht. Die Singlethread Performance dürfte bei einer ähnlichen Architektur ein erster Linie an der Taktfrequenz hängen und SMT kann nur das nutzbar machen was der Code von den Ausführungseinheiten ungenutzt lässt, daher auch die extreme Varianz bei dessen Auswirkungen auf die Performance mit unterschiedlichen Programmen.
 
  • Gefällt mir
Reaktionen: aldaric
xexex schrieb:
Bei einem Fertiger kommt natürlich aber noch ein gewisses Risiko dazu. Sie müssen die Investitionskosten möglichst zeitnah einholen, weil ein aktueller Prozess morgen schon veraltet sein kann und die Kunden sich immer den aussuchen werden, der die möglichst aktuelle Technik zu einem günstigen Preis liefern kann.

Ist aber letztlich irrelevant, ich bin nur durchaus der Meinung, dass 7nm heute exponentiell teuer ist, auch wenn die reine Fertigung an sich eigentlich nicht so viel teurer auf dem Papier erscheint.

Dem ist so , er ist teuer , daher auch der Aufwand den AMD betreibt mit dem I/O Chip in 14 nm , die kleine 8 C Chiplets mit 75 - 80 mm2 sind jedoch winzig , dementsprechend ist der Ausschuss auch gering ... , und vor allem , der 7 nm funktionierte auf Anhieb .
Der 7 nm FF= TSMC N7 wird nicht alt werden , ich gebe ihm 1 - 1,5 Jahre , dann wird er durch den N7+ = 7 nm FF+ ( mit EUV ) abgelöst , die Risk Production geht bei TSMC dazu bald los , denke mal 1Q 2019 , falls das gut läuft wird die Umstellung recht schnell erfolgen , denn TSMC hat den größten Vorteil davon , erstens sinkt die Ausschussrate weil die Anzahl der Belichtungen ( und damit Fehlerquellen ) sinkt , und für TSMC vermutlich wichtiger , sie können mit stärkerem Laser arbeiten und damit schneller belichten = der Ausstoss an belichteten Wafern erhöht sich.
Für den Kunden ist neben dem höheren Yield noch die 10-15 % geringere Leistungsaufnahme interessant , die Performance jedoch erhöht sich allenfalls im unteren einstelligen Prozentbereich beim N7+ .

Den N5 = 5 nm , komplett in EUV , nun ja , ich denke da ist es noch zu früh um etwas dazu zu sagen , außer das ich denke das TSMC da an den Quantenphänomenen zu knabbern haben wird , die verstärkt auftreten je kleiner der Prozess wird und ich nicht glaube das sie da ihren Zeitplan werden halten können zudem EUV noch in den Kinderschuhen steckt .
 
Zuletzt bearbeitet:
Es geht nicht darum das Cinebench nicht AVX nutzt, sondern ob es AMD geschafft hat die Rechenleistung der AVX Einheiten eben auch dann geschickt nutzen zu können, wenn eben eine Anwendung keine AVX Befehle verwendet. Es gibt ja schon lange Überlegungen eben genau sowas wie ein invertiertes SMT zu machen um die IPC zu Steigern, nämlich die interne Parallelität der Befehlsfolge zu nutzen und (Micro)Befehle parallel auf Einheiten auszuführen die gerade nicht gebraucht sind. Schon um die Out-of-order Ausführung machen zu können, müssen ja die Abhängigkeiten der Befehle analysiert werden, man weiß also im Prinzip schon welche Befehle voneinander abhängen und welche eben nicht, die könnten dann im Prinzip auch parallel bearbeitet werden.

Dies passiert ja auch schon schon zum Teil, so werden etwa Befehle zum Laden von Daten vorgezogen damit man nicht (so lange) auf die Daten warten muss. Wirkliche Berechnung parallel auszuführen, würde doppelte Rechenwerke erfordern, die Kerne also zu groß werden lassen und unnötig Strom verbraten, aber wenn man die AVX Einheite mit ihren 256 Bit Breite schon hat, kann man natürlich versuchen wenigstens die FP Operation schon parallel dort auszuführen die nicht voneinander abhängen, dazu muss man sie nur eben wie zwei getrennte Einheiten ansteuern können. Dann würde für eine Berechnung wie (A * B) + (C * D) nur zweidrittel der Zeit benötigt. Damit wären die IPC bei Integeroperationen aber eben nicht besser.

Es gilt also abzuwarten wie gut die IPC in der Breite gestiegen ist, Cinebench alleine sagt darüber ja auch nur wenig aus. Bulldozer war ja gerade bei FP sehr lahm, die AMD Gemeinschaft hat sich immer beschwert dies wäre auch Intel CPUs optimiert. Mit Zen wurde die FPU Performance schon viel besser und Cinebench ist einer der Benchmarks die schon Zen mindestens so gut wenn nicht besser liegen als den Intel CPUs.
 
Die Rechenleistung von AVX Einheiten ohne AVX Code nutzen? Das ist jetzt nicht dein ernst, oder?
Wenn kein AVX Code vorliegt wird die FPU eben über einen anderen Befehlssatz angesprochen. Sowas wie invertiertes SMT hattest du letztendlich beim Bulldozer wo die beiden 128 Bit FPUs des Moduls für 256 Bit AVX Code für einen der 2 Kerne zusammengefasst werden konnten. Das Problem an der Sache ist nur das dabei auch ein entsprechender Overhead für den zusätzlichen Verwaltungsaufwand anfällt und das erforderliche Software Umfeld wohl vollständig fehlen dürfte.

Anstatt den Hardware Herstellern in die Flickschusterei für mangelhafte Software aufzuhalsen dürfte es erheblich sinnvoller sein den Verursachern dieser Probleme einzuheizen damit diese auch mal in die Weiterbildung der Mitarbeiter für die Code Weiterentwicklung und Optimierung zu investieren.
 
Wadenbeisser schrieb:
erforderliche Software Umfeld wohl vollständig fehlen dürfte.
Wenn dann wird sowas transparent innerhalb des Kerns gemacht, eben um die normale Befehle darauf abzuarbeiten. Da braucht man also kein "Software Umfeld", dies braucht man wenn man die AVX Einheiten als solche zur Abarbeitung von AVX Befehlen nutzen, die AVX Befehle müssen dann nämlich im Programmcode vorhanden sein.
 
@Holt
Mit anderen Worten du willst die Software entwickler für inkompetent erklären und ihnen einen Vormund in Form von Hardware vorsetzen der ihnen das Denken abnimmt?

Dann wären noch schrottigere Programme mit einer noch schlampigeren Programmierung absehbar und das Ende der x86er Plattform so gut wie besiegelt aber bei AMD bist du mit solchen Forderungen mit Sicherheit an der falschen Stelle denn die haben für solche Spielereien wohl kaum die erforderlichen finanziellen Mittel, dir steht es allerdings offen sie an Intel zu richten.
 
Wadenbeisser schrieb:
Mit anderen Worten du willst die Software entwickler für inkompetent erklären und ihnen einen Vormund in Form von Hardware vorsetzen der ihnen das Denken abnimmt?
Nein und wie man dies so interpretieren kann, werde ich wohl nie nachvollziehen können, außer es als Boshaftigkeit zu interpretieren.

Ebensowenig kann ich nachvollziehen wie man das Ende der x86 Plattform besiegelt sehen kann. Die ARM CPUs sind weit von deren Leistungsfähigkeit weg:
 
Novasun schrieb:
Die 5Ghz könnten stimmen. Und zwar auf einem oder zwei Kernen. Wenn ein 16er kommt und der wird kommen könnte man evtl. auch mehr Kerne bis 5Ghz fahren.

Der 8er lief bei AMD wohl mit 4,3 Ghz und das war laut Su nicht final... Bei einer vermuteten TDP von 65 Watt..

Das kann so leider gar nicht stimmen. Mein 9900k durchläuft Cinebench mit zu viel Standardspannung vom Board bei 155W (Vcore 1.36V). Wenn ich die Differenz abziehe müsste der 8 Kerner immer noch mehr als 100W verbraucht haben. Wenn CPU Leistungsaufnahme 24W bis Gesamtsystem trennen, wären das 109W für den Ryzen. Somit liegt man exakt 30% unterhalb des 9900k. Also nix mit 65W. Damit komme ich zu dem Schluss das die reine CPU Leistungsaufnahme bewusst nicht präsentiert wurde. Bei 1.2V sind es 132W des i9, womit ihn 21% trennen. Finale Taktraten können gar nicht mehr so weit abweichen um noch innerhalb der 105W zu agieren.

Edit: Außerdem sind 65W + 30% = 85W... kein 9900k durchläuft Cinebench mit Allcore Turbo von Standard 4,7 GHz bei 85W. Wenn dem so wäre würde ich ein Fass aufmachen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Chismon
@Buggi85
Also , dein 9900 K zieht 155 W , schön , die 179 W auf der CES Beziehen sich auf das System , das gleiche trifft auf das AMD ES zu , rechnen wir mal 35 W für das System runter = 144 W für den 9900K und 100 W für den ES .

1 Frage : ist der 9900 K eine 144W TDP CPU ? Antwort : Natürlich nicht , es sind 95Watt TDP
2. Frage : Ist das es Sample eine 95/100 W CPU : Antwort : Natürlich nicht , es ist eine 65 W TDP CPU

Der 9900 K verbraucht , da nicht gezügelt 144 W statt 95 W = Ca 50 % höher ( Basis 95 W )
Legt man das auf das AMD ES um = 65 W + 50 % = 97,5 Watt und da wär n wir nun bei den 100 Watt
Man kann davon ausgehen das das AMD ES auf einen X570 Prototypen gesessen hat , das garantiert noch nicht auf niedrigen Verbrauch optimiert war , mal ganz davon abgesehen das PCIe 4.0 mehr Strom zieht als 3.0 , der reine Systemkomponentenverbrauch dürfte um 5 - 10 Watt höher gewesen sein als beim Intel
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gortha
MK one schrieb:
@Buggi85
Also , dein 9900 K zieht 155 W , schön , die 179 W auf der CES Beziehen sich auf das System , das gleiche trifft auf das AMD ES zu , rechnen wir mal 35 W für das System runter = 144 W für den 9900K und 100 W für den ES .

1 Frage : ist der 9900 K eine 144W TDP CPU ? Antwort : Natürlich nicht , es sind 95Watt TDP
2. Frage : Ist das es Sample eine 95/100 W CPU : Antwort : Natürlich nicht , es ist eine 65 W TDP CPU

Der 9900 K verbraucht , da nicht gezügelt 144 W statt 95 W = Ca 50 % höher ( Basis 95 W )
Legt man das auf das AMD ES um = 65 W + 50 % = 97,5 Watt und da wär n wir nun bei den 100 Watt
Man kann davon ausgehen das das AMD ES auf einen X570 Prototypen gesessen hat , das garantiert noch nicht auf niedrigen Verbrauch optimiert war , mal ganz davon abgesehen das PCIe 4.0 mehr Strom zieht als 3.0 , der reine Systemkomponentenverbrauch dürfte um 5 - 10 Watt höher gewesen sein als beim Intel

Ich verstehe deine Argumentation nicht ganz. AMD sagt 30% weniger, wo kommen wir raus bei 30% weniger?
Logischerweise muss der Ryzen 30% weniger ziehen bei gleicher Leistung, d.h. ungezügelt meinetwegen 144W sind es 100W, wie kommt man auf eine Basis von 65W, wenn ein 2700x eine Basis von 105W besitzt und diese auch zieht im Cinebench? Demnach müsste er bei 105W Basis 145W ziehen. Ich bin verwirrt, einfache Mathematik... :evillol:

Hätte eine X Ryzen mit 105W nicht das selbe thermische Problem dann wie der i9 oder gar schlimmer weil die Fläche noch kleiner ist?
 
Zuletzt bearbeitet:
Zurück
Oben