News CES-Keynote: AMD über Raytracing, 16 Kerne und PCIe 4.0

@Buggi:

Ein 2700 (65 W Modell) hat im Cinebench auch einen Systemverbrauch von ~130-135 W. Zudem wurde es ja in einem US Forum bestätigt das es sich um ein 65 W ES handelt, mit 3,7 Base und 4,5 Singlecore-Boost. Daher wird der All-Core Boost bei 4,1-4,3 gelegen haben.

Der 9900k hat eine Basis von 95 W TDP, zieht aber auch 150 W in Cinebench.

Die TDP Angaben sind vom Hersteller Angaben die benötigt werden für den Basis-Takt. Die CPU's dürfen aber grundsätzlich mehr ziehen wenn man sie lässt, damit sie den Boost auch halten können.
 
  • Gefällt mir
Reaktionen: Gortha
Aldaric87 schrieb:
@Buggi:

Ein 2700 (65 W Modell) hat im Cinebench auch einen Systemverbrauch von ~130-135 W. Zudem wurde es ja in einem US Forum bestätigt das es sich um ein 65 W ES handelt, mit 3,7 Base und 4,5 Singlecore-Boost. Daher wird der All-Core Boost bei 4,1-4,3 gelegen haben.

Der 9900k hat eine Basis von 95 W TDP, zieht aber auch 150 W in Cinebench.

Die TDP Angaben sind vom Hersteller Angaben die benötigt werden für den Basis-Takt. Die CPU's dürfen aber grundsätzlich mehr ziehen wenn man sie lässt, damit sie den Boost auch halten können.

Aije, ich hatte mal einen 1700x, da habe ich in Erinnerung das er schon innerhalb der TDP blieb, aber ich vergaß das er nur einen allcore Turbo von 100 MHz über Basis nutzt.

Ja, wie gesagt, 155W zieht er bei mir auf dem Board, 132W bei 1.2V Vcore. Ist trotzdem schwer zu kühlen weil der Die klein ist.
 
ich denke den 3600X oder 3700X wird man auch gut undervolten können , das ES Sample hatte sicherlich eine recht hohe Spannung anliegen um sicherzustellen das er läuft , das X570 er Board dürfte auch noch Prototypenstatus gehabt haben mit eher rudimentären Bios Einstellmöglichkeiten .
Ich glaub nicht das er auf einem alten X470 er Board saß
 
Buggi85 schrieb:
Ich verstehe deine Argumentation nicht ganz. AMD sagt 30% weniger, wo kommen wir raus bei 30% weniger?
Logischerweise muss der Ryzen 30% weniger ziehen bei gleicher Leistung, d.h. ungezügelt meinetwegen 144W sind es 100W, wie kommt man auf eine Basis von 65W, wenn ein 2700x eine Basis von 105W besitzt und diese auch zieht im Cinebench? Demnach müsste er bei 105W Basis 145W ziehen. Ich bin verwirrt, einfache Mathematik... :evillol:

Hätte eine X Ryzen mit 105W nicht das selbe thermische Problem dann wie der i9 oder gar schlimmer weil die Fläche noch kleiner ist?

Lies dir mal den CB Artikel zur CPU TDP bitte durch und komm dann wieder.

MFG
 
  • Gefällt mir
Reaktionen: Holt
branhalor schrieb:
PCI-Express 4.0 ist aktuell noch reiner Luxus, den meiner Einschätzung nach in den kommenden zwei bis fünf Jahren keine GPU wird sinnvoll ausreizen können.
2290 Postings und trotzdem so wenig Ahnung?:freak:
PCIe 4.0 ist doch nicht nur für eine Grafikkarte gedacht, sondern für alle Nutzer, denen die Lanes aktuell ausgehen:
- 1/2/3 M2 PCIe SSDS
- SAS-Controller
- Video-Hardware-Encoder
- 10G LAN
...


branhalor schrieb:
...aber signifikante Sprünge werden auch mit 4.0 zunächst nicht zu erwarten sein. Ok - man wird die Grafikkarte auch darüber wahrscheinlich wieder mit mehr Strom versorgen können, so daß ein Pin-Stecker wegfällt.
Weil der Strom jetzt doppelt so schnell zur Grafikkarte fließt, spart man sich einen von zwei externen Steckern!? Aha. Autsch. Nö.
Du bist mit Anmeldedatum 2007 nur nicht gerade mehr 12 oder so. Aber ist Physik schon soooo lange her? Lieblingsspruch meines Physiklehrers: "Warst in der Stunde grad Kreide holen, gel?". ;) :)
 
  • Gefällt mir
Reaktionen: Rockstar85 und CMDCake
weil es grade dazu passt : https://www.tomshardware.com/news/amd-ryzen-pcie-4.0-motherboard,38401.html
Update: We spoke with AMD representatives, who confirmed that 300- and 400-series AM4 motherboards can support PCIe 4.0. AMD will not lock the out feature, instead it will be up to motherboard vendors to validate and qualify the faster standard on its motherboards on a case-by-case basis. Motherboard vendors that do support the feature will enable it through BIOS updates, but those updates will come at the discretion of the vendor. As mentioned below, support could be limited to slots based upon board, switch, and mux layouts.

PCIe 4.0 ist kein Luxus , wenn ich Glück habe bekomme ich PCIe 4.0 für den 1 GraKa Slot gratis dazu beim Kauf eines Ryzen 3700X 12 Kerners , der schon fest eingeplant ist .
Hängt nur davon ab ob der MoBo Hersteller die 4.0 Unterstützung ins Bios einbaut und ob die technischen Vorraussetungen erfüllt wurden = Leitungen zur CPU nicht länger als 6 Inches = ca 15 cm
 
  • Gefällt mir
Reaktionen: Gortha
MK one schrieb:
@Buggi85
Also , dein 9900 K zieht 155 W , schön , die 179 W auf der CES Beziehen sich auf das System , das gleiche trifft auf das AMD ES zu , rechnen wir mal 35 W für das System runter = 144 W für den 9900K und 100 W für den ES .

Auf der Seite die ich gelesen habe (ich glaube Andantech hat die Rechnung aufgemacht) wurden 55 Watt (=idel Verbrauch) veranschlagt. Und dann passt das mit den 65 TDP ziemlich gut...

@Buggi Und es war noch immer ein ES.. Da kann schon noch was bezüglich Takt gehen... Im der Aussage geht es ja auch um die finalen Specs.. Und da muss die Serienproduktion auch erst mal zeigen wie weit die Qualitätsstreuung ist... Denn in die Überlegung welche Specs man fährt gehört auch mit rein in weit man in der Lage ist diese zu produzieren...
 
UweW. schrieb:
2290 Postings und trotzdem so wenig Ahnung?:freak:
PCIe 4.0 ist doch nicht nur für eine Grafikkarte gedacht, sondern für alle Nutzer, denen die Lanes aktuell ausgehen:
- 1/2/3 M2 PCIe SSDS
- SAS-Controller
- Video-Hardware-Encoder
- 10G LAN
...



Weil der Strom jetzt doppelt so schnell zur Grafikkarte fließt, spart man sich einen von zwei externen Steckern!? Aha. Autsch. Nö.
Du bist mit Anmeldedatum 2007 nur nicht gerade mehr 12 oder so. Aber ist Physik schon soooo lange her? Lieblingsspruch meines Physiklehrers: "Warst in der Stunde grad Kreide holen, gel?". ;) :)
Wow, Du bist ja richtig schlau... Wahnsinn! Ich bin tief beeindruckt :daumen: Und auch noch so freundlich dabei, warst in der Schule damals bestimmt Lehrers Liebling.
 
  • Gefällt mir
Reaktionen: Usagi
Richtig , von den ES existiert erst eine Kleinserie , vermutlich ein oder 2 Wafer , einige 100 ES die zu den Mobo Herstellern im Vorfeld geschickt werden zur Bios Entwicklung usw , vermutlich ist das bisher noch nicht geschehen , sonst wären noch mehr Leaks da .
Ich glaube nicht das das Final Design = Produktions Stepping schon steht , sie haben immer noch Zeit ein bisschen zu optimieren , erst März /April müssen sie das Final Stepping bereit haben um in die Massenproduktion zu gehen . Dann erst werden die finalen Taktraten festgelegt die sich durch das Binning ergeben , dh wieviel der 8C Die s gehen bis 4,6 wieviele bis 4,8 , wieviele bis 5.0 usw , wie hoch lässt man den Unterschied zu den X Varianten ausfallen , wie hoch setzt man die Preise an , alles hängt quasi vom Binning ab , je höher die Taktraten desto höher der Preis , mehr Kerne + hoher Takt = hoher Preisaufschlag
 
Wenn man noch so weit am Anfang steht können die Leaks aus dem letzten Jahr aber nicht für ernst genommen werden.

Schaut man sich die Radeon VII an, ist AMD gar nicht in der Lage gleiche Leistung für viel weniger anzubieten.
Wie ich gerade merke ist das bei den CPUs auch nicht viel anders, bloß das sie dort an Stellen einsparen können wo es in der Masse nicht signifikant ins Gewicht fällt. Habe hier gerade den Fall das ich für jemanden einen leistungsfähigen Rechner zusammenstellen soll, günstig und gut. Nicht zum spielen gedacht mit 0 Wert auf Grafikkarte. Ja prima, Ryzen 2200G und 2400G, da fehlt mir die Option einen 6 oder 8 Kerner mit integrierter GPU zu bekommen. Gut das es zumindest noch olle Restbestände der Radeon R5 gibt. Ich hoffe das sie in Zukunft viel mehr CPUs mit integrierter GPU anbieten werden und auch den Leistungsfähigen 8 Kernern eine spendieren...
 
Buggi85 schrieb:
Wenn man noch so weit am Anfang steht können die Leaks aus dem letzten Jahr aber nicht für ernst genommen werden.
?? meinst du jetzt die Takt und Preisübersichten ? , ja die werden wohl Fake gewesen bzw die Ansichten des Verfassers wiedergespiegelt haben

Bis auf ein paar Seriennummern von den ES und Taktraten dazu hab ich noch nichts großartiges gesehen zu den ES , weder geleakte Anwender noch Game Benchmarks , dürfte wohl auch erst April / Mai werden bis die kommen

was die Radeon VII angeht , das ist ne leicht beschnittene Profi Karte die man etwas auf Gaming getrimmt hat , die 16 MB HBM2 sind eigentlich überdimensioniert dafür , die APU s mit Zen2 kommen erst Ende des Jahres , erst kommen die Navi GraKa s
 
  • Gefällt mir
Reaktionen: Gortha
MK one schrieb:
?? meinst du jetzt die Takt und Preisübersichten ? , ja die werden wohl Fake gewesen bzw die Ansichten des Verfassers wiedergespiegelt haben

Bis auf ein paar Seriennummern von den ES und Taktraten dazu hab ich noch nichts großartiges gesehen zu den ES , weder geleakte Anwender noch Game Benchmarks , dürfte wohl auch erst April / Mai werden bis die kommen

was die Radeon VII angeht , das ist ne leicht beschnittene Profi Karte die man etwas auf Gaming getrimmt hat , die 16 MB HBM2 sind eigentlich überdimensioniert dafür , die APU s mit Zen2 kommen erst Ende des Jahres , erst kommen die Navi GraKa s
Ja genau, die Taktraten zumindest, ist ja noch ein bisschen hin zum Release.

Die APUs erst so spät? Das ist schade.

Sollte das stimmen, dass sie auf dem Niveau der 2080 performt, dann sehe ich keinen ernsthaften Grund für die 16 GB. Nutzt ja nichts wenn der Speicher bei ultra Settings vollgeschrieben wird, aber das Game dann nur noch vor sich hin ruckelt.
 
Die Karte wird ja auch unter anderem deswegen mit Content-Creation beworben. Dort können die 16 GB als durchaus sinnvoll angesehen werden. Davon ab, dass 8 GB für diese Preisklasse auch zu wenig wären.
 
Das ist aber ein Problem von AMD. An wen soll sich denn die Karte konkret wenden, Gamer oder Content Creator? Wäre mir neu das die Mehrzahl der Gamer plötzlich Content Creator geworden sind. Außerdem kannst du mit jeder Karte Content createn, zumal der VRAM mit dem Arbeitsspeicher shareable ist und für Content Creation der langsamere Busspeed nicht ins Gewicht fallen sollte. Es macht einfach keinen Sinn den Gamern was aufs Auge zu drücken, was sie nicht benötigen. Da nimmt man für den Preis eher das Ray Tracing Feature mit und ist bei Nvidia gelandet.
 
  • Gefällt mir
Reaktionen: xexex
@Buggi85

Genau das ist aber RT, etwas dem Kunden ans Bein binden, was die meisten nicht wollen.
 
  • Gefällt mir
Reaktionen: Rockstar85
@Aldaric87
Da hast du recht und die Preise wurden mit RTX absurd hoch für die Grundleistung. Aber wenn man sich schon entscheidet, dann lieber RTX. Da bekommt man wenigstens noch hier und da etwas fürs Auge geboten. Von den 16 GB wird man ggf. in den nächsten drei Jahren nichts haben und falls dann doch mal der Speicher über 8 GB hinaus geht, ist der Chip Leistungsmäßig sicherlich schon eingeknickt.:freak:
 
  • Gefällt mir
Reaktionen: Gortha
Na deswegen wird die Radeon VII ja auch für Content Creation beworben, da die Karte nicht um die Compute-Fähigkeiten beschnitten ist. Dort können 16 GB schon Sinn machen.

Grundsätzlich haben beide Karten eine Existenzberechtigung. Viele wollen auch einfach kein nVidia mehr in ihrem PC, nachdem was dort auch in den letzten Jahren abgezogen wurde.
 
  • Gefällt mir
Reaktionen: Gortha
Naja, ich verfolge die Karten eigentlich nicht so sehr, aber die Leistung soll sich wohl bei der 2080 einordnen und preislich bei 700$. Ist aus meiner Sicht auch heute noch zu viel für eine 2080, da erscheint mir die Radeon VII ohne Ray Tracing fehlplatziert. Ob nun Content Creation ein Thema ist oder nicht. Verstehe auch nicht warum es denn da bei 7nm 2 x 8 Pin Stromversorgung benötigt.
 
Weil das einfach nur eine Vega Architektur ist, angepasst auf 7nm. Da wurde nichts groß geändert, aber wenn das deine Argumentation ist, warum sie 2x 8 Pin hat, dann musst du bei der hälfte der 2080er das gleiche fragen. Da gibt es genügend Karten die 2x 8 Pin haben.

RT und DLSS sind doch genauso wenig ein Kaufargument wie die 16 GB. Das sind Technikspielereien die wichtig werden, aber noch in den Kinderschuhen stecken. Und ein ganzes Spiel am Markt....

Zudem haben die 16 GB schon einen Sinn, nämlich die Bandbreite der Karte die sich damit realisieren lassen.
 
Die Radeon VII kommt jetzt , weil immer nach einer High End Karte von AMD gejammert wurde , drehen wir die Zeit 5 Monate zurück , da war die RTX 2000er Serie noch nicht raus , wäre sie da gekommen im August 2018 mit quasi 1080 TI Leistung , die Welle wäre groß gewesen ...
Jetzt hat AMD eine Karte mit quasi 1080 TI Leistung und das Gejammer geht wieder los , " was , nur 2080 Leistung ? was soll das denn ... "
AMD sollte wirklich nicht allzu viele Ressourcen auf solche Kundschaft verschwenden , mir ist sowieso ne Mid Range Karte für 250 Euro mit 1080 er Leistung lieber = Navi ...
DLSS ist schön und gut , wie viele Spiele unterstützen das jetzt ? ich glaub noch reicht eine Hand um das abzuzählen , das gleiche gilt für RT , sicher , da kommen jetzt sukzessive mehr Games , aber wirklich verbreitet ist das noch nicht
 
  • Gefällt mir
Reaktionen: TBrandes, Benji18, Rockstar85 und eine weitere Person
Zurück
Oben