News Prozessor-Refresh: Neue Intel-Prozessoren mit 2 bis 28 Kernen im Frühjahr

DJHEngel schrieb:
AMD und Intel wissen doch genau wann der andere was released und wie die Leistung sein wird. Seid ihr so blauäugig und denkt wirklich Intel weiß erst am release was die neuen Ryzen draufhaben? Es ist doch genau das gleiche wie bei den AMD Karten. Alle haben die neue Vega gehyped und was ist? Teilweise teurer und weniger Leistung als ne 2080.
darf man Fragen wer diese "alle " denn gewesen sein sollen ? ein paar Kids möglicherweise? , denn das es nur ein 7 nm Shrink ist , war vorher schon klar , es ist fast 1:1 eine MI50 = professionelle Karte , wird von Pro Treiber zumindet im Basis Feature Set unterstützt und ist daher nicht nur für Gamer interessant .... , und wird auch so beworben ...
Es ist erstaunlich das dies , im großen und ganzen 2015 er Fury Design ( bis auf die FPU s ) noch so gut mithalten kann ....
die 2080 TI hat fast 50 % mehr Transistoren ( 18,6 Mrd ) , die Radeon VII ( 13,1 Mrd ) , holt denn die 2080 TI auch 45 % mehr Leistung aus ihren Transistoren raus ? Bei der 2080 Ti stehen rund 5000 Tensor / RTX / Cuda Cores den 3840 der Radeon VII gegenüber .
Das neue Acturus Design kommt frühestens 2021 , Navi wird kein High End sein , Gott sei Dank ! , sondern gut bezahlbare Mid Range Karten bringen
 
Tzk schrieb:
Natürlich die AMDs auch. Sonst ist das ja witzlos. Aber: Bei Intel geht die Cpu innerhalb der TDP aufden Basistakt zurück, während bei AMD die TDP auch mit Turbo (aber ohne XFR) erreicht wird. Heisst ein 9900K läuft dann noch mit 3,6ghz unter Volllast.

Das hängt doch nur von der Auslastung durch die jeweilige Anwendung ab, auf welchen Takt zurückgeschaltet wird. Wird bei vollem Boost nur die TDP erreicht, dann wird auch nicht auf den Basistakt reduziert. Ich glaube nicht, dass sich AMD da anders verhält. Die Angabe eines Basistaktes wäre ansonsten ja völlig sinnfrei.
 
kisser schrieb:
Das hängt doch nur von der Auslastung durch die jeweilige Anwendung ab, auf welchen Takt zurückgeschaltet wird. Wird bei vollem Boost nur die TDP erreicht, dann wird auch nicht auf den Basistakt reduziert.
Deine Aussage ist einfach widersprüchlich und macht – da zusammenhangslos – selbst für sich allein keinen Sinn.
Es sei denn, Du hättest damit sagen wollen, daß ein Turbo-Boost auf nur einem oder wenigen Kernen möglich ist, wenn dafür andere vereinzelte Kerne in den Schlaf gelegt werden – und das bitteschön innerhalb des offiziellen TDP-Fensters. Das gälte es auf Seiten Intels nämlich noch einmal zu beweisen …

kisser schrieb:
Ich glaube nicht, dass sich AMD da anders verhält.
Glaube ist bekanntlich ein Mangel an Wissen

Entsprechende Tests bescheinigen den Ryzens sehr wohl, daß sie selbst innerhalb ihres TDP-Fensters noch den Boost (je nach Modell) voll ausfahren können. Bei Intel ist innerhalb der (gleichen oder vergleichbaren) TDP lediglich der Basistakt drin, und de facto kaum ein müdes Megahertz mehr – da die entsprechenden Intel-Prozessoren in dem Frequenz-Bereich bedauerlicherweise überraschenderweise eine schlechtere Effizienz als Ryzen aufweisen.

kisser schrieb:
Die Angabe eines Basistaktes wäre ansonsten ja völlig sinnfrei.
… und ja, daß die TDP bei Intel eher makulativer Natur ist, ist nichts Neues. Da gebe ich Dir vollkommen Recht.


In diesem Sinne

Smartcom
 
  • Gefällt mir
Reaktionen: Sennox, Tzk und SVΞN
StarAndi schrieb:
Jedes Jahr hört man das AMD Intel demnächst mit der XYZ Technologie
überholen wird, tatsächlich ist das aber nie passiert.

Ich habe den Eindruck du willst mit deinem gefährlichen Halbwissen und Falschaussagen einfach nur provozieren. So viel dummes Zeug habe ich schon lange nicht mehr gelesen. Oder dies ist ein Troll-Account um Spaß zu haben.

Bevor jemand in Gefahr läuft obige Aussage - im Zusammenhang mit Gaming - als Tatsache abzuspeichern ....
http://www.hardware-infos.com/berichte/prozessoren/athlon-64-vs.-pentium-4-seite-4.html
 
  • Gefällt mir
Reaktionen: Sennox, Sunjy Kamikaze und SVΞN
@kisser Die Tests zur Leistungsaufnahmes hier auf CB sind für eine seriöse Diskussion schlicht nicht zu gebrauchen, da sie grundsätzlich die Leistungsaufnahme des Gesamtsystems ausweisen. ComputerBase weiß um diesen Kritikpunkt, die Redaktion weigert sich aber wie bekannt seit Jahren beharrlich, dedizierte Tests zur Leistungsaufnahme zu fahren.

Wenn man aber jahrelang immer wieder wegen einem einzelnen Knackpunkt bei sämtlichen Tests in der Kritik steht, diese sich aber (aus welchen Gründen auch immer) nicht zu Herzen nimmt – obwohl die Außerweltschaffung desselben eigentlich ein Lapsus wäre – dann muß man sich leider den Vorwurf gefallen lassen, man wolle diesen Kritikpunkt schlicht und ergreifend partout nicht angehen. Ob das dann im Einzelnen daran liegen möge, weil man die ohnehin vernachlässigbare Mehrarbeit scheut, oder weil man dann seinem Lieblingshersteller nicht unentwegt eine weißere Weste als gerechtfertigt ausstellen könnte, ist dann auch eher unrelevant.

… ich darf mich einmal mehr zitieren:
Smartcom5 schrieb:

Ich verstehe sowieso nicht, weswegen hier noch immer mit TDP des Gesamtsystems berichtet geblendet wird;
Jede größere vernünftige Seite hat seit wenigstens fünf Jahren (mitunter selbstgebaute) PCIe-Adapter und Zangenstrom-Messgeräte um den dedizierten Verbrauch der Karte aufzuzeigen. Und obendrein ist es eigentlich bekannt, das bestimmte Hardware-Konstellation was den Verbrauch betrifft deutlich günstiger/ungünstiger zusammenwirken. Somit könnte man nicht nur solche Verursacher exponieren sondern es wäre wirklich sofort erkennbar, was Karte X für Leistung Y an Verbrauch Z generiert und ob den Herstellern bezüglich Effizienz Glauben geschenkt werden kann.

Solch ein Adapter ist binnen einer viertel Stunde mit etwas Feingefühl für‘s Löten selbst gebaut und kostet wenige Euro. Wenn es unbedingt professionell daherkommen soll; Es gibt selbst fertige PCIe-BusExtender oder sogar Retention-Module zu kaufen.

… aber das unerwähnte Fazit eines solchen Artikels könnte man schon einmal vorausschicken:
Viele wären erschrocken, wie viel ihre Grafikkarte tatsächlich verbrauchen würde!

Denn – so fair, objektiv und ehrlich sollte man sich selbst gegenüber schon sein – nVidia würde es in erheblich schlechterem Licht dastehen lassen, da diese Karten ihre MGCP sehr häufig schlicht überschreiten. Trotzdem erzählt man sich, wie grandios effizient und stromsparend die neuste GTX doch wäre – unwissend oder nicht gewillt zu glauben, daß sie ihre 'TDP' lediglich als Anhaltspunkt auf dem Papier betrachtet.


In diesem Sinne

Smartcom
 
  • Gefällt mir
Reaktionen: Sennox und SVΞN
Wenn überhaupt, ist doch interessant, was der Pc mit der jeweiligen CPU aus der Dose zieht, nicht was nur die CPU braucht- von daher finde ich Okay, wie CB das testet.



WOBEI:
Stromverbrauch interessiert mich generell überhaupt nicht.

Selbst bei +-100w bei 10 Stunden am Tag würde pro Tag +-25cent ausmachen.

Das dürfte bei einem ca. 1000€ PC niemand das Genick brechen.

Und wenn der Pc im Kinderzimmer steht, bezahlen es sowiso die Eltern🤣.

Ich glaube, dass auch die wenigsten hier ein Rechenzentrum im Megawatt-Bereich betreiben, wo es auf laufende Kosten ankommt- und dann kann man immernoch abwägen, welche Hardware verbaut wird.


Für was gibt man gerne Geld aus? Genau...für‘s Hobby.

Wem es das Hobby nicht wert ist... gerne bei AMD (nur Spass😉) kaufen und zusätzlich noch ein paar Cent Strom sparen.


Es steht jedem/r/D frei, zu kaufen was Er/Sie/D will.🤣
Aber sich über die angebotenen Produkte und Preispolitik zu beschweren, dazu fällt mir einfach nichts mehr ein. Dafür gibt es Produktvielfalt und Alternativen.

Gruss
 
kisser schrieb:
Ich glaube nicht, dass sich AMD da anders verhält. Die Angabe eines Basistaktes wäre ansonsten ja völlig sinnfrei.
Glauben != Wissen

Ich kann dir nur den Grundlagenartikel zur TDP hier auf CB empfehlen. Wie geschrieben taktet Intel (sofern man die Powerlimits der Spezifikation entsprechend setzt!) bei Volllast auf allen Kernen auf den Basistakt zurück. Bei AMD liegt innerhalb der TDP trotzdem noch der Boost an.

Wenn man den Intel dagegen, wie bei den meisten Boards als Standard gesetzt, von der Leine lässt, hält der den Boosttakt locker. Aber dann auch nicht mehr die TDP ein ;) Und genau das ist der Knackpunkt.

Der Intel ist zwar noch immer schneller und effizienter, aber entweder schrumpft der Effizienz- oder der Leistungsvorsprung erheblich. Die Unterschiede sind damit bei weitem nicht mehr so groß wie von vielen angenommen.
 
  • Gefällt mir
Reaktionen: Sennox, Smartcom5 und nazgul77
StarAndi schrieb:
Du vergisst komplett das die AMD 2000er Reihe hauptsächlich für GAMING
entwickelt wurde
...
Bevor ichs vergesse, der Intel Nutzer gönnt sich einfach per Klick das perfekte XMP Profil
während der AMD Nutzer manuell am Ram Takt rumspielen muss,

Beides sachlich total falsch.
 
  • Gefällt mir
Reaktionen: Sennox
Die neuen Xeon-E-CPUs mit acht Kernen sind für Workstations interessant, so ein Modell werde ich mir vermutlich zulegen.

Ich würde gerne AMD eine Chance geben, aber die haben in dem Bereich - vier bis acht Kerne, relativ hohe Taktrate, trotzdem niedriger Idle-Stromverbrauch, offizieller ECC-Support - noch eine Marktlücke. Die großen Threadripper- und Epyc-CPUs sind auf 16+ Kerne ausgelegt; selbst die Modelle, die weniger Kerne haben, haben eine ziemlich hohe Leistungsaufnahme. Ryzen hat keinen offiziellen, validierten ECC-Support. Außerdem gibt es für Ryzen und Threadripper keine Workstation-Motherboards mit Features wie IPMI.
 
Tzk schrieb:
Wie geschrieben taktet Intel (sofern man die Powerlimits der Spezifikation entsprechend setzt!) bei Volllast auf allen Kernen auf den Basistakt zurück.

Definitiv nicht. Mehr braucht man dazu nicht zu sagen.
Ergänzung ()

Smartcom5 schrieb:
@kisser Die Tests zur Leistungsaufnahmes hier auf CB sind für eine seriöse Diskussion schlicht nicht zu gebrauchen, da sie grundsätzlich die Leistungsaufnahme des Gesamtsystems ausweisen.

Die Bildung der Differenz ziwsche idle/Last sollte kein großes Problem sein. Eine geringe Ungenauigkeit bleibt dabei natürlich. Aber wir haben ja auch Werte mit/ohne TDP-Begrenzung (zumindest für Intel) und daraus lassen sich diverse Schlussfolgerungen ziehen. Natürlich nur für Leute mit ausreichend Sachverstand. S.o.
Ergänzung ()

Smartcom5 schrieb:
die Redaktion weigert sich aber wie bekannt seit Jahren beharrlich, dedizierte Tests zur Leistungsaufnahme zu fahren.

Das ist auch leichter gesagt als getan. Andere Publikationen verlassen sich da rein auf das Auslesen von Hersteller-Daten per Software ("hwmonitoring"). Da sollte man grundsätzlich misstrauisch sein.
 
Zuletzt bearbeitet:
@kisser Entsprechendes Equipment zu benutzen (→ PCIe-Adapter/Riser-Card, Zangen-Ampèremeter [Zangenstrommesser] & Co), ist also leichter gesagt als getan? Zu teuer, zu speziell?
Warum schaffen das dann andere Redaktionen wie hardwareLUXX, ht4u, TechPowerUp, Tom‘sHardware, oder …?!

Die ComputerBase- Redaktion will es einfach seit Jahren partout nicht – da man hinter dem Systemverbrauch wahrscheinlich so schön Verbrauchswerte anderer, einzelner Komponenten verstecken kann, das ist der Punkt.
Ist aber auch nicht weiter schlimm, nur darf man sich da als Publikation aber auch nicht wundern, wenn man bei derlei Test grundsätzlich von einem Gutteil der Leserschaft nicht ernst genommen wird.


In diesem Sinne

Smartcom
 
  • Gefällt mir
Reaktionen: Sennox
Wenn du die Leistungsaufnahme der reinen CPU messen willst, musst du direkt am CPU-Sockel messen, was da an Spannung(en) anliegt und welche Ströme da fließen. Sonst funktioniert da nichts.
In den Zuleitungen per Zangenampremeter schon gar nicht, weil da ja noch die Spannungswandler dahinter sitzen. Für CPUs ist ja nicht einmal sichergestellt, dass die Ströme nur über die 4-/8-Pin Stecker fließen und nicht noch zusätzlich ein Teil über den 24-Pin ATX geliefert wird.

Für GPU-Messungen funktioniert das mit Riser und - mit obigen Einschränkungen - Zangenamperemeter.
Ergänzung ()

Smartcom5 schrieb:

Die messen doch auch nur das Gesamtsystem:

Die unten genannten Werte für den Energiebedarf beziehen sich auf das jeweils gesamte System.

https://www.hardwareluxx.de/index.p...zen-prozessor-ohne-ueberraschung.html?start=1
 
hardwareLUXX mißt mal so, mal so – zumindest die letzten zwei Jahre …
Aber trotzdem schön zu sehen, wie Du alles andere gekonnt ignoriert hast – und auf die Passage über das Für und Wider mit CB an und für sich überhaupt nicht eingegangen bist.

kisser schrieb:
Wenn du die Leistungsaufnahme der reinen CPU messen willst, musst du direkt am CPU-Sockel messen, was da an Spannung(en) anliegt und welche Ströme da fließen. Sonst funktioniert da nichts.
Dafür nutzen Leute wie @FormatC die Prüfpads auf den Leiterbahnen, ja.


In diesem Sinne

Smartcom
 
Smartcom5 schrieb:
wie Du alles andere gekonnt ignoriert hast

Habe ich nicht. Auch ht4u misst mit zweifelhafter Methode.

https://www.ht4u.net/reviews/2018/amd_ryzen_5_2400g_und_ryzen_3_2200g_raven_ridge/index9.php
Die Leistungsaufnahme der CPU nehmen wir zwischenzeitlich mittels HWInfo64 auf – bei Intel-Plattformen haben wir zuvor auf Intels eigene Tools zurückgegriffen. HWInfo64 scheint inzwischen in seinen Messungen bei der Ausgabe des Wertes für die Leistungsaufnahme der CPU- & SoC-Power recht verlässlich. Die Werte gleichen wir mit der Leistungsaufnahme gemessen über ein Zangenamperemeter an der 12V-Leitung ab. Vorsicht: Nicht alle Versorgungen bei AMD erfolgen über die 12V-Leitung, sodass die Messungen über das Zangenamperemeter nur als Anhaltspunkte dienen.

Zu techpowerup finde ich auf die Schnelle keine Angabe zum Messverfahren, die Werte liegen aber generell deutlich zu hoch. Das kann nur das Gesamtsystem sein.

https://www.techpowerup.com/reviews/Intel/Core_i5_9600K/16.html
 
  • Gefällt mir
Reaktionen: Galatian
Kann nicht nur, sondern es ist das Gesamtsystem bei techpowerup. In der Grafiken steht „Whole System.“
 
StarAndi schrieb:
Bevor ichs vergesse, der Intel Nutzer gönnt sich einfach per Klick das perfekte XMP Profil
während der AMD Nutzer manuell am Ram Takt rumspielen muss,
soviel zu Innovation.
BF5 und XMP "mit einem Klick das perfekte Profil"? Weinen deswegen tausende Spieler von BFV und co. in den EA Foren rum weil die Games mit dem XMP Profile nicht klarkommen und reihenweise abschmieren? :D

StarAndi schrieb:
Ich bin Intel Fan weil ich hier die beste Performance für einen fairen Preis bekomme.
Genauso bin ich Mercedes Fan weil genau gleicher Grund.
YMMD,
Danke! Eigentlich hatte ich hier das übliche inhaltslose AMD vs Intel Fanboy gebashe beim Überfliegen erwartet, aber deinen Beitrag musste ich wirklich ganz lesen und bei jeder Zeile wurde es doch tatsächlich immer lustiger :D
Wie die anderen hier schon sagten, bitte empfehle niemandem irgendwas, das kann bei der Expertise einfach nur schief gehen.


BTT:
Baya schrieb:
Verstehe deinen Standpunkt, aber glaubst du wirklich, dass sich Intel so leicht geschlagen gibt...?
Geschlagen geben werden die sich sicherlich nicht, aber die Hürden für intel sind aktuell sehr groß. Side-Channel-Attacks, neue Fertigung die gerade in der 1st Gen nicht so ausgereift sein wird wie die vorherige und das Problem dass AMD und Chippartner momentan sehr wirtschaftlich produzieren können.
Ich glaube Intel wird entweder das Performance-Brechstangen-Prinzip mit hohen Preisen verfolgen oder geringen bis gar keinen Leistungsplus aufweisen und versuchen preislich mitzuhalten.

Wie auch immer 2019 wird sehr spannend für uns :)
 
  • Gefällt mir
Reaktionen: Sennox
Auch ich finde den Hardware Markt gerade spannend wie schon lange nicht mehr!
Ich glaube das letzte mal fühlte es sich um 2003 für mich so an :D
Bei den CPUs ist Mordsstimmung und auch bei den Grakas sehe ich das eigentlich noch positiv.
In den Gefilden wo die 2080ti wildert würde ich mich ohnehin nie umsehen und selbst die 2080/RVII sind mir noch etwas zu teuer ;)
Klar, schöner/spannender fände ich auch ein Niveau wie damals mit der X800/X1xxx Serie gegen Nividias 6er und 7er Reihen aber mal ehrlich, selbst wenn AMD wieder solche Brummer raushauen würde, würden diese vom Markt sicher nicht gut genug angenommen werden um den Aufwand zu rechtfertigen :rolleyes:
War früher ja schon nicht anders, nur weniger ausgeprägt (gut da waren die ATI Treiber aber auch wirklich noch etwas holpriger :D)
 
Nureinnickname! schrieb:
Naja von Drops, CPU Limit und langsame AMDs schreiben, und selber nur einen Popeligen Haswell E besitzen ;-), was packt der denn so im Intel Optimiertem Cinebench R15? Ein übertakteter R7 2700X packt etwa 1950 Punkte, aber da schafft dein Intel sicher mehr oder?


Musst wohl den Intel auch extrem übertakten um überhaupt Spielbare fps hinzubekommen, weil Taktbereinigt ist er sogar langsamer.

Edit: Hab grad mal nachgeschaut, dein Haswell müsste auf 5GHz Takten um mit dem 4,2GHz Ryzen gleich zu ziehen. Aber wie gesagt Ryzen ist für Gaming ja ungeeignet, da schlechte IPC ;-)
Nureinnickname! schrieb:
Naja von Drops, CPU Limit und langsame AMDs schreiben, und selber nur einen Popeligen Haswell E besitzen ;-), was packt der denn so im Intel Optimiertem Cinebench R15? Ein übertakteter R7 2700X packt etwa 1950 Punkte, aber da schafft dein Intel sicher mehr oder?


Musst wohl den Intel auch extrem übertakten um überhaupt Spielbare fps hinzubekommen, weil Taktbereinigt ist er sogar langsamer.

Edit: Hab grad mal nachgeschaut, dein Haswell müsste auf 5GHz Takten um mit dem 4,2GHz Ryzen gleich zu ziehen. Aber wie gesagt Ryzen ist für Gaming ja ungeeignet, da schlechte IPC ;-)

taktbereinigt interessiert aber auch wieder keine Sau. Macht ja auch keiner. Was hier einige fanboys nicht verstehen, die K/X prozessoren laufen ja nochmal gut über Stock, 5 Jahre alter 5960X mit 1703 im cb r15 ist ja nicht so schlecht :)
 
Zurück
Oben