News Benchmarks unter Linux: Meteor Lake enttäuscht bei CPU und begeistert bei GPU

eastcoast_pete schrieb:
Idealer Weise leicht wieder umschaltbar auf "normale" Werte, wenn's dann doch mal schneller sein soll.
sollte durch den Adrenalin treiber einfach machbar sein
Ergänzung ()

pseudopseudonym schrieb:
@bemymonkey Sei froh, dass du's vorm Rückgaberecht gemerkt hast. Ich muss mit besagtem T14 Gen3 AMD jetzt arbeiten... Aber nur in der Nähe von Steckdosen.

Das nächste ist wieder mit Intel.
hast du denn mal versucht es unter linux zu optimieren? oder im bios?
 
Zuletzt bearbeitet:
Northstar2710 schrieb:
hast du denn mal versucht es unter linux zu optimieren? oder im bios?
Der Standard mit TLP, der Kernel ist auch aktuell.
 
BxBender schrieb:
Will man Grafikleistung, kauft man trotzdem AMD, weil man das große Mehr an CPU Leistung letzendlich irgendwann immer brauchen wird, sei es heute oder morgen.
Der Stillstand bei der CPU ist zwar ein Wermutstropfen, aber diese Generation ist trotzdem ein deutlicher Schritt nach vorne und deine Logik verstehe ich nicht. Die CPU Leistung ist doch gerade Singlethread immer noch konkurrenzfähig zu AMD, bis auf den Verbrauch unter voller Last und endlich gibt es auch eine gute integrierte GPU mit ordentlicher Effizienz dazu. Daraus kann man gute Produkte basteln.
BxBender schrieb:
Am Ende schmeißt doch jeder seine Hardware weg, weil das Betriebssystem zu lahmarschig geworden ist.
Das Betriebssystem kann man updaten.
BxBender schrieb:
... und sind kaum besser als eine 3050
Die ARC A770 liegt zwischen 3060 und 3060Ti, kommt mit RT auch an einer 6700XT vorbei.
Die 3050 ist deutlich langsamer.
BxBender schrieb:
Frage ich mich auch. Was möchtest du mit deinem Beitrag für Reaktionen erwarten? Kopfschütteln höchstens.
blackiwid schrieb:
Das mit dem Ruckeln hab ich von Moore's Law is Dead gehört von dem hab ich bisher noch keine Falschinformationen gehört, er meinte vermutlich Single Core denn 2 E-cores erzeugt auch hohe Stromverbraeuche.
Immer wieder was zum schmunzeln. g
 
eastcoast_pete schrieb:
Dir ist aber schon klar, daß Michael Larabel sich hier nicht den Treiber für die Meteor Lake iGPU selbst zusammengezimmert hat? Der kam schon von Intel. Von daher ist der Einwand nicht zu verstehen.
Dir ist klar das es auch um Spiele geht?
Mir persönlich sind irgendwelche anderen Benchmarks ehrlich gesagt herzlich egal, am Ende ist es dennoch so das es bei Intel oft am Treiber scheitert für die GPU ... ich hatte eine ARC, 2 Wochen und dann habe ich sie zurück geschickt denn gut laufen war da wohl eher weniger aber hey jedem das seine ;)
 
xpad.c schrieb:
In der Regel, soso.
Verstehe nicht, wieso Du das ausgerechnet als Antwort in diesem Thread schreibst, wo es doch bei genau diesem Vergleichstest an vielen Ergebnissen explizit dran steht (zum Beispiel hier).
Weil Michael gern mal was von Energieffizienz schreibt, obwohl er sich auf mittlere Leistungsaufnahme und daher NICHT auf Energiebedarf bezieht. Wobei es durchaus üblich ist, dass sich Andere auf Phoronix beziehen und diese Fehler astrein übernehmen und dann kommt halt sowas bei raus:
crustenscharbap schrieb:
Hmm AMD ist 28% schneller und verbraucht dabei 11% weniger Strom. Heftig. [...]
Es sind halt keine 11% mehr Energiebedarf, MeteorLake benötigt mehr Leistung und dies auch über längere Zeit. Der Energiebedarf ist dabei eben nicht nur 11% höher unter Last, sondern im Zweifelsfall besagte 25%.

Und eben weil es recht kritiklos übernommen und von Vielen falsch verstanden wird habe es erwähnt. :)

Und ja Regelfall, ich bilde mir ein, dass Michael ab und an es mal schafft statt mittlerer Leistungsaufnahme auch mal Energiemengen zu vergleichen, die für die selbe Rechenaufgabe nötig ist. Das ist aber extrem selten :(. Was auch noch geht ist, wenn er Flops zu mittlerer Leistungsaufnahme in Relation setzt, da ist die Zeitkomponente drinnen. Gerade bei dem CPU Test vom Meteor hat er das aber unterlassen.


pseudopseudonym schrieb:
Zumindest unter Linux kann die Akkulaufzeit kaum grottiger werden. Da sind die AMD-APUs eine herbe Enttäuschung. Jedenfalls mein 6850U.
AMD muss massiert werden. Uefi Einstellungen, pstate Govornor, manuelles Probieren mit powertop, Setzen von Kernelparametern etc. allein LMT hilft zu wenig. Und je nach Peripherie die mit verbaut wurde, wird es wirklich schwer. :(
 
NEO83 schrieb:
Dir ist klar das es auch um Spiele geht?
Mir persönlich sind irgendwelche anderen Benchmarks ehrlich gesagt herzlich egal, am Ende ist es dennoch so das es bei Intel oft am Treiber scheitert für die GPU ... ich hatte eine ARC, 2 Wochen und dann habe ich sie zurück geschickt denn gut laufen war da wohl eher weniger aber hey jedem das seine ;)
Die ARC Karten hatten (haben immer noch) Probleme mit vielen Spielen. Wenn Du Dir ein APU Notebook kaufst um auf der iGPU zu spielen, hast Du, je nach Spiel, uU recht. Wenn's aber um andere Anwendungen (und unter Linux) geht, ist Michael Larabels Ergebnis mE schon informativ.
Übrigens ist der Grund, warum ich nicht schon jetzt ein Notebook mit 7840 Phoenix habe auch, daß AMD für mehrere Monate nach Ankündigung (früh 2023) immer noch an den Treibern basteln mußte. Die fehlenden bzw unreifen Treiber (für die 780M!) waren scheinbar ein Hauptgrund, warum Notebooks mit Phoenix APUs erst spät im Sommer (August/September) von Tier 1 OEMs in den Handel kamen. Wenn AMD da früher zu Potte gekommen wäre, wären sie bei den Leichten Druck und Effizienten Notebooks schon der Platzhirsch gewesen.
Ergänzung ()

Ghostshield schrieb:
Intel war was fertigung betrifft mal Nummer 1 doch seit 10nm haben die nur probleme mit den yields und daher das 14nm++++++ später 10nm+++++++++++++

und dann haben die ihre Linien umbenannt, aus 10nm wurde 7nm etc...

https://www.hardwareluxx.de/index.p...nd-gibt-vorschau-auf-die-naechsten-jahre.html
Wobei bei keiner Firma die Strukturen dann automatisch derart dimensioniert sind. Am aussagefähigsten sind Parameter wie die Breite von vergleichbaren Strukturen (dieselbe bzw sehr ähnliche Aufgaben) und Transistorenzahl pro mm2. Die Zahlen wollen die Foundries aber alle nicht so gerne veröffentlichen, da ist man meist auf Dritte angewiesen. Wobei es (IMHO) zumindest im Moment unbestritten ist, daß TSMC 3 die am weitest entwickelte Fertigung ist, aus der man derzeit fertiges Silizium kaufen kann. Intel hat es irgendwann einmal gestunken, daß andere Firmen mit "nm" Strukturen geworben haben, die mit Transistorendichte nur ungefähr zu tun hatten.
Daß Intel allerdings den EUV Zug verpasst hatte, ist klar. Die Leute um Krzanich (ehemaliger Intel CEO) hatten sich da lange auf den Lorbeeren der Vergangenheit ausgeruht, und sich gleichzeitig sehr verzettelt. Als Folge davon wurde lange auch nicht genug Geld in bessere Fertigung gesteckt, da ja alles durch den "großen Sprung nach vorne" (Anleihe bei Mao) auf einmal gelöst werden sollte. Und der Sprung ging ins kalte Wasser.
 
Zuletzt bearbeitet:
Ist eigentlich aktuell auch ein Nachfolger von Alder Lake-N (N100, ...) geplant?
 
DevPandi schrieb:
Das ist für Intel durchaus ein Achtungserfolg.

Gleichzeitig muss man hier aber auch etwas die Ergebnisse in Relation setzten. Intel nutzt bei Meteor-Lake 8 Xe-Cores. Macht im ganzen 1024 Shader, AMD nutzt 12 CU, sind 768 Shader. (Und dabei belasse wir es mal, wenn wir bei AMD die "Dual-Issues" anführen, können wir bei Intel noch die dedizierten INT-Einheiten dazu rechnen.)

Dazu der Speicher und die Tatsache, dass RDNA 3 bei 780M ohne entsprechende Bandbreite sich langweilt und die 2,7 - 2,8 GHz nie ausspielt.

Man muss hier mal abwarten, was AMD hier später als Antwort für liefert und ob sie die CU noch mal erhöhen. Es ist aber gut, dass Intel hier so gut aufgeholt hat. Damit wird man auch hier endlich etwas Entwicklung haben.
Nö, Intel ist hinter AMD bei gleichem RAM...
 
  • Gefällt mir
Reaktionen: eXe777 und CableGuy82
Wow, da ist Intel iGPU tatsächlich mal in irgendeinen Benchmark 8 % schneller als der vergleichbare
AMD Prozi 🤣 🤣 🤣.
Das gab es schonmal. Ich nenne mal den i7-5775c und da lag es eher am L4 Cache.
Das ist zwar nice und sollte man die iGPU nicht für Spiele nutzen, auch okay.
Als dGPU würde ich mir Intel nie antun, ich weiß gar nicht wie man so masochistisch unterwegs sein kann, sich sowas zu kaufen, außer man hat halt noch Nvidia oder AMD Grafikkarten zu Hause und lacht sich über den Schrott kaputt.
Vielleicht ist ja mittlerweile besser geworden...? Aber viele Spiele gehen doch nicht wirklich mit Intel Grafikkarten ?
 
Ghostshield schrieb:
Meteor Lake kann in keiner Situation so effizient wie ein Ryzen 7840hs sein. Alleiner der technische unterschied und den sehr hohen Boost.
Das ist schlicht falsch. Intel hat doch deutlich bewiesen, dass wenn man gerne nur auf den Desktop schaut und nichts anderes im Hintergrund läuft, MTL extrem effizienter ist (glaube waren so 60%?)
 
BxBender schrieb:
Ob ich nun ca. 70 oder satte 210 Watt bei Cyberpunk udn Co benötige, ist bei den Strompreisen (Anhebungen nächsten Jahr Stadtwerke +32%) udn der nötigen Wärmeabführung (Hitze, Lautstärke, Netzteil, Zusatzlüfter/starke 360er Wasserkühlung) auf keinen Fall man wegzudiskutieren.

210 Watt bei CP?! Hab einen 13900KS, dieser braucht bei Standart VCore 80-100 Watt bei CP.
Nehme ich 100mv weg sind es nur noch 70-80 Watt. Wie kommst du auf 210 Watt?

Bitte Sachlich und Korrekt bleiben.....
 
john.smiles schrieb:
Jetzt kommen die Fanboytrolle raus und attackieren mich dafür, Clickbaitbase nicht superdupertoll zu finden.
Das ist ja (bisher) ausgeblieben.
 
isyyy schrieb:
210 Watt bei CP?! Hab einen 13900KS, dieser braucht bei Standart VCore 80-100 Watt bei CP.
Nehme ich 100mv weg sind es nur noch 70-80 Watt. Wie kommst du auf 210 Watt?

Bitte Sachlich und Korrekt bleiben.....
Wenn man sich z.b. auf den review test des 7800x3d von CB bezieht ist zwar 210watt zuviel, aber je nach spiel kommt da der 13900KS an 180watt ran https://www.computerbase.de/2023-04/amd-ryzen-7-7800x3d-test/#abschnitt_leistungsaufnahme_in_spielen

Es kommt aber natürlich auch immer darauf an wie man spielt, welche Einstellungen, wieviele FPS und wie stark dabei die cpu ausgelastet wird. Umso mehr fps umso stärker wird die cpu belastet bis ins cpu limit. Dann braucht die cpu natürlich mehr als wenn man im starken gpu limit hängt.
 
TheDarkness schrieb:
Das ist schlicht falsch. Intel hat doch deutlich bewiesen, dass wenn man gerne nur auf den Desktop schaut und nichts anderes im Hintergrund läuft, MTL extrem effizienter ist (glaube waren so 60%?)
ETA Prime hat eindeutlich gezeht das der Core Ultra 155H mit den 7840HS mithalten kann wenn der 64W ziehen, der 7840HS brauch da nur 30W für.
 
Zurück
Oben