News Snapdragon X Elite im Benchmark: Qualcomm steigt wie Phoenix aus der Asche

Haldi schrieb:
Also 30% mehr Performance bei 4 Fachem Stromverbrauch?
Am Ende ist da ja nicht gesagt, ob dass System wirklich die 80 W auch benötigt hatte. So wie ich das verstehe, sind das ja die TDP-Grenzen.

Am Ende wären hier wirklich dann die Messungen an der "Steckdose" toll gewesen. Mal abwarten was da kommt.
Haldi schrieb:
GPU Leistung ist eh komplett irrelevant oder?
Jaein, so unwichtig ist die nicht. Kommt aber halt auch wieder darauf an, was man macht und wofpr man die GPU genutzt. Und es könnten in Zukunft auch mehr Spiele kommen.
Haldi schrieb:
Haben wir ja beim ARC Launch gesehen wie toll eine "neue" Grafik architektur mit bestehenden Games harmoniert.
Das ist nur bedint vergleichbar in diesem Fall. Intel hat mit Arc für Spieler eine bisher irrelevante Architektur in den Markt gebrach - es gibt ja noch Anleihen aus den vorherigen Generationen, die aber dank iGPU quasi nicht "optimiert" wurden - und einen vollständig neuen Softwarestack.

Adreno ist aber zumindest sowohl in der Unity als auch der Unreal-Engine bekannt und beide Entwickler optimieren auch auf diese Hardware.
Northstar2710 schrieb:
Gibt es und wird es geben. Blender ist als Arm-Build für Linux und Mac OS vorhanden. Die Wege dann für einen passenden Windows-Unterbau sind eher kurz.
Northstar2710 schrieb:
Läuft Adobe CC auf Windows Arm?
Da Adobe bereits für Mac OS entsprechende Anpassungen vornehmen musste sind auch hier die Wege nicht mehr so weit.

Am Ende wird man aber ab warten müssen, wie gut das alles läuft. Ich hoffe nur Qualcom als auch MS bekommen es hin den Treibersupport entsprechend sauber zu gestalten und das MS ihre emulationsschicht weiter verbessert.
 
  • Gefällt mir
Reaktionen: Clowntastisch, Seven2758, Michael vdMaas und eine weitere Person
Sind das nicht OpenGL Benchmarks? Unterstützt die AMD überhaupt noch?
Ich meine, in welcher Welt kann eine Intel IGPU mit einer 780M mithalten?
1698682296783.png
 
Zuletzt bearbeitet: (keine -> kann)
  • Gefällt mir
Reaktionen: Clowntastisch, Smartbomb, DF86 und 3 andere
Warum wurde die GPU Leistung denn nicht mit dem M2 Max verglichen? Letzterer dürfte hier ja deutlich schneller sein, da bereits der normale M2 nicht all zu weit entfernt ist. Der M2 Max müsste ja dann mindestens um den Faktor 2,5 mehr GPU Leistung haben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaasKersting
Habe ich hier einen Denkfehler?
Werden hier nicht Äpfel (risc) und Birnen (cisc) verglichen?
 
Gufur schrieb:
Werden hier nicht Äpfel (risc) und Birnen (cisc) verglichen?
Nein, hier werden keine Äpfel und Birnen verglichen.

RISC und CISC beschreiben nur, wie man eine ISA "aufbaut" vom Befehlssatz her, also ob man einfache - eher atomare Befehle - hat relativ einfachen Regeln zum decodieeren, oder ob man komplexe Befehle nutzt, de am Ende auch mehre Operationen in einem Befehl vereinen.
 
  • Gefällt mir
Reaktionen: eastcoast_pete, Clowntastisch und Cr4y
Gufur schrieb:
Habe ich hier einen Denkfehler?
Werden hier nicht Äpfel (risc) und Birnen (cisc) verglichen?
Der Befehlsdecoder reißt die RISC und CISC Befehle eh nochmal auseinander und macht Microcode raus.
Intern sind die mittlerweile alle RISC esk, wobei es aufgrund der Ursprungs ISA dann im Detail doch wieder leichte Unterschiede gibt.
 
Ich finde die Überschrift hier eher übertrieben...

Es ist definitiv ein Achtungserfolg, Qualcomm hat hier nun mit dem M2 (Max) gleichgezogen und ihn ein wenig überholt.
Aber wenn man den Sprung von früherer Qualcommhardware ignoriert und einfach den Vergleich zur Konkurrenz (also vor allem Apple) zieht, sind die Zahlen nicht unbedingt soooo beeindruckend.
Die Grafikbenchmarks gegenüber den M2 (also dem schwächsten M-SoC mit niedriger TDP) sind nicht vergleichbar, da 80W TDP einfach eine ganz andere Geräteklasse sind und bei 23W liegt Apple gleichauf.
Und bei der CPU-Leistung liegt Qualcomm zwischen 10- und 20% vor dem M2 Max. Das ist nett, aber nicht uneinholbar.
Aber gleichzeitig hat Qualcomm hier ja auch das Team welches für den M-SoC zuständig war übernommen und konnte einzig deshalb diesen Sprung machen, hier wird Testhardware mit Geräten verglichen die man jetzt sofort im Laden kaufen kann und es ist nicht gesichert, dass kaufbare Hardware mit dem Oryon die Leistung dann auch so liefert und evtl. wendet sich das Blatt in 7 Stunden sowieso wieder, wenn möglicherweise der M3 vorgestellt wird.
 
  • Gefällt mir
Reaktionen: Clowntastisch und Notting
Wahrscheinlich hat man sich daher nun doch bei Apple dazu entschieden, einen Halloween-Termin zu machen und wohl das M3-Sortiment auf die Kunden loszulassen.

Da hieß es ja mal zwischenzeitlich vielleicht erst Frühjahr 2024.
 
  • Gefällt mir
Reaktionen: crackett
Zitat wikipedia:

"Die Redewendung wie Phönix aus der Asche oder wie ein Phönix aus der Asche wird heute zumeist genutzt, um einen Neuanfang nach einer großen Niederlage zu beschreiben."

Vielleicht sollte der Autor vor der Verwendung ihm gänzlich unbekannter Phrasen wenigstens deren Bedeutung ergründen....
 
  • Gefällt mir
Reaktionen: Clowntastisch, II n II d II und Revolvermann01
Freut mich für Qualcomm das sie der Konkurrenz mal die Rücklichter bzw. Nebelleuchte zeigen.
 
Trelor schrieb:
@Philste
Was da eher Enttäuscht ist die GPU.
Gerade wenn man bedenkt, dass selbst der 8 Gen 2 in Sachen GPU Energieeffizienz ein ganzes Stück vor dem A17 Pro liegt. Da dürfte sich ComputerBases Theorie, dass die GPU noch auf einer älteren Version der Architektur beruht vermutlich bewahrheiten.

Wie ja im Artikel schon geschrieben wurde ist das Design schon ein paar Jahre alt und nicht mit dem selben Feature-Set ausgestattet wie der Snapdragon 8 Gen2 oder Gen3.
Das wird eher auf dem Niveau vom 8+ Gen1 aus Sommer 2022 sein. Für den ersten SoC ist die GPU Performance trotzdem beachtlich.
Im nächsten Design wirds bestimmt auch Ray Tracing geben. Wie gut und sinnvoll wird man dann aber sehen müssen^^
Von der reinen GPU Raster Performance her wird es definitv deutliche Steigerungen geben.
 
Zuletzt bearbeitet:
Ich hoffe das heist das es damit endlich mal Highend cips für android tablets gibt. Apple steht da mit den A..X Modellen und jetzt mit dem M1/2 alleine da. Aktuell gibt es keine echten Highend Android tablets.
 
Die Grafikleistung finde ich für ne APU, denn nichts anderes ist das Teil schon beeindruckend.
Könnte mir gut vorstellen dass man damit Minirechner baut. Gamingleistung ist völlig ausreichend für aktuelle Titel. Einzige Problem ist dann nurnoch die CPU/GPU Unterstützung durch Windows und die Spielehersteller.
 
  • Gefällt mir
Reaktionen: Clowntastisch
Puh bei aktuellen Titteln Wird es schon eng zu dem die allermeisten Spiele für X86 cpus ausgelegt sind. Wen ich gerade an Alan Wake denke das für 1080 p eine 4090 braucht und das solche spiele wohl eher mehr als wenige werden halte ich diese aussage für gewagt. Unter das Level der aktuellen Konsolen sollte man auf keinenfall gehen.
 
GPU Performance in Control 1080p und 4k: https://videocardz.com/newz/qualcom...performance-matches-amd-radeon-780m-in-gaming

Da sieht es dann nicht mehr so rosig aus, läuft aber auch emuliert. GfxBench oder 3dmark WildLife ist aber nicht sehr repräsentativ. OpenGL hat weder bei AMD noch bei Intel einen Stellenwert, außerdem ist das bei den extrem hohen fps mehr ein CPU Benchmark, wo der Qualcomm offenbar besonders gut aussieht. Beim 3dmark wäre timespy repräsentativer gewesen als WildLife Extreme, den sonst nie jemand benutzt.

Bedenken muss man außerdem, dass der Snapdragon X Elite voraussichtlich in 6-10 Monaten auf den Markt kommt. Bis dahin gibt es bei Intel Meteor Lake und Strix Point dürfte bei AMD auch in den Zeitrahmen fallen, als ab mitte 2024. Die ST Performance sieht aber schon sehr stark aus, auch die Effizienz bei 23W. Das müssen Intel und AMD erstmal erreichen.
 

Anhänge

  • QUALCOMM-SD-X-ELITE-GAMING-1.jpg
    QUALCOMM-SD-X-ELITE-GAMING-1.jpg
    133,6 KB · Aufrufe: 70
  • QUALCOMM-SD-X-ELITE-GAMING-2.jpg
    QUALCOMM-SD-X-ELITE-GAMING-2.jpg
    136,2 KB · Aufrufe: 71
  • Gefällt mir
Reaktionen: Clowntastisch und w33werner
Zurück
Oben