News Mali G1-Ultra, Premium und Pro: Arm verdoppelt die Raytracing-Leistung der Mobile-GPUs

nlr

Redakteur
Teammitglied
Registriert
Sep. 2005
Beiträge
11.161
  • Gefällt mir
Reaktionen: flo.murr, pipip und cosmo45
Ich verstehe es nicht, das braucht doch kein Mensch. Raytracing weglassen, mehr Akkulaufzeit weil kleinerer Chip mit weniger verbrauch !
 
  • Gefällt mir
Reaktionen: Weltenspinner, Chaosbreed, DirtyHarryOne und 6 andere
Irgendwie muss ich immer noch mit der Stirn runtzeln wenn ich Raytracing und Mobile (Handy) lese.
Selbst eine 4090/5090 hat ihre Probleme damit und die Chips sind größer und Leistungsfähiger also was will man damit im Handy?

Aber naja, einen Anwendungsfall wirds ja geben, macht man halt die Vaporchamber größer ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: flo.murr, Weltenspinner, Seven2758 und eine weitere Person
@sikarr ja ist alles Banane, ich mein, es ist schon beeindruckend wenn die Switch 2 bei Star Wars RT abliefert, aber zu welchen Kosten? Das macht alles keinen Sinn
 
  • Gefällt mir
Reaktionen: sikarr
RT ist halt die Zukunft, auch im Mobil Bereich muss irgendwann der Wechsel kommen.
Spannend wär die Leistung im Vergleich etwa zu den ersten RT Karten auf dem Desktop
 
  • Gefällt mir
Reaktionen: flo.murr und MalWiederIch
@scootiewolff22 zumal man ja auch ma sehen muss auf der Switch RT ist ja auch wieder was anderes als auf dem Handy und PC. Wahrscheinlich geht da mehr auf der Switch als auf dem Handy aber der PC hat dann nochmal mehr Power. Wenn man bei Cyberpunk mal alles aufdreht sieht das schon verdammt geil aus aber die Lüfter drehen dann alle hoch.

Ich bezweifle das man das mit dem Handy vergleichen bzw. auch wahrnehmen kann.
Ergänzung ()

BAR86 schrieb:
RT ist halt die Zukunft
seit 40 Jahren?
BAR86 schrieb:
auch im Mobil Bereich muss irgendwann der Wechsel kommen.
nein eigentlich nicht, die Mobilgrafiik ist immer noch schwächer als auf größeren Geräten und das hat ja auch seinen Grund, Energieverbrauch und Wärmeentwicklung. Solange die beiden Probleme nicht gelöst sind sollte man kein Neues aufmachen.
 
  • Gefällt mir
Reaktionen: Tommy64
Wundert mich, warum man keinen hybriden Ansatz wie bei den Desktop GPUs verfolgt, sondern statt effizienter primary rays mit dem packed ray Modell zu verarbeiten gleich auf das single ray Modell geht, was erst bei secundary rays also mehreren bounces und diffusem Licht bzw. allgemein hoher Divergenz besser performt.
Zock schrieb:
Ich verstehe es nicht, das braucht doch kein Mensch. Raytracing weglassen, mehr Akkulaufzeit weil kleinerer Chip mit weniger verbrauch !
Raytracing ist bei komplexen Beleuchtungseffekten effizienter als rasterbasierte Ansätze. Alleine das reicht als Grund aus. Dazu kommt die vereinfachte Entwicklung und wohl auch strategische Motive.
Zock schrieb:
Raytracing weglassen, mehr Akkulaufzeit weil kleinerer Chip mit weniger verbrauch !
Das gilt nicht pauschal, vor allem dann nicht wenn sich die GPU durch verschiedene Renderpässe quälen muss um eine ordentliche Beleuchtung zu berechnen, da schont es durchaus Akkulaufzeit wenn man auf RT geht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MalWiederIch und Zock
sikarr schrieb:
Jep. Aber da wars halt pre-rendered und ist seither in immer mehr CGIs gekommen und von dort nichtmehr wegzudenken.
Seit 2018 ist Echtzeit RT im Spielebereich angekommen
sikarr schrieb:
nein eigentlich nicht, die Mobilgrafiik ist immer noch schwächer als auf größeren Geräten und das hat ja auch seinen Grund, Energieverbrauch und Wärmeentwicklung. Solange die beiden Probleme nicht gelöst sind sollte man kein Neues aufmachen.
Man muss halt Bedarf erzeugen für Neues.
Es bräuchte so vieles nicht im Mobilbereich, was die Ausdauer verringert...
 
  • Gefällt mir
Reaktionen: MalWiederIch, slow_snail, Powl_0 und eine weitere Person
BAR86 schrieb:
Seit 2018 ist Echtzeit RT im Spielebereich angekommen
Naja, nicht wirklich. Viele Entwickler nutzen es nicht oder es frisst Unmengen an Leistung. Anstatt z.B. bei der UE 5, Hardware Lumen zu nutzten, nehmen viele Entwickler lieber, wenn überhaupt, Software Lumen.
 
  • Gefällt mir
Reaktionen: Botcruscher
@sikarr Das wird sich langfristig aber ändern.
Weil die Leistung in GPUs steigt und dann der Vorteil von RT über 1000 übereinandergelegte Rendertricks in Rastern größer wird, während die Arbeit für die Entwickler weniger wird.
Ist ein Prozess und hängt mit der RT Leistung der kommenden Konsolengeneration zusammen. Wenn sie genug Leistung haben wird jedes Spiel RT haben, sonst tatsächilch erst mit der darauffolgenden Generation.
Und ja, das schleppt sich, weil Rastergrafik schon so gut ist, dass die Unterschiede zu ordentlichem RT zuerst klein erscheinen, aber es führt - wenn wir den Weg zu Fotorealismus gehen wollen - kein Weg daran vorbei eine bessere Beleuchtungstechnik zu verwenden als aktuell im Rastern vorgesehen.

Dass die Entwickler nicht zumindest die Option für Hardware-RT aktivieren ist reine Faulheit, weil es eigentlich schneller wäre (bei gleicher finesse) oder eben schöner.
 
  • Gefällt mir
Reaktionen: MalWiederIch, slow_snail und Quidproquo77
Zock schrieb:
Selbst eine 4090/5090 hat ihre Probleme damit und die Chips sind größer und Leistungsfähiger also was will man damit im Handy?
Es für einfachere RT Effekte nutzen, ganz einfach. Dafür reicht die Leistung auch aus, siehe Immortals oder PUBG Mobile bzw. GFX Bench. Das Argument die RT Leistung sei zu gering galt ja nicht mal bei RDNA 2 . Ob die Leistung reicht oder nicht liegt vielmehr an der Komplexität der Implementierung. Schau dir mal Resident Evil an. Das läuft auf ultra locker auf dem Steam Deck.
BAR86 schrieb:
Man muss halt Bedarf erzeugen für Neues.
Es bräuchte so vieles nicht im Mobilbereich, was die Ausdauer verringert...
Sicher teilweise zutreffend. Man will sich ja auch strategisch von der Konkurrenz abheben. Aber die Gründe liegen mMn größenteils woanders.

Bessere Grafik, effizientere Berechnung, AR bzw. VR und auch wissenschaftliche Anwendungen. Das wäre ungefähr genauso wenn ich sagen würde, dass 120 Hertz Displays auch nur Bedarf erzeugen.
 
  • Gefällt mir
Reaktionen: MalWiederIch
sikarr schrieb:
bezweifle das man das mit dem Handy vergleichen bzw. auch wahrnehmen kann.
Wahrnehmen kann man es sicher. Gibt ja bereits Mobile Spiele bzw Benchmarks, die RT nutzen und zeigen, dass damit die jeweiligen Effekte effizienter berechnet werden können und auch optisch einen Mehrwert haben.

Die aktuellen Smartphone GPU Flaggschiffe sind nicht so langsam, wie mancher hier zu glauben scheint. In Lasten mit moderater Komplexität wildern die mittlerweile ungefähr auf dem Niveau von zB Nvidias mobiler RTX 3050. Bei hoher Komplexität fallen sie zurück auf das Niveau der etwas stärkeren AMD und Intel iGPUs, aber auch das ist nicht nichts.

Da mobile Spiele tendenziell auch abgespeckte Komplexität ihrer Grafik Assets haben, kann es entsprechend durchaus Sinn machen und flüssig rendern, wenn da RT drüber gebügelt wird.

RT als grundsätzliche Technologie ist hier und wird bleiben. Allein schon für Feature Parity "müssen" mobile GPUs das auch können. RT Einheiten muss man als Entwickler ja nicht zwingend nur für volle Kanne PT verwenden, sondern kann sie auch für hybride Ansätze und weniger fordernde Effekte nutzen.
 
  • Gefällt mir
Reaktionen: nlr und MalWiederIch
Quidproquo77 schrieb:
Sicher teilweise zutreffend. Man will sich ja auch strategisch von der Konkurrenz abheben. Aber die Gründe liegen mMn größenteils woanders.
RT im Mobilbereich ist auch teilweise natürlich Marketing und künstlicher Bedarf. Kein Mobile-Game braucht das im Moment.
Umgekehrt kann es aber auch ein Schritt richtung Mobile Konsolen sein, wo der Chip eventuell auch Fuß fassen möchte?
Oder es wird in Zukunft weiter verschmelzen und man steckt am Handy "Controller" an um damit dann am Handy oder Fernseher zu zocken?
Quidproquo77 schrieb:
Bessere Grafik, effizientere Berechnung, AR bzw. VR und auch wissenschaftliche Anwendungen. Das wäre ungefähr genauso wenn ich sagen würde, dass 120 Hertz Displays auch nur Bedarf erzeugen.
Wir haben halt jetzt seit ein paar Jahren wirklich genug Leistung für den Alltag, da muss man sich was einfallen lassen um
a) den Kunden zu verkaufen, dass sie weiterhin mehr Leistung brauchen und
b) die zusätzliche Leistungdarf dann auch wieder Akku fressen und man kann früher wieder neue Handys verkaufen, denn es ist schlichtweg reine Bedarfserzeugung, dass Apple hier ein extradünnes Handy anbietet, aber kein etwas dickeres, wo die Kameras sich nicht vom Gehäuse abheben dafür 3x so viel Akku drin ist (den man dann weniger oft laden müsste...)...
 
  • Gefällt mir
Reaktionen: MiroPoch
Powl_0 schrieb:
Die aktuellen Smartphone GPU Flaggschiffe sind nicht so langsam, wie mancher hier zu glauben scheint. In Lasten mit moderater Komplexität wildern die mittlerweile ungefähr auf dem Niveau von zB Nvidias mobiler RTX 3050. Bei hoher Komplexität fallen sie zurück auf das Niveau der etwas stärkeren AMD und Intel iGPUs, aber auch das ist nicht nichts.
Naja, das zweifle ich ehrlich gesagt an, wenn es so wäre würden Nvidia, AMD und Intel nicht solche Monster bauen wo 100W - 1000W reinfliessen wenn es auch mit wenigen mW - W gehen würde. Selbst eine iGPU zieht noch mehrere W im besten Fall. Irgendwo müssen die Desktopchips massiv mehr Leistung bieten können als die Mobileversionen.
 
sikarr schrieb:
Tatsächlich, ja.
So ziemlich jede Technik zur Beleuchtung in Echtzeitgrafik seit Anbeginn der Videospiele versucht eine optische Annäherung an das Ergebnis von vollem Ray Tracing (nach mathematischer Theorie) zu erreichen, mit verschiedenen Kompromissen.

Ich erinnere mich zB noch als Pre-Baked RT Lightmaps neu waren und Entwickler hyped waren, dass man jetzt endlich indirekte Beleuchtung irgendwie halbwegs gut aussehend machen konnte. (Aber damals eben nur statisch, je nach Speicherbedarf ziemlich matschig, mit stundenlangen Baking Zeiten, usw)

HW RT mit Undersampling und Denoiser und sonstwas ist eben die aktuellste Form dieser Annäherungsversuche. Und qualitativ bisher auch die beste mit den wenigsten Kompromissen.

Deshalb werden zB in wissenschaftlichen Arbeiten zu den Themen seit jeher recht häufig offline-RT Bilder als "ground truth" zum Vergleich heran gezogen, wie nah eine neue Technik ans Ziel kommt.
Ergänzung ()

sikarr schrieb:
oder es frisst Unmengen an Leistung.
Das frisst Rastergrafik auch, wenn sie in Qualität und vor allem Dynamik nah an Echtzeit HW RT ran will. Bzw wird Rastergrafik dann sogar deutlich teurer, wenn du zB wirklich per-Pixel Genauigkeit für jeden Effekt willst, oder arbiträr viele Lichtquellen, oder realistische Schattendiffusion, oder so viele andere Dinge.

RT hat recht hohe Grundkosten, kann dann aber ziemlich moderat skalieren, wenn die Komplexität der Szene und Effekte steigt.
Rastergrafik hat dagegen niedrige Grundkosten, viele Techniken und Effekte skalieren ab einem gewissen Punkt aber leider eher exponentiell.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MalWiederIch, Tommy64 und sikarr
Quidproquo77 schrieb:
Das gilt nicht pauschal, vor allem dann nicht wenn sich die GPU durch verschiedene Renderpässe quälen muss um eine ordentliche Beleuchtung zu berechnen, da schont es durchaus Akkulaufzeit wenn man auf RT geht.
Das ist maximal in einem von 10 Fällen so. RT Beleuchtung spart hauptsächlich Entwicklungszeit.
Leistungstechnisch ist für mobile auch heute noch Prebaked eigentlich das beste.
 
sikarr schrieb:
Naja, das zweifle ich ehrlich gesagt an
Musst du zum Glück nicht, sondern kannst es zB in den Benchmarklisten von Notebookcheck selbst ansehen.
Einen Adreno 850 oder eine Immortalis 925 findest du dort zwischen GTX 1650 Mobile und RTX 3050 Mobile in den seichteren Cross-Platform 3DMarks. In den "Extreme" Varianten der selben dann aber nur zwischen Radeon 860M und 880M/Arc 140T.

Die Flaggschiff SoCs gönnen sich bei Vollgas ja auch entsprechend viel Saft und drosseln dann nach ein paar Minuten.
 
Bei solche Meldungen muss ich dann immer lachen wenn ich hier an so manche User denke die meinen RT/PT sei nur eine Blase und wird sich nicht durchsetzen. Ja, viel Spaß dann in Zukunft mit euren <=RDNA3 GPUs
Ergänzung ()

sikarr schrieb:
Selbst eine 4090/5090 hat ihre Probleme
Welche Probleme? Kommt immer auf die Last an, auch mit hässlicher Rastergrafik kannst eine GPU niedermachen
 
Zurück
Oben