News Grafikkarten: AMD will auf der E3 auch über Raytracing sprechen

Colindo schrieb:
Da du die Begriffe so gut definiert hast, - großes Lob dafür - von mir hier die Korrektur, dass Spiegel sehr hochreflektierend sind, je nach verwendetem Metall. Silber reflektiert ca. 98% und Aluminium ca. 90% des Lichts im sichtbaren Bereich. Kann dir gerne eine Referenz geben, falls du weitere Details möchtest :)
Ich hab nur die Zahl über das gesamte Spektrum auf die schnelle gehabt, da ich neben bei über Superspiegel gelesen haben, die auch die "Wärmestrahlung" zurück werfen, also nicht nur mehr das sichtbare Licht. Hoch interessant, woran man so forscht und wofür.
 
  • Gefällt mir
Reaktionen: Colindo
Taxxor schrieb:
Bleibt die Frage, ob hardwarebeschleunigtes RT nur in den Custom Lösungen der Konsolen zu finden sein wird, oder ob es bereits in die nächsten Desktop Karten kommt.
Die Frage ist eher ob es dedizierte Einheiten für RT gibt bei AMD oder ab das über die Compute-Cores realisiert wird. Da liegt ja oft Leistung brach die man so nutzen könnte.
 
Nach der Bestätigung von Raytracing auf der PS5 und der XBOX sollte es dann aber doch mit dem Teufel zugehen, wenn gerade die neuen AMD PC GPUs dann plötzlich kein Raytracing beschleunigen würden.

Es besteht wohl doch eine gewisse chance, dass Raytracing der "thunder" ist, dem man Lisu Su im Bereich der Vorankündigungen nicht nehmen will.

Sollten dann wirklich die Konsolen und die großen Grafikkartenhersteller Raytracing untersützen geht es glücklicherweise Schlag auf Schlag.
Zum Glück wird dann auch den Raytracing- Gegnern der Wind aus den Segeln genommen und wir können endlich wieder Sprünge in der Grafikqualität erleben, da die das dann früher oder später so oder so adaptieren müssen.

Eine sehr schöne Entwicklung. Vor allem auch, wenn man im Hinterkopf behält, dass wir dann wieder eine Technik haben, die im Gegensatz zur Rasterisierung um Klassen besser mit den Kernen nach oben skalieren kann.

RT ist auch Ideal für Multi- GPU Berechnung, so dass SLI und CF Systeme einen zweiten Frühling erleben könnten.
Icke freu mir.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cpt.Willard, USB-Kabeljau und t3chn0
ZeroZerp schrieb:
Zum Glück wird dann auch den Raytracing- Gegnern der Wind aus den Segeln genommen und wir können endlich wieder Sprünge in der Grafikqualität erleben, da die das dann früher oder später so oder so adaptieren müssen.

Vor allem sollten so langsam alle erkennen, dass Zukunftsfähigkeit in Verbindung mit Grafikkarten nicht an dem Thema vorbei gehen kann.

Alle Grafikkarten die RT nicht in Hardware beschleunigen können, werden ab dem kommenden Jahr ziemlich schnell altern, egal wieviel VRAM auf ihnen verbaut wurde.

Allerdings ist das auch keine neue Erkenntnis, nur kommt sie bei einigen anscheinend nur sehr träge an.
 
  • Gefällt mir
Reaktionen: KlaraElfer, USB-Kabeljau und .Sentinel.
ZeroZerp schrieb:
Nach der Bestätigung von Raytracing auf der PS5 und der XBOX sollte es dann aber doch mit dem Teufel zugehen, wenn gerade die neuen AMD PC GPUs dann plötzlich kein Raytracing beschleunigen würden.
Wie gesagt die Konsolen kommen erst 2020 und haben in ihren custom Lösungen oft Features, die die Standard HW noch nicht besitzt.
2020 werden ja auch neue PC GPUs kommen.
ZeroZerp schrieb:
Sollten dann wirklich die Konsolen und die großen Grafikkartenhersteller Raytracing untersützen geht es glücklicherweise Schlag auf Schlag.
Bei der Unterstützung von 8 Kernen geht es seit 2013 leider auch nicht wirklich Schlag auf Schlag
Ergänzung ()

xexex schrieb:
Alle Grafikkarten die RT nicht in Hardware beschleunigen können, werden ab dem kommenden Jahr ziemlich schnell altern, egal wieviel VRAM auf ihnen verbaut wurde.
Sofern man RT in seinen spielen aktiviert. Ansonsten werden sie kein Stück schneller altern. Und ich bezweifle stark, dass wir in den nächsten 5 Jahren Spiele bekommen die RT voraussetzen, bzw mit RT signifikant besser aussehen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: thuNDa, KlaraElfer und Chaos Theory
xexex schrieb:
Vor allem sollten so langsam alle erkennen, dass Zukunftsfähigkeit in Verbindung mit Grafikkarten nicht an dem Thema vorbei gehen kann.

Zukunftsfähigkeit hieß bezogen auf Grafikkarten für mich "kaufe maximal Mittelklasse, dafür öfter". Ich sehe noch nichts was mich zu einer Änderung meiner Strategie zwingen würde.
 
  • Gefällt mir
Reaktionen: xexex
Taxxor schrieb:
Bei der Unterstützung von 8 Kernen geht es seit 2013 leider auch nicht wirklich Schlag auf Schlag
Das ist ja auch kein Wunder, Jaguar ist schlicht ein nicht ernstzunehmender Witz was die Performance angeht.

Zudem wir jetzt die Situation haben, dass nicht nur AMD >=6C anbietet, sondern auch Intel aktuell bis zu 8C. Und mit Comet Lake geht's auch da rauf auf 10C.
 
Linmoum schrieb:
Das ist ja auch kein Wunder, Jaguar ist schlicht ein nicht ernstzunehmender Witz was die Performance angeht.
Hä? Gerade deshalb hätte die Optimierung auf 8 Kerne noch schneller gehen müssen, weil man keine gute SC Leistung hat und eigentlich gezwungen ist stattdessen mehr mit den Kernen anzustellen
 
  • Gefällt mir
Reaktionen: thuNDa und Hayda Ministral
Taxxor schrieb:
Bei der Unterstützung von 8 Kernen geht es seit 2013 leider auch nicht wirklich Schlag auf Schlag
Das ist richtig- Wobei da der Fall ganz anders gelagert ist, weil bei CPUs mit steigender Anzahl der Kerne zeitgleich der Applikationshorizont geringer wird, der davon tatsächlich profitiert.

Raytracing ist ja genau das Gegenteil. Skalierbarer gehts fast nicht mehr. Da kannst Du Kerne drauf werfen, bis Du schwarz wirst und es wird dabei immer schneller.

Und ein ganz erheblicher Unterschied bei RT ist zudem, dass der Einsatz massig Ressourcen im technischen Bereich der Grafikabteilung bei den Entwicklern einspart.
Da wo es um finanzielle Vorteile geht, setzt sich eine Technik im Normalfall sehr schnell durch.

Und ich bezweifle stark, dass wir in den nächsten 5 Jahren Spiele bekommen die RT voraussetzen, bzw mit RT signifikant besser aussehen
Die Spiele können mit Raytracing nicht signifikant besser aussehen, als man es jetzt in einigen AAA Produktionen schon zu sehen bekommt, da eines der wichtigsten Bestandteile (z.B. Beleuchtung) bei diesen bereits auf Raytracing basieren (nur eben in vorberechneter Form). Auch Spiegelungen werden schon länger im Screenspace geraytraced.

Nur geht diese vorberechnete Art eben zu Lasten des Speicherplatzes, Auslastung der Streaming- Engine, Szenenkomplexität, Einschränkungen beim verwenden bewegter Objekte, zerstörbarer Umgebungen, Interaktion mit der Umwelt etc.

Ansonsten wird einfach alles nur akkurater und richtiger dargestellt. Schatten, durchsichtige Objekte, Lichtbrechungen, Kaustiken... Alles scheint durch RT einfach richtig in der Szene verhaftet/verankert.
Das Bild wird plastisch.

LG
Zero
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
Es gibt eigentlich keine RayTracing-Gegner, es gibt nur RTX-Gegner da diese Karten zu langsam (mit RT) und bei Weitem zu teuer sind.
 
  • Gefällt mir
Reaktionen: Hayda Ministral
Es sieht - laut VCZ - so aus, also ob auf der E3 nicht nur (evt. hardware-basiertes) RT-Raytracing fuer die RX 5700 XT Navi 7nm GPU (und vielleicht noch andere Modelle) vorgestellt werden wird, sondern auch der erste 16-Kerne RyZen Matisse 7nm Mainstream-Prozessor mit 4.7GHz Turbo bei einer Basis von 3.5 GHz als R9 3950K ;).

790446
 
  • Gefällt mir
Reaktionen: Cpt.Willard, Chaos Theory und .Sentinel.
@Chismon
Das wäre ein Fest! Unglaublich, was AMD da für ein Feuer mit den neuen Produkten angezündet hat....
 
  • Gefällt mir
Reaktionen: KlaraElfer, Chismon, Taxxor und eine weitere Person
Chismon schrieb:
Es sieht - laut VCZ - so aus
Igor hat das auch schon in einem Video bestätigt, die Folien sind definitiv echt und stammen vom gestrigen Tech Day.

Sehr clever, sich den 16C für die E3 aufzuheben, so bleibt Ryzen bis zum Release weiterhin Top News^^
Auch schön zu sehen, dass die Taktwall zumindest nicht bei 4.6 liegt.
Und erstaunlich, dass sie das trotzdem noch in 105W TDP packen, der Allcore dürfte damit wohl so um die 4GHz liegen.

Ich sage $649 oder $699
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer und Chismon
790506

Mal gucken noch ein paar Stunden dann wissen wir mehr.
 
  • Gefällt mir
Reaktionen: Rangerkiller1 und USB-Kabeljau
Also was ich an der Folie mal wieder sehr toll finde ist das sie nicht wie bei Intel oder Nvidia eine Skala einbauen und es Optisch so aussieht als wären 5% das doppelte an Leistung. Ebenso haben sie sogar 2 Titel mit etwas weniger Leistung gezeigt... Mega Gut finde ich sowas.
 
  • Gefällt mir
Reaktionen: Suteki, Rangerkiller1, Chismon und 2 andere
Auch die Anmerkung am Rand ist gut, dass für beide GPUs jeweils die bessere API genutzt wurde.
 
  • Gefällt mir
Reaktionen: Rangerkiller1 und Chismon
was jetzt noch interessant sein wird ist der Preis , 499 Dollar halte ich für etwas überzogen , 399 wäre da angebrachter
 
499 kann ich mir auch nich vorstellen. Is ja jetzt keine Pornokarte damit man da loslegen kann wie bei den CPUs... selbst 399 wäre schon fast grenzwertig.. is halt auch "nur" 8GB Ram drauf... 12 wären halt wieder geil gewesen.
 
Wenn die Werte aus der Folie in der Realität so hinkommen müsste man eben auch effizienter sein um den Preis im Bereich der schon länger erhältlichen 2070 zu platzieren.
Mit 399 wäre ich zufrieden.
Allerdings kommen die customs wohl wieder erst einen Monat später, dann kann man noch mal über den Preis reden.
Und man sieht auf der Folie auch: 2x8Pin Power Connectors, also TBP >200W

Die 5700 XT dürfte so 10-15% über der Vega64 Referenz bzw 5% über den Vega Custom Karten sein.
Und Vega Custom Karten bekommt man für 380€, wer soll da eine 5700 XT Referenzkarte für 500€ kaufen?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer
Taxxor schrieb:
Hä? Gerade deshalb hätte die Optimierung auf 8 Kerne noch schneller gehen müssen, weil man keine gute SC Leistung hat und eigentlich gezwungen ist stattdessen mehr mit den Kernen anzustellen
Dieses Thema haben wir bereits so oft gehabt und ich schreibe diesen Beitrag in der Form so oft, dass es gefühlt 90% meiner Beiträge ausmacht. Irgendwann wird es echt nervig!

Eines der Hauptprobleme der Informatik ist, dass sich nicht jedes Problem in beliebig viele kleinere Teilprobleme zerlegen lassen, die Nebeneinander lauffähig sind. Oder stark vereinfacht: Es gibt Probleme die kann ich nicht beschleunigen in dem ich einfach mehr Nebenläufigkeit hinein programmiere.

Man muss bei der Nebenläufigkeit nämlich auch mehrere Aspekte beachten: Abhängigkeiten der Unterprobleme, Datenaustausch und so weiter und so weiter. Gerade der „Austausch“ von Daten kann relativ schnell zu einem Flaschenhals werden, der zudem die Programmierung unnötig erschwert. Sobald für den Datenaustausch dann eine „Controll-Instanz“ notwendig wird, rennt man relativ schnell in das Amdahlsche Gesetz: https://de.m.wikipedia.org/wiki/Amdahlsches_Gesetz

In der Spieleentwicklung kann man zudem in der Regel zwar einzelne Themengebiete relativ gut in eigene Threads auslagern - Physik, KI, Sound, Eingabe, Oberfläche usw. - aber es gibt Abhängigkeiten unterhalb dieser Themengebiete, bei den man zwar dann wiederum eine Unterteilung in Unterproblemen vornehmen könnte, aber der Datenaustausch wird mit der Zeit immer komplizierter und unüberschaubarer.

„Grafische-Berechnungen“ - wenn alle Daten aus der Physik, KI usw. vorhanden sind - können anschließend als Bild relativ einfach in beliebig viele Teilprobleme zerlegt werden, die dann unabhängig von einander sind. (Es gibt ein paar Ausnahmen aber auf die kann ich aus zeitlichen Gründen nicht eingehen und bei einigen Sachen müsste ich mir auch noch entsprechendes Wissen vorher anlesen.)

So einfach, wie sich manche es sich hier immer vorstellen ist es halt eben nicht!
 
Zurück
Oben