Test Grafikkarten 2022 im Test: AMD Radeon RX und Nvidia GeForce RTX im Benchmark

Aljonator schrieb:
Danke! Deiner ist aber auch beachtlich! 😁

Scheint, als wĂŒrde das ganze System bei demjenigen nicht so ganz rund laufen. 😂

Aber ja, ich bin vollstens zufrieden mit der Karte. 😊
Ist halt ein WaKĂŒ Score, also ein bisschen gecheated. Man sieht aber, dass zumindest in Timespy die Karten absolut gleichauf liegen und da beide 5120 Shader haben auch eine vergleichbar gute Architektur haben (nVidia ein bisschen weniger effizient und mit der Brechstange erkĂ€mpft). Krass wie schnell AMD das Spiel gedreht hat. Ohne WakĂŒ wĂ€re die 6900 problemlos schneller als meine 3080 Ti.

Ich hab das GefĂŒhl wenn AMD den 6900ern ein höheres Powerlimit spendieren wĂŒrde (ja haut mich dafĂŒr) dĂŒrften die mit entsprechender WaKĂŒ verdammt kranke OC Monsterkarten abgeben. Die lassen sich ja schon auch so gut takten, hab ein paar Benches mit Waterblock gesehen und da war das Problem eher, dass man noch Luft nach oben hatte thermisch und nicht genug Saft geben konnte.

Umso gespannter bin ich auf die nĂ€chste Gen, wenn AMD da noch in Puncto RT Cores nachlegt und mit Multi Chiplets kommt werden das ganz fiese Geschosse. Man ĂŒberlege das mal: zwei Chiplets a 5120 Shader und dann in 5nm mit evtl. knapp 3Ghz Boost laufend - da darf die gerne auch 500W ziehen 😂
 
  • GefĂ€llt mir
Reaktionen: MegaDriver und Aljonator
ThirdLife schrieb:
zwei Chiplets a 5120 Shader
Stell dir vor: die 7900 soll sogar mit 2x7680 Shadern kommen. Die 7800 soll dann mit 2x5120 Shadern kommen. Aber egal wieviele Shader kommen werden: wichtig ist die theoretische Leistung in FPS umzuwandeln. Die 3080ti / 3090 haben ĂŒber 10k Shader. Und trotzdem sind sie nicht doppelt so schnell wie die AMD Karten.
 
  • GefĂ€llt mir
Reaktionen: MasterAK
MasterAK schrieb:
Stell dir vor: die 7900 soll sogar mit 2x7680 Shadern kommen. Die 7800 soll dann mit 2x5120 Shadern kommen. Aber egal wieviele Shader kommen werden: wichtig ist die theoretische Leistung in FPS umzuwandeln. Die 3080ti / 3090 haben ĂŒber 10k Shader. Und trotzdem sind sie nicht doppelt so schnell wie die AMD Karten.
Umso geiler. Aber das bei nVidia stimmt nicht ganz, die 3080 Ti hat 5120 Shader, die mehrfach funktional sind (FP16/32 irgendsowas ?).

Die 10k Shader sind reines Marketing. Weil MEHR ist ja auch immer BESSER. đŸ€Ł
 
  • GefĂ€llt mir
Reaktionen: MasterAK
Ist ja auch so.
 
Pchelp88 schrieb:
Nicht unbedingt. Ein VerstĂ€rker der zwar krass hohe Peak Werte bringt und dabei relativ hohes Klirr aufweist ist nicht besser als einer der weniger Leistung bringt, die dafĂŒr aber konstant bringen kann und bei kaum Verzerrungen.

Und bei GPUs dĂŒrfte die Architektur oft eine grössere Rolle spielen als die reine theoretische Rohleistung wenn man sie nicht in echte Leistung ummĂŒnzen kann und nur auf der Stromrechnung sieht.
 
ThirdLife schrieb:
Nicht unbedingt. Ein VerstĂ€rker der zwar krass hohe Peak Werte bringt und dabei relativ hohes Klirr aufweist ist nicht besser als einer der weniger Leistung bringt, die dafĂŒr aber konstant bringen kann und bei kaum Verzerrungen.

Und bei GPUs dĂŒrfte die Architektur oft eine grössere Rolle spielen als die reine theoretische Rohleistung wenn man sie nicht in echte Leistung ummĂŒnzen kann und nur auf der Stromrechnung sieht.
Ampere sauft ist trotzdem effizienter als jegliche VorgÀnger
Mehr ist immer besser dabei bleibe ich. Mann kann eine 6900 mit 160 Watt laufen lassen, schlÀgt trotzdem jede 3070ti.

Meeeeehhhrrr ffs
 
  • GefĂ€llt mir
Reaktionen: ThirdLife
Pchelp88 schrieb:
Ampere sauft ist trotzdem effizienter als jegliche VorgÀnger
Mehr ist immer besser dabei bleibe ich. Mann kann eine 6900 mit 160 Watt laufen lassen, schlÀgt trotzdem jede 3070ti.

Meeeeehhhrrr ffs
Effizienter ja, aber nicht zwingend grĂ¶ĂŸer.

Guck den GP102 der 1080 Ti an mit 3584 Shadern, vergleichbar schnell zur RTX 2070S, diese hat aber nur 2560 Shader. Oder der GA102 der 3080 mit 4352 Shadern ggĂŒ. dem TU102 der 2080 Ti mit ebensovielen Shadern. Oder schau die Titan X an mit 3072 Shadern, stinkt total ab ggĂŒ. einer halb so großen 3060.

Schnellerer Speicher, bessere Architektur und teilweise auch mehr Saft. Rohleistung in Form vieler Shader allein reisst noch nix. :D
 
Ja aber neu kommt mit besserer Arch da passt es dann wieder ;) sonst wÀre vega gut gewesen.

Obwohl gib der 1080ti 20k Shader und einen generator stimmts wahrscheinlich auch bei 5k wattđŸ€Ł
 
Netter Benchmark Parcour.
Nur leider ziemlich unnĂŒtz fĂŒr Linux Gamer.

Ich hĂ€tte schon lĂ€ngst einen Pro Account, wenn Ihr auch mal Hardware Tests veröffentlichen wĂŒrdet, die fĂŒr mich (und bestimmt ein paar andere) interessant wĂ€ren.
 
Hab ich was ĂŒberlesen, oder wo ist der Teil mit dem Stromverbrauch vor allem wenn man es auf 144 Hz begrenzt?
 
Mydgard schrieb:
steht halt nicht im Artikel ...
Doch ist verlinkt, erste Seite letzer Absatz bei Leistungsaufnahme mit mehr Fokus auf Effizienz. ;) MFG Piet
 
PietVanOwl schrieb:
Doch ist verlinkt, erste Seite letzer Absatz bei Leistungsaufnahme mit mehr Fokus auf Effizienz. ;) MFG Piet
Ja, auch hier weiß ich was Du meinst, aber "Wer genauere Details zu den neuen Verfahren bei den Leistungsaufnahmemessungen erfahren möchte, sollte einen Blick in den Artikel Leistungsaufnahme moderner GPUs neu vermessen werfen." impliziert, das es da nur um genauere Details geht bzgl. Stromverbrauch, nicht das das den Part ersetzt den ich hier als fehlend erachte.
 
Tests kann man doch kaum noch machen, die Spiele sind doch meist mit einem Hersteller verheiratet. :-)
 
Ich hab das mal gelöscht da ich eben realisiert habe, das meine Frage in die Kaufberatung gehört.
 
Zuletzt bearbeitet:
ZurĂŒck
Oben