Test Gaming-Grafikkarten 2024 im Test: GeForce-, Radeon- & Arc-Benchmarks im neuen Testparcours

Taxxor schrieb:
Genau wie bei Cyberpunk diejenigen mit weniger VRAM die Texturen reduzieren können, können bei Avatar diejenigen mit weniger RT Performance die RT Qualität reduzieren.
Das Problem bei CP2077 ist aber, dass selbst im Ultra Setting nur "SD-Texturen" zum Einsatz kommen. Es bräuchte schon ein HD-Texturpaket wie in Far Cry 6, damit ich mit einer entsprechenden Radeon eine zeitgemäße Texturqualität bekomme. Es gibt sicherlich mehr als genügend Gamer, die so etwas begrüßt hätten.
 
  • Gefällt mir
Reaktionen: Serandi
TigerherzLXXXVI schrieb:
Das Problem bei CP2077 ist aber, dass selbst im Ultra Setting nur "SD-Texturen" zum Einsatz kommen.
Das Problem bei Avatar ist aber, dass selbst im Ultra Setting nur RT-Lite zum Einsatz kommt.

Das Spiel können wir die ganze Zeit weiter spielen.


Für Cyberpunk gibts im übrigen eine HD-Rework Mod, die die auch mit Nvidia Karten bessere Texturen bietet weil sie fast keinen zusätzlichen VRAM benötigt (300-500MB).
Ein weiteres Argument gegen den geringen VRAM von Nvidia Karten als Grund für die schlechten Texturen, denn sie brauchen, wie die Mod zeigt, nicht viel mehr
 
Taxxor schrieb:
Bei Avatar als AMD Titel gibts weniger RT weil AMD Karten weniger RT Performance haben.
So korrekt sollte man schon bleiben, dass nVidia die insgesamt schwächstwn RT-RT Karten mit RTX Turing hat.

Die Flaggschiff-Turing RTX 2080Ti GPU liegt in RT-RT nicht viel aber etwas hinter der RX 6800XT und letzteres war nicht das Flaggchiff der RTX 6000er Karten von AMD/RTG.

So gesehen muss in nVidia gesponsorten Spielen auch immer Rücksichtvaifcdie relativ schwachen RTX Turing Karten genommen werden, denn die Käufwr des damalugen 1100(+) Euro teuren RTX 2080Ti Flaggschiffs erwaryen immer noch passable RT-RT Leistung heutzutage.

Das war für mich beim letzten dGPU-Kauf auch der Gradmesser für die minimal notwendige RT-RT Leistung (da es bis heute komplett überbewertet wird), die eine langlebige dGPU für mich haben sollte, weswegen ich beim o.g. Radeon Grafikkarten-Modell gelandet bin.
 
Taxxor schrieb:
Das Problem bei Avatar ist aber, dass selbst im Ultra Setting nur RT-Lite zum Einsatz kommt.

Das Spiel können wir die ganze Zeit weiter spielen.


Für Cyberpunk gibts im übrigen eine HD-Rework Mod
Halten wir also fest:

Fakt 1: CP2077 bietet selbst im Ultra Setting nur "SD-Texturen". Höher aufgelöste Texturen hätten fast das gesamte RTX-3000-Lineup zur Aufgabe gezwungen, weil sie schlicht zu wenig Videospeicher haben.

Fakt 2: In CP2077 fehlt ein offizielles "HD-Texturpaket" für Radeons ab RX 6000. Warum liefert es CDPR selbst 3 Jahre nach Release nicht einfach nach?

Fakt 3: Avatar bietet kein RT Ultra oder Path-Tracing für RTX 4000. Das heißt entsprechende Besitzer können maximal nur das "Unoptanium Setting" nutzen.

Fakt 4: Avatar wurde vordergründig für die Konsolen entwickelt. Das zeigt die bessere RT-Performance von RDNA 2 gegenüber RDNA 3 im CB-Test. Es hätte also einen deutlichen Mehraufwand für das Entwicklerstudio bedeutet, nur für eine kleine Nische an PC-Gamern "RT Ultra" vernünftig zur Verfügung zu stellen. Denn Avatar ist auch mit "RT Lite" sehr anspruchsvoll für aktuelle High-End Grafikkarten.
 
TigerherzLXXXVI schrieb:
Höher aufgelöste Texturen hätten fast das gesamte RTX-3000-Lineup zur Aufgabe gezwungen, weil sie schlicht zu wenig Videospeicher haben.
Muss ich noch ein 4. Mal sagen dass man settings immer reduzieren könnte?
Das ist kein guter Grund keine bessere Texturen anzubieten, genau wie es bei Avatar kein guter Grund ist keine höheren RR Settings anzubieten
 
  • Gefällt mir
Reaktionen: MehlstaubtheCat, Apocalypse und Quidproquo77
Taxxor schrieb:
Muss ich noch ein 4. Mal sagen dass man settings immer reduzieren könnte?
Bei CP2077 braucht man das aber nicht, weil selbst die höchste Qualitätsstufe in den Grafikoptionen nur "SD-Texturen" bieten. Warum verstehst du meine Aussage nicht? CDPR müsste ganz offiziell ein besseres Texturpaket anbieten.
 
TigerherzLXXXVI schrieb:
CDPR müsste ganz offiziell ein besseres Texturpaket anbieten.
Und Avatar ganz offiziell ein besseres RT Setting.
Es ist genau die gleiche Situation, nur dass ich mir bei Cyberpunk selbst bessere Texturen holen kann. Nicht optimal, aber immerhin kann man sich ziemlich leicht selbst helfen.


Nochmal ich sage Cyberpunk hätte von Anfang an höhere Textursettings bieten sollen, genauso hätte Avatar von Anfang an höhere RT Settings bieten sollen.
Der Grund, warum das nicht passiert ist, kann man in beiden Fällen bei den jeweiligen GPU-Partnern vermuten.

Du hast nun damit ein Problem, wenn durch Nvidia etwas fehlt, nicht aber wenn durch AMD etwas fehlt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Apocalypse und MrHeisenberg
Wo ordnet sich da denn eine RX 6800 in etwa ein?
 
TigerherzLXXXVI schrieb:
Zum Beispiel hat der CB-Test der RTX 4060 ergeben, dass die 8GB der Grafikkarte in 1080p + RT Ultra bereits zu wenig sind
Klar, mit Frame Generation wird das zu wenig. Ich verstehe die ganze Diskussion nicht, du möchtest, dass RT nur stiefmütterlich eingesetzt wird, bist aber dafür, dass der Grafikspeicher in Cyberpunk mit Ultra Details auf eine GPU Generation angepasst wird, die zum Release nicht einmal verfügbar war? Crazy.

Dabei sind 7900XT, 7900XTX, 4070(Ti), 4080 und 4090, bzw die 3090Ti in der Lage mit höheren RT Settings umzugehen, während bei Cyberpunk damals fast keine Karte mehr als 8GB hatte.
Da möchtest du dann aber Texturen die darüber hinaus gehen? Welch eine Doppelmoral.

Hätte AMD die hohe RT Leistung, würdest du dann quasi immer für maximale RT Settings argumentieren.
TigerherzLXXXVI schrieb:
Nvidia selbst sagt sogar, dass das (durch VRAM-Mangel hervorgerufene) Problem mit DLSS Performance "behoben" wird. Das heißt folglich: höhere DLSS Qualitätsmodi benötigen bereits mehr Videospeicher als 8GB...
Dein Argument war doch Nvidia hätte das Spiel auf 8GB Karten optimiert.
Ist wohl mit FG dann nicht mehr der Fall?! Entscheide dich mal.
 
  • Gefällt mir
Reaktionen: Apocalypse
Taxxor schrieb:
Für Cyberpunk gibts im übrigen eine HD-Rework Mod, die die auch mit Nvidia Karten bessere Texturen bietet weil sie fast keinen zusätzlichen VRAM benötigt (300-500MB).
Ein weiteres Argument gegen den geringen VRAM von Nvidia Karten als Grund für die schlechten Texturen, denn sie brauchen, wie die Mod zeigt, nicht viel mehr
Das gilt jedenfalls nicht für 1080p + RT Ultra bei RTX-Grafikkarten mit nur 8GB. Der CB-Test zur RTX 4060 hat es ja deutlich aufgezeigt... Wie hoch der Videospeicherbedarf in WQHD + RT Ultra oder gar 4K ist, kann ich nicht sagen.
 

Anhänge

  • Screenshot_20240104_173437_Chrome.jpg
    Screenshot_20240104_173437_Chrome.jpg
    859,6 KB · Aufrufe: 35
TigerherzLXXXVI schrieb:
Das gilt jedenfalls nicht für 1080p + RT Ultra bei RTX-Grafikkarten mit nur 8GB.
Noch ein 4. Mal? Dann stellt man es auf RT Mittel, hat dadurch auch weniger VRAM Bedarf, wenn das immer noch nicht reicht stellt man die Texturen noch ne Stufe zurück und es wird auch mit 8GB laufen.
Wer sagt dass eine 4060 überall RT Ultra schaffen muss?

Oder wäre es besser gewesen wenn man RT generell reduziert, damit die VRAM schwächeren Karten auch das Ultra Setting nutzen können und damit auch die stärkeren Karten schlechteres RT bekommen? Das wäre dann der gleiche Weg, den man bei den Texturen gegangen ist und den Avatar bei RT geht.


btw wie @Quidproquo77 bereits angemerkt hat, steht die Tatsache dass die 4060 wegen den 8GB Probleme mit dem RT Ultra Preset hat, doch entgegen der Aussage man hätte es auf diese Karten mit nur 8GB optimiert.
Der Test ist halt auch von Phantom Liberty, wo es generell bessere Texturen gibt und auch die RT Stärke und damit die Anforderungen haben sich seit Version 1.0 erhöht
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MrHeisenberg und Apocalypse
Taxxor schrieb:
Nochmal ich sage Cyberpunk hätte von Anfang an höhere Textursettings bieten sollen, genauso hätte Avatar von Anfang an höhere RT Settings bieten sollen.
Der Grund, warum das nicht passiert ist, kann man in beiden Fällen bei den jeweiligen GPU-Partnern vermuten.
Bei CP2077 ist es Fakt, dass es direkt mit den RTX-Grafikkarten zu tun hat. Denn Raytracing benötigt schließlich ebenfalls Videospeicher und irgendwann muss man mit nur 8GB VRAM irgendwo anders Abstriche machen. Und das ist z.B. die Texturqualität. Wie gesagt: siehe den CB-Test zur RTX 4060.

Klar ist außerdem, dass Avatar als AMD-Titel den Fokus auf die Ausnutzung der eigenen Rasterleistung und des Videospeichers setzt. In dem Fall speziell von RDNA 2. Es ist doch löblich, wenn trotzdem anspruchsvolleres Raytracing in dem Titel zum Einsatz kommt als etwa in Far Cry 6. Klar muss das einen RTX-4090-Besitzer nicht gefallen.

Bei GPU-Partnerschaften wird die andere Seite immer irgendwo benachteiligt werden. Es gibt hier sicherlich nur wenige Gegenbeispiele. Etwa Metro Exodus EE, welches in Kooperation mit Nvidia entstanden ist.
 
Taxxor schrieb:
Bei Avatar als AMD Titel gibts weniger RT weil AMD Karten weniger RT Performance haben.
Wenn das denn generell so richtig wäre, aber zum Glück bietet immer noch nVidia die schwächste RT-RT dGPU-Generation mit RTX Turing und nicht ohne Grund habe ich das (als minimale Leistungsanforderung an RT-RT) bspw. bei meinem letzten dGPU-Kauf das berücksichtigt, so dass die Grafikkarte auch zukünftig gerüstet ist mit halbwegs befriedigender RT-RT Leistung, da diese für mich auch nicht übermässig (da es als Grafikfeature viel zu überwertet ist/wird und die letzten beiden gewählten Spiele des Jahres eben RT-RT nicht nötig haben, siehe Elden Ring und Baldur's Gate) abgedeckt sein muss, denn Rasterizerleistung bleibt nach wie vor entscheidend, auch wenn Avatar (Frontiers of Pandora) da als Einzelbeispiel einen Richtungswechsel vollzogen hat (RT-RT aber immer noch nicht zwingend notwendig macht)).

Eine RTX 2080Ti als 1100(+) Euro teures damaliges RTX Turing Flaggschiff hat immer noch etwas weniger RT-RT Leistung als eine RX 6800XT, die nicht einmal das Flaggschiffmodell der erstmalig RT-RT fähigen RDNA2 dGPU-Generation von AMD/RTG ist, und zum Glück orientieren sich dementsprechend (auch nVidia gesponsorte) Spielentwickler daran (der schwächsten RT-RT-fähigen dGPU-Generation des Marktführers nVidia) oder werden dazu angehalten, denn die damaligen RTX 2080Ti Käufer wollen zu Recht Ihre damalige Investition in RT-RT immer noch in befriedigendem Maße wiedergespiegelt sehen.

Zudem sind Spiele mit gutem/angemessen spürbarem RT-RT immer noch ziemlich selten oder fast schon Mangelware, wenn man sich anschaut, wie lange es offiziell schon RTX bzw. RT-RT gibt und erst mit RT-PT - welches jetzt erst im Frühstadium in erste Spiele Einzug hält - ist ein möglicher Einstiegszeitpunkt gekommen, der dann wirklich (weil optisch wahrnehmbar(er)) eine größere Investition bzw. die von dGPU-Entwicklern schon mit Einführung von RT-RT verlangten Produktaufpreise lohnen und rechtfertigen könnte.

Ergo, bitte bei den Fakten bleiben und keine verallgemeinernden Märchen, im Stile von Jen-Hsun Huang dGPU-Marketingvorstellungen/-daten erzählen, auch bei sich durch Beiträge ziehender auffälliger Markenpräferenz ;).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TigerherzLXXXVI
Chismon schrieb:
Wenn das denn generell so richtig wäre, aber zum Glück bietet immer noch nVidia die schwächste RT-RT dGPU-Generation mit RTX Turing
Das tut doch nichts zur Sache weil es um das Max Setting geht.
Das richtet sich natürlich nach den stärksten Karten, denn die schwächeren Karten können wie gesagt die Settings reduzieren.
Natürlich sollte man die Settings dann nicht so auslegen, dass Turing mit RT Ultra gut klar kommt, während Ampere, RDNA3 und Ada Däumchen drehen.
Ist doch bei den Raster Settings auch nicht anders, sonst hätte ne 4090 ja überall 120FPS in 4K Ultra.

Bei dem AMD sponsored Spielen ist das RT halt immer so gewählt, dass RDNA3 damit auf höchsten Settings noch gut klar kommt.
RDNA2 und Turing Nutzer müssen hier natürlich auch Settings reduzieren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MrHeisenberg und Apocalypse
Taxxor schrieb:
Das tut doch nichts zur Sache weil es um das Max Setting geht.
Die Aussage von Dir war ursprünglich allgemein gehalten und nicht auf Maximalsettings bezogen und auch da liegt eine RTX 2060 Vanilla (6 GB) oder RTX 3050 (8GB) hinter einer RX 6600(XT) zurück (wenn man nicht die RX 6500XT oder gar die RX 6400 heran ziehen will, aber das wäre ziemlich lächerlich, weil bei denen der Speicher für RT-RT schon vorne und hinten nicht reichen würde), aber all diese Karten taugen eigentlich nicht wirklich für RT-RT, auch wenn diese anders vermarktet werden.

nVidia war früher dran mit RT-RT, hat damit natürlich die schwächere erste RT-RT-fähige dGPU-Generation in RTX Turing, dafür aber einen zeitlichen Vorsprung von einer Generation im Bereich RT-RT auf AMD/RTG, das sollte man nicht vergessen.

Ich habe eben noch einmal nachgeschaut, weil leider an Benchmarks der RTX 3090Ti gespart wurde.

RDNA3 liegt bei der RT-RT Leistung mit dem Flaggschiff (RX 7900XTX) immer noch leicht vor RTX Ampere (mit der RTX 3090Ti), wobei der Vorsprung aber geschrumpft sein dürfte (im Vergleich zu RTX Turing vs. RDNA2), weil es wie erwähnt damals bei den RX 6000er Karten nicht die Flaggschaffkarte AMDs/RTGs gebraucht hat, um in RT-RT schneller als die RTX 2080Ti zu sein.

Da hat AMD/RTG mit Sicherheit großen Nachholbedarf für die kolportierten dGPU-Halbgenerationen RDNA4 oder (spätestens) RDNA5, auch mit Blick auf Intel Arc, die mit der ersten RT-RT-fähigen dGPUs in deren limitierten Leistungsbereichen (die aber nicht so eine große Rolle spielen, da eben die Grundleistung bzw. dGPU-Leistungsklasse einer A770 16GB etwa für leistungshungriges RT-RT schon eher limitiert ist) gut abgeliefert haben.
 
Zuletzt bearbeitet:
Chismon schrieb:
Die Aussage von Dir war ursprünglich allgemein gehalten und nicht auf Maximalsettings bezogen
Nein, war sie nicht. Es ging immer um max. settings(speziell Cyberpunk RT Ultra bzw PT vs Avatar Ultra und auch davor schon hier ), deshalb schreib ich doch die ganze Zeit dass man ja auf der einen Seite Settings reduzieren kann, wenn die eigene Karte nicht stark genug ist, aber auf der anderen Seite keine bessere Optik bekommen kann, obwohl die eigene Karte stark genug wäre, weil das Spiel so ausgelegt ist, dass es mit Max RT Settings auf den AMD Karten laufen muss
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MrHeisenberg und Quidproquo77
Chismon schrieb:
Eine RTX 2080Ti als 1100(+) Euro teures damaliges RTX Turing Flaggschiff hat immer noch etwas weniger RT-RT Leistung als eine RX 6800XT
Naja, ganz richtig ist das aber nicht, wenn man sich mal richtige Raytracing Benchmarks anschaut.
 

Anhänge

  • Cyberpunk 2077 Benchmarks von 22 GPUs.png
    Cyberpunk 2077 Benchmarks von 22 GPUs.png
    760,7 KB · Aufrufe: 61
  • Gefällt mir
Reaktionen: MrHeisenberg
Taxxor schrieb:
Settings reduzieren kann, wenn die eigene Karte nicht stark genug ist, aber auf der anderen Seite keine bessere Optik bekommen kann, obwohl die eigene Karte stark genug wäre, weil das Spiel so ausgelegt ist, dass es mit Max RT Settings auf den AMD Karten laufen muss

Dann gehst Du aber nur von den aktuellen dGPU-Generationen (RDNA3 vs. RTX Ada Lovelace) aus, denn bezogen auf RTX Turing würde man dort nach wie vor bei maximalen Settings den kürzesten in RT-RT ziehen und ich denke nach wie vor, dass die RTX Turing Leistung maßgeblich für den Großteil der Spieleentwickler bzgl. der RT-RT Implementierung ist (denn im Endeffekt will man alle dabei mitnehmen und kein Demoprojekt erschaffen).

Ergo sehe ich keinen "eigene-Karte-Vorteil" auf den Chipentwickler bezogen, denn nVidia hat sowohl die langsamsten (RTX Turing) als auch die schnellsten (RTX Ada Lovelace) Grafikkarten im Programm, was RT-RT angeht.

Es gibt wohl vereinzelt die zuvor genannten "RT-PT-Leuchtturmprojekte", die bewusst so ausgelegt sind, dass bspw. erst ab einer RTX 4080 aufwärts man davon profitieren wird können oder gar 20 GB Speicher nötig werden für durchgehend flüssiges spielen in Maximalsettings, und auch wenn das abgehoben ist, so ist es noch relativ nischig, denn die wenigsten kaufen spätestens alle 2 Jahre neue Grafikkarten über 1000 Euro vordergründig um Spiele zu zocken, zumal sich das meistens nicht rechnet (auch wenn Logik da manchmal keine Rolle spielt).

Das kann man kritisieren, wenn man denn will (ändern wird das vermutlich wenig an nVidias oder AMDs/RTGs Sponsoringverhalten und der ausgeführten Studio-/Publisherpolitik) und wenn man ultrakonsequent sein will, auch diese Spiele/Studios/Publisher boykottieren, aber noch ist es ja keine ausartende Exklusivspielpolitik, auch wenn es schon spaltend auf die Spielerschaft wirkt.

Natürlich ergibt sich die Möglichkeit via Sponsoring massiv Einfluss auf die Entwicklung zu nehmen und CD PR, Ubisoft und andere stehen da wohl nicht ohne Grund in der Kritik.

Einflussnahme zwecks Wettbewerbsverzerrung zu belegen ist schwierig und klar, allgemein gilt zuerst die Unschuldsvermutung, bis die ersten Zweifel anhand von Leistungsdaten und Verfahrensweise auftauchen, die nicht ins Bild passen wollen.

Denn spekuliert noch schön weiter ;).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TigerherzLXXXVI
Chismon schrieb:
Dann gehst Du aber nur von den aktuellen dGPU-Generationen (RDNA3 vs. RTX Ada Lovelace) aus, denn bezogen auf RTX Turing würde man dort nach wie vor bei maximalen Settings den kürzesten in RT-RT ziehen
Ich weis nicht was so schwer daran zu verstehen ist dass man für jede Generation die passenden Settings finden sollte und nicht die max. Settings von einer langsameren Generation abhängig machen sollte. Turing sollte generell. Ie die Messlatte für Max RT Settings in einem 2023+ Titel sein, diese Nutzer wählen eben niedrigere Settings. Ich lass es jetzt auch sein denn ich hab keine Lust das ganze noch 10x zu wiederholen.
 
  • Gefällt mir
Reaktionen: MrHeisenberg und Quidproquo77
H6-Mobs schrieb:
Naja, ganz richtig ist das aber nicht
Meine Aussage ist extrem solide und richtig basierend auf etlichen Tests verschiedenster Seiten und das weisst Du auch und umso peinlicher ist es, dass Du glaubst per Rosinenpickerei mit einem einzigen Benchmarkbild eines bekannt (evt. auch bewusst) auf AMD/RTG Grafikkarten schlecht optimierten Ausreißerspiels, dass die Regel bestätigt, das Gegenteil glaubhaft damit beweisen zu können.

Wie verblendet muss man eigentlich sein?
Ergänzung ()

Taxxor schrieb:
für jede Generation die passenden Settings finden sollte und nicht die max. Settings von einer langsameren Generation abhängig machen sollte.
Wie soll das gehen, wenn jetzt schon Upscaletechniken zweckentfremdet werden um Spiele noch weniger optimieren zu müssen, weil beim Großteil der Publisher das Profitdenken regiert?

So ein Aufwand nur für RT-RT wird es den meisten Studios (auf Weisung oder Druck der Publisher) nicht wert sein, da viele Ressourcen hinein zu stecken, RTX Turing dürfte erst einmal eine Weile diese Funktion des "gemeinsamen Nenners" als RT-RT dGPU-Erstgeneration überhaupt einnehmen.

Nur weil vereinzelt Spieltitel damit werben um so Early Adopter und Hobby-Enthusiasten zu ködern und Leute mit 1000(+) Euro Grafikkarten am liebsten ein Anrecht (bei AAA Produktionen) dahingehend ableiten würden die RT-RT Messlatte höher zu legen, auch wenn sie die Nische im Gamingmarkt sind und bleiben, ändert sich das auch leider nicht von heute auf morgen (ich verweise gerne wieder auf die relativ aussagekräftige Steam Hardwareumfrage, was das allgemeine Kaufverhalten angeht).

Solange AMD/RTG nicht mehr in Raytracing technologisch einsteigt und Intel im Einsteiger- bis Mittelklassemarkt gefährlich wird, sehe ich da noch keine großen und schnellen Änderungen kommen, was RT-RT und RT-PT angeht, denn es ist auch nicht unbedingt in deren Interesse.

Das Ganze erinnert mich sehr an die jahrelang ausgefochtene DirectX11 (DX11) vs. DirectX12 (DX12) Problematik, wo auch nVidia eine Umstellung auf DX 12 und daraus resultierenden Fortschritt solange wie möglich hinaus gezögert hat, auch weil AMD/RTG in DX12 durch Mantle, usw. nVidia technologisch überlegen war und ein wenig fühlt es sich bei Raytracing fast ein Bisschen wie eine Retourkutsche von AMD/RTG gegenüber nVidia in umgekehrter Ausgangslage an.

Es ist nur dumm, wenn durch so etwas die Hoffnungen und Zufriedenheit einiger Nutzer und schnellerer Fortschritt auf der Strecke bleiben, keine Frage, aber anderen dürfte das wiederum auch entgegen kommen, weil weniger schnell Hardware aufgerüstet werden muss.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TigerherzLXXXVI
Zurück
Oben