News GeForce RTX 5050: Desktop-Variante mit 8 GB und -30 % Shadern im Gespräch

sikarr schrieb:
Das war damals schon Blödsinn, haben wir getestet. Mit ner 2. GPU als Physik Beschleuniger liefen die Spiele meist sogar schlechter als wenn man es auf einer Karte hat laufen lassen.
Leider finde ich diverse alte Tests nicht mehr wieder. Hier aber zumindest ein Bisschen was. Bei Arkham Origins ist es eindeutig:
https://extreme.pcgameshardware.de/threads/gtx-1050-und-gtx-950-als-physx-karten-benchmarks.469884/
Hier mal etwas aktuelles --- da wurde leider die 4090 nicht auch als Render- & PhysX-Karte getestet.
https://www.golem.de/news/rtx-50-se...beschleuniger-kommen-zurueck-2502-193705.html
 
  • Gefällt mir
Reaktionen: SweetOhm
wer kauft noch in 2025 Grafikkarte mit GDDR6 :confused_alt:
 
  • Gefällt mir
Reaktionen: SweetOhm
CDLABSRadonP... schrieb:
Hier aber zumindest ein Bisschen was. Bei Arkham Origins ist es eindeutig:
Das mag sein, wir hatten aber den Eindruck das dass Spiel "zäher" lief, die Tests waren aber zu Zeiten der GTX80 Generation.
CDLABSRadonP... schrieb:
Hier mal etwas aktuelles --- da wurde leider die 4090 nicht auch als Render- & PhysX-Karte getestet.
Ja gut das ist ja dem Problem geschuldet das NV den 32Bit Support gestrichen hat.
 
Da Nvidia: vermutlich dann nur 6GB., m wenn es den Vorgänger auch mit 8GB gab. Lässt immerhin Luft für eine 5050 Ti mit 8GB!
Oder weil es der „billige“ Speicher ist: direkt 24GB GDDR5, damit sich niemand beschwert 🤡
 
  • Gefällt mir
Reaktionen: SweetOhm
Also eine 5040 im Grunde, weil die 70er ja schon im Verhältnis zum Topmodell eine 60er ist, wenn ich mich recht entsinne. Klar, man braucht was zwischen 200 und 300 Euro. Ob das gegen modernere APUs Sinn ergibt ist wieder was anderes.
 
  • Gefällt mir
Reaktionen: SweetOhm
Convert schrieb:
PhysX gar nicht mehr erwähnt. Warum nicht? Ist es nicht mehr so wichtig? Ist Physik in neusten Spielen nicht mehr wichtig?
Weil es sich um ein propitäres Feature handelt welches den abverkauf von NV Produkten beverbessern sollte. Dafür hat man heute Raytraycing, DLSS4, Fakefames, AI, CUDA, Tensors...

Und da 95% der AAA produkte wohl gut 90% ihres Umsatzes auf, Xbox, Switch und PS, machen, wo PhysX keine rolle spielt, kannst du die wohl den rest zusammen reihmen.

Mit anderen Worten. PhysX war toll wo es neu war, und noch kein DLSS und RT hatte. Heute kostet der Support nur noch Geld, und darum streicht man so langsam den Suppert wieder raus. :evillol:

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
sikarr schrieb:
Das mag sein, wir hatten aber den Eindruck das dass Spiel "zäher" lief, die Tests waren aber zu Zeiten der GTX80 Generation.
Kann mir auch gut vorstellen, dass das damals noch nicht gut lief.
sikarr schrieb:
Ja gut das ist ja dem Problem geschuldet das NV den 32Bit Support gestrichen hat.
Es wäre ein Leichtes gewesen, neben 5090+CPU und 5090+(eine von drei Grakas, unter anderem auch 4090) auch noch 4090 für alles und 4090+Titan RTX zu benchen.
 
lynx007 schrieb:
Mit anderen Worten. PhysX war toll wo es neu war, und noch kein DLSS und RT hatte. Heute kostet der Support nur noch Geld, und darum streicht man so langsam den Suppert wieder raus. :evillol:
DLSS und RT haben mit PhysX erstmal gar nix zu tun. PhysX is eine Hardware beschleunigte Physik Schnittstelle, die wurde auch nur zugekauft und stellt keine Eigenentwicklung von NV dar. Nvidia hat sogar PhysX freigegeben aber nur den CPU Teil und nicht den GPU teil was halt der Grund ist warum es sich nicht wirklich verbreitet hat. Leider war PhysX nur ein Grafikfeature und selten Spielerelevant, mir fällt eigentlich nur ein Titel ein und ich glaube selbst der war auf AMD/ATi Hardware lauffähig.

Mittlerweile bringen die Engines eigene Physikbibliotheken mit und sind damit auf fast jeder Hardware lauffähig. Der große PhysX Konkurrent Havok hat dadurch auch eine viel großere Verbreitung als PhysX, mMn einer der größten Fehler die NV u.a. gemacht hat.
 
@sikarr
Du hast es nicht Verstanden! PhysX ist ein propitäres Feature! So wie DLSS ein propitäres Feature ist! Inkompatibel mit 90% der Spiele Platformen. Dafür bot es auf den 10% (PC) wo es lief, gegenüber Marktteilnehmer AMD einen Wettbewerbsvorteil, ein Verkaufsgrund.

Und alles was du mit aufzählst ist ja praktisch das Ergebnis davon! Darum Spielt es keine Rolle. Ob nen Fehler war. Es gibt sicher nicht wenige die nur wegen PhysX ein NV Gpu gekauft haben. Genauso wie viele Heute nur wegen DLSS4 einien NV GPU kaufen. Also doch, der verlgeich hinkt nicht! Beides Propitär. Beides dient das eigene Produkte inene Wettbewerbsvorteil zu geben!

Das sie nur einen Teil nicht alles Freigebben haben, zeigt ja nur, was der eigentliche, alleinige Zweck war. Es war nie der Gedanke nen Standart zu machen: Zumindest hat es sich aus der Perspektive NVs nicht gerechtent. Und wir könnten jetzt 30 Jahre propitäre Features von NV durch gehen, die mal "toll" waren, heute keine rolle mehr spuielen, ändert nichts.

Aus der Devs Perspektive, der nicht von NV bezahlt wird, macht es wenig sind das einzubauen, weil es Multplatform alternativen gibt. So wie halt auch DLSS4, oder diese Sync teil... habe leider den Namen vergessen... spielt auch keine Rolle. Frage war ja warum PhysiX keine Rolle spielte, und da ist halt die warheit das es sich immer nur um ein propitäres Featurehandelt, welches heute weder notwendig noch abveraufsfördernd ist. Ganz im Gegenteil.... wer heute nen 32bit PhysX spiel auf ner neu gekauften 50x0 spielen will, schaut zum teil etwas entäuscht in die Röhre. Etwas was wohl bei Hawok weniger der fall sein könnte.

 
  • Gefällt mir
Reaktionen: SweetOhm und Convert
Nun, damit würde die GeForce RTX 3050 einen Nachfolger erhalten.

Jedoch wird weiterhin nicht an die Klassen in darunter gedacht. Menchen mit einem sehr geringen Einkommen müssen sich nach wie wir vor mit Restbeständen auf Turing, Pascal, Kepler und Fermi begnügen.

NVIDIA hat die breite Kundschaft völlig aus den Augen verloren: Sieht nur noch das ganz große Geld.
 
  • Gefällt mir
Reaktionen: SweetOhm
sikarr schrieb:
Der große PhysX Konkurrent Havok hat dadurch auch eine viel großere Verbreitung als PhysX, mMn einer der größten Fehler die NV u.a. gemacht hat.
Verwechselst du hier nicht GPU mit CPU Physx? CPU Physx ist ähnlich wie Havok verbreitet und im Gegensatz zu Havok Open Source.
Da moderne Engines aber mit ihren eigenen Phsik Engines wie (Chaos) aufwarten (Unreal) sind Physx und Havok eher auf dem absteigenden Ast.
lynx007 schrieb:
PhysX war toll wo es neu war, und noch kein DLSS und RT hatte. Heute kostet der Support nur noch Geld, und darum streicht man so langsam den Suppert wieder raus.
Das ist eine ziemlich negative Sichtweise. Dafür dass es so lange gedauert hat bis heutige Physik Engines in der Darstellungsqualität auf die damaligen GPU Physx Darstellungen aufgeholt haben, war es lange Zeit eine schöne Erweiterung die optisch einiges hermachte. Der Support lohnt sich heute einfach nicht mehr, da Havok, CPU-Physx, Chaos, Bullet usw. gut genug sind. Die UE5 early acess arbeitet noch mit physx zusammen, seit der 5.1 ist das Geschichte. Es ergibt auch nicht viel Sinn Havok anstelle von Chaos zu verwenden, vor allem deshalb nicht, weil es Geld kostet.
 
Zuletzt bearbeitet:
Naru schrieb:
Nun, damit würde die GeForce RTX 3050 einen Nachfolger erhalten.

Jedoch wird weiterhin nicht an die Klassen in darunter gedacht. Menchen mit einem sehr geringen Einkommen müssen sich nach wie wir vor mit Restbeständen auf Turing, Pascal, Kepler und Fermi begnügen.

NVIDIA hat die breite Kundschaft völlig aus den Augen verloren: Sieht nur noch das ganz große Geld.

Wie langsam soll es denn noch werden? Die Karte wird deutlich langsamer als eine 5 Jahre alte Base PS5 und wird in ein paar Jahren mit PS6 spielen völlig überfordert sein.

Die performance Lücke zwischen High End und low End ist so groß wie noch nie und dabei ist PC Hardware allgemein relativ zu den Konsolen so langsam wie nie.

Zu PS4 zeiten hat man relativ zur PS4 am PC SEHR viel mehr Leistung für sein Geld bekommen als heute. Alleine eine GTX1060 war bereits 2,5x so schnell wie eine PS4 und war entsprechend performant in sämtlichen Spielen die von Konsole portiert wurden. Heutzutage brauchst du für das selbe ergebnis verglichen zur PS5 mindestens eine RTX4080. Das verdeutlicht nochmal, wie wahnsinnig wenig GPU Leistung man heutzutage für sein Geld bekommt. Besonders im low end bereich. Ne RTX3050 wäre damals wohl tatsächlich ne Karte gewesen, die man für 50-100€ verkauft hätte.

Das ist natürlich alles der Stagnation bei der Chipfertigung geschuldet. Mir ist es trotzdem unbegreiflich, warum so viele Spieler ihre Ansprüche immer weiter runter schrauben und das akzeptieren.

Die forderung sollte nicht lauten, dass Nvidia ne Karte unterhalb der 3050 oder dann eben 5050 anbietet, die Forderung sollte lauten, dass die Preise runter und die Leistung hoch geht. Denn das Preis/Leistungsverhältnis ist so unfassbar schlecht wie noch nie in den letzten 20 Jahren. Wir sind hier an einem absoluten Tiefpunkt. Menschen mit sehr geringen einkommen sollten sich eben auch mindestens ne 5050 oder besser leisten können und nicht mit noch weniger Leistung abgespeißt werden. Denn irgendwann wirds einfach nur noch lächerlich.
Gefühlt wird der low end käufer dadurch deutlich stärker über den Tisch gezogen als der High End käufer, der zwar hohe Preise zahlt, dafür aber auch ordentlich Leistung bekommt, während der Low End käufer mit einem performance level aus der mittelklasse der letzten Dekade leben soll.
 
  • Gefällt mir
Reaktionen: SweetOhm, Naru und Wintermute
Chismon schrieb:
naja, Moore's Law Is Dead/Tom eben, laut dem es ja auch keine Intel Arc Battlemage dGPUs geben sollte (schon gar keine Arc B770/750, die scheinbar doch irgendwann kommen werden):
Ich finde er kommt oft, auch in Deinem Post, zu schlecht weg. Er sagt in den letzten paar Jahren immer klar dazu, was er weiss - auch mit den entsprechenden Einschränkungen, dass sich viele Dinge bis zum Release noch ändern - was er nur vermutet und was er sich einfach denkt / wünscht.

Bei AMD liegt er fast immer richtig und die komplette Switch 2 hatte er schon vor fast 3 Jahren geleakt, das ist schon nicht so schlecht. Bei NV weiss er nichts, da basht er nur.

Bei der 9090XT sagt er klar, dass es sich um ein Sample handelt, dass es gibt, er sagt nicht, dass sie sicher so kommt. Und natürlich gibt es die Karte - es wird auf verschiedenen Nodes und mit verschiedenen Konfigurationen getestet, alles andere wäre ja fahrlässig. Ob es einen Markt für eine viel teurere 9070XT golden Sample gibt, die mit Mühe eine gut getaktete 5080 erreicht, ist eine andere Frage - ich vermute nein ;-)

B770 ist seit ewigen Zeiten fertig und ob das Ding nun kommt oder nicht, weiss ja nicht einmal Intel selber. Fakt ist, dass 6 Monate seit dem katastrophalen Release des B580 vergangen sind und alle Intel Aussagen dazu, welche Produkte weitergeführt werden oder nicht dahindeuten, dass die Gurken eingestampft werden, weil unter 50% Bruttomarge.
Sollte der nächste "Topmanager" sich dafür entscheiden noch ein paar hundert Millionen mehr zu versenken und den B770 auch noch zu bringen, wäre das wohl mehr als überraschend und sicher nichts, worauf man wetten sollte ;-)
 
Mimir schrieb:
Die Karte wird deutlich langsamer als eine 5 Jahre alte Base PS5 und wird in ein paar Jahren mit PS6 spielen völlig überfordert sein.
Ist mal wieder Märchenstunde? Die PS 5 GPU hat etwa 10 TeraFlOPs und liegt unterhalb einer 6600XT
Die RTX 5050 wird eher deutlich besser sein als die GPU in der PS5. (DLSS, RT) Die GPU in der PS5 ist vergleichbar mit einer 2070S oder 5700XT, irgendwo in dieser Range, weil auch die Taktraten niedriger sind.
Mimir schrieb:
Die performance Lücke zwischen High End und low End ist so groß wie noch nie und dabei ist PC Hardware allgemein relativ zu den Konsolen so langsam wie nie.
Die PS5 GPU wird dir günstig hinterhergeschmissen und ein PS5 Pro Äquivalent kannst du für ~ 350 Euro erwerben. (9060XT) Die 9060XT ist eher noch ein Stück besser.
Mimir schrieb:
Zu PS4 zeiten hat man relativ zur PS4 am PC SEHR viel mehr Leistung für sein Geld bekommen als heute. Alleine eine GTX1060 war bereits 2,5x so schnell wie eine PS4 und war entsprechend performant in sämtlichen Spielen die von Konsole portiert wurden.
Weil die PS4 auf eine alte Generation gesetzt hat, die 7850 (anfang 2012), und eine GTX 1060 ist aus mitte 2016, mehr als 4 Jahre dazwischen, skurriler Vergleich.
Mimir schrieb:
Heutzutage brauchst du für das selbe ergebnis verglichen zur PS5 mindestens eine RTX4080.
Man liegt 20-30% unter einer 4070 und maximal auf dem Level einer 4060 Ti.
Die 4080 ist etwa doppelt so schnell...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
Mimir schrieb:
Menschen mit sehr geringen einkommen sollten sich eben auch mindestens ne 5050 oder besser leisten können

Also eine 80er-Karte ist noch niemals Low-Budget gewesen, sondern stellt immer das obere Regel (Spitzenklasse) dar. Später dann sind bewährte Namenschemen wie Ultra bedeutungslos geworden und durch Ti ersetzt worden oder alternativ als 85er-sowie 90'er-Karten vermarktet worden. Demnach handelt es sich um 80er-Karten für die Referenzklasse.

Mit Fermi ist eine 70er-Karte für die Oberklasse eingeführt worden, um hohe Ansprürche an die Performance für eine breitere Kundschaft anbieten zu können. Man kann man auch argumentieren, NVIDIA wollte Charges zu Geld machen, die den noch höheren Anforderungen für die Spitzenklasse kaum gerechet werden.

Die 60er-Karte als die sogenannte Mittelklasse galt schon immer als die bezahlbare Lösung für den Game: Und das stimmte auch, denn die gebotene Leistung erfüllte stets, dass man ein jedes aktuelle Game mit Abstrichen spielen konnte.

Die 50er-Karte ist im Prinzip das Derivat zur 70er-Karte: Teildeaktivierte Chips, diese dennoch Gaming in oberhalb der Einstiegsklasse ermöglichen.

Das stellt im Prinzip dann schon das heutige Sortiment dar: Eine 40er-Karte existiert nicht mehr, weil man meinen könne, heutige iGPUs ersetzen deren Performance. Tun sie jedoch nicht - zumindest nicht seitens Intel. Ob man nun eine 10'er-, 20er-und 30er-Karte brauche, diese Frage stelle sich dann schon, wenn man die Performance von heutigen iGPUs mit berücksichtigt.

Die 40er-Karte sollte NVIDIA weiterführen, weil eine GeForce RTX 5050 in der Rohleistung sogar meine GeForce GTX 1070 [Ti] wegpuste. So etwas geht nicht für 150€ an den kleinen Mann. Deshalb wäre eine 40er-Karte eine preisgerechte Alternative für die sehr gering verdienende Unterschicht in einer Geslleschaft.

Mimir schrieb:
während der Low End käufer mit einem performance level aus der mittelklasse der letzten Dekade leben soll.

Ganz so schlimm ist es dann doch nicht.
Wie schon betont: Die GeForce RTX 5050 böte eine Rohleistung von in mindestens einer GeForce GTX 1070 und diese stammt aus einer der Oberklassen der besagten Predekade.
 
Zuletzt bearbeitet:
DerRico schrieb:
... auch in Deinem Post, zu schlecht weg. Er sagt in den letzten paar Jahren immer klar dazu, was er weiss - auch mit den entsprechenden Einschränkungen, dass sich viele Dinge bis zum Release noch ändern

Das kannst Du gerne so finden, aber wenn man sich so überheblich wie MLID/Tom aufführt und dann spekuliert und z.T. markenabwertende/-schädigende Ansagen macht (nicht immer, denn meistens formuliert er seine Vorhersagen so vage oder bemüht mehrere angebliche Quellen dazu, die nicht komplett miteinander übereinstimmen, aber so einen größeren "Spekulatiusbereich" ergeben), der muss m.E. auch mit der Kritik leben und einstecken können.

MLID/Tom ist nur ein Leaker/Influencer, kein TechTuber/Content Creator wie bspw. die Steves von Gamers Nexus und Hardware Unboxed, Igor von Igor's Lab, Roman der8auer, Jay von JTC, Ian von TechTechPotato (früher AnandTech), auch ein Linus von LTT - die allesamt viel länger dabei sind und auch bewanderter in der Materie - und auch einen Daniel Owen schätze ich mittlerweile höher ein ... direkt vergleichbar wäre er evt. mit den beiden Pauls von Paul's Hardware und Red GamingTech, die sich i.d.R. aber deutlich gemäßigter, bescheidener und weniger markenverliebt bis ziemlich neutral/fair geben.

Ja, es gibt auch schlimmere/abstoßendere/unseriösere Influencer wie damals der sich oft massiv ausfallender äussernde NotAnAppleFan (keine Ahnung, ob diese Type noch aktiv ist), aber den möchte man zum Vergleich eigentlich nicht bemühen.

Gut finde ich die Broken Silicon Interviews/Podcasts mit anderen manchmal (nicht immer), weil mich die Gäste (Entwickler, Steve oder Tim von Hardware Unboxed, Ian von TechTechPotato, u.a.) interessieren und weniger MLIDs/Toms Meinung.

DerRico schrieb:
Bei AMD liegt er fast immer richtig und die komplette Switch 2 hatte er schon vor fast 3 Jahren geleakt

Ja, dorthin hat MLID/Tom wohl auch die besten Kontakte und AMD sind zusammen mit Sony (PlayStation) auch seine liebsten Marken, ganz im Gegensatz zu Intel, Microsoft und nVidia, die teilweise weit hergeholt oder einfach unsachlich regelmäßig Ihr Fett bei ihm abkriegen (evt. auch, weil seine Zuschauer das auch größtenteils erwarten, aber ich habe mich von seinen Podcasts, die ich eine Weile/vor einigen Jahren noch ganz unterhaltsam und interessant fand, schon längere Zeit abgewandt und verfolge diese nicht regelmäßig).

Die Vorhersagen von MLID/Tom sind oft maximal schwammig (teilweise aber auch das offensichtliche benennend) und selbst dann manchmal noch trotz harter Ansage komplett daneben und Tom ist so von sich eingenommen und besserwisserisch, dass man es im Kalendar rot anstreichen muss, wenn er einmal zugibt falsch gelegen zu haben.

Sein Bruder plappert ihm auch im eigenen Loose Ends Podcast so gut wie alles nach wie ein Papagei und wenn nicht, kommt dann oft noch eine widersprechende Begründung von Tom und dann passt sich sein Bruder seiner Meinung an (das hat schon fast etwas autoritäres/Trump-haftes, wobei Tom das bei seinen Gästen natürlich nicht so bringen kann und die ihm nicht alle nach dem Mund reden bzgl. seiner Einschätzungen und Ansagen).

DerRico schrieb:
Ob es einen Markt für eine viel teurere 9070XT golden Sample gibt, die mit Mühe eine gut getaktete 5080 erreicht, ist eine andere Frage - ich vermute nein ;-)

Da bin ich bei Dir, den Markt dafür sehe ich auch nicht, die Felle sind größtenteils für ein RTX 5080 Pendant von AMD auf Basis von gesammelten Golden Sample Chips verteilt (das dürfte sich für AMD jetzt nicht mehr lohnen da mit RDNA4 anzugreifen).

DerRico schrieb:
B770 ist seit ewigen Zeiten fertig und ob das Ding nun kommt oder nicht, weiss ja nicht einmal Intel selber. Fakt ist, dass 6 Monate seit dem katastrophalen Release des B580 vergangen sind und alle Intel Aussagen dazu, welche Produkte weitergeführt werden oder nicht dahindeuten, dass die Gurken eingestampft werden, weil unter 50% Bruttomarge.

Neben allen Intel Prozessoren, die er in seinem Podcasts in den letzten Jahren mit Genugtuung herunter gemacht hat mit Ausnahme von Alder Lake, weil der eben einfach insgesamt besser/moderner war als das AMD Pendant zum Marktstart (wenn auch deutlich später herauskam), haben seine unsachlichen Ansagen zu Intel Arc (und späteres zurück rudern ohne Einsicht, als dann Battlemage Karten kamen, obwohl er diese genauso in Grund und Boden reden wollte wie die Alchemist Gaming-Erst-dGPU-Generation (mit mehrereren Jahrzehnten Rückstand an Forschung und Treiberentwicklung verglichen mit nVidia und AMD)) ihn bzw. seine YouTube Videos für mich zunehmend disqualifiziert.

Da ging es eine Weile nur noch um ziemlich offensichtliches Marken-Bashing (bei Intel, Microsoft/XBOX und wenn möglich nVidia) und -Lobhudeln (bei AMD - zum Beispiel bzgl. der RX 9500XT mit 4GB die er im Gegensatz zu so ziemlich jedem anderen als empfehlenswert anpries - und Sony/PlayStation und ab und zu 'mal Nintendo (aktuell wieder, vermutlich auch weil seine Partnerin sich wohl eine Switch 2 angeschafft hat oder anschaffen will)).

Im Gegensatz dazu sind die anderen o.g. Tech-Tuber stock-nüchtern in Ihrer Einschätzung, Analyse und Bewertung und das macht für mich MLID/Tom leider zu nicht mehr als einem begrenzt relevanten Leaker/Influencer/Wichtigtuer, der manchmal wert ist angeführt zu werden, aber - egal ob man zu ihm hier auf CB, bei PCGH, oder anderweitig liest - immer mit großem Fragezeichen bzgl. der Aussagekraft versehen wird und diesen Ruf hat er sich so m.E. selber erarbeitet/verdient.

Wie erwähnt, da können die Meinungen weit auseinander gehen (denn MLID ist ohne Zweifel ein polarisierender Kanal) und ich verlinke öfters 'mal YT Videos hier mit interessanten Thesen/Ansätzen und Gerüchten/Leaks von Red Gaming Tech, CoreTeks, u.a. (auch von MLID/Tom, denn diese gestehe ich ihm nach wie vor zu), aber seine Ansichten und Einschätzungen sind für mich deutlich weniger ausschlaggebend als die der o.g. TechTuber, auch wenn ich hier und da mit ihm in der Einschätzung der Entwicklung nicht selten übereinstimme.

Da haben solche (weniger provokante, deutlich nüchterne) Videos wie das folgende von Ian Cuttress zu AMD bspw. i.d.R. doch deutlich mehr (technische) Substanz (wobei das folgende Video nur eine erste Übersicht der AMD Strategie ist) als die von MLID/Tom, auch wenn der Unterhaltungswert evt. nicht so hoch ist:

 
Zuletzt bearbeitet:
Zurück
Oben