Test Asus GeForce RTX 2060 Strix im Test: TU106 in schneller, leiser und auf Wunsch auch bunter

@Selanius

Nach Deinem flammenden Plädoyer möchte ich Dir diesen ganz unaufgeregten und praxisbezogenen Test ans Herz legen, der letztenendes meine Aussagen untermauert:


Ebenso wirfst du immer mehr Themen in den Thread, wenn dir die Argumente ausgehen, anstatt auf die Aussagen der anderen ein zu gehen. Der Höhepunkt ist dann, das du den Post von Hisn nimmst und ihn komplett umschreibst und dieses umgeschriebene dann als die eigentliche Aussage von Hisn hinstellst.

Soso- Wie wärs mal mit Belegen? Hisn hat in diesem Thread keinen einzigen Post?
Meine Argumente werden im Normalfall im Gegensatz von vielen, die hier Beleglos, Referenzlos und ohne Erklärung der eigenen Gedankengänge einfach Ihre Meinung ins Forum kotzen, unterfüttert.

Eher gehen denjenigen die Argumente aus, die meinen dann persönlich werden zu müssen, ausfallend werden oder Dinge verfassen, die unter die Gürtellinie zielen und keinen Bezug mehr zur technischen Diskussion nehmen.

Manchmal sind die getätigten Aussagen so weit weg von einer vernünftigen Diskussionsgrundlage und spürbar nur auf eine Gegenrede um des Krawalls willen frisiert, dass ich mir da das Recht herausnehme nicht darauf zu antworten.

Sich verars...en lassen und seine Zeit verschwenden, von Leuten, die überhaupt nicht an einer ernsthaften technischen Diskussion interessiert sind, muss man in einem Forum nämlich auch nicht.

Deshalb kann man natürlich trotzdem immer eine andere Ansicht haben. Die will ich auch niemandem wegnehmen.

Grüße
Zero
 
Zuletzt bearbeitet:
Stimmt, es war nicht Hisn, sondern Chismon, dem du den ganzen Post "übersetzt" hast. Da beide für mich mit zu den besten Postern gehören, die ich bisher hier lesen durfte, hab ich das halt verwechselt. Mein Fehler.
Der Rest bleibt so bestehen: Posts anderer komplett um zu schreiben und dieses dann als ihre eigentliche Aussage dar zu stellen, einfach nicht in Ordnung und geht schon in Richtung Falschaussage.

Und zu dem Rest, wie wärs mal an der eigenen Nase packen und deine subjektive Meinung und dein missionieren für nVidia einfach weg lassen. Du willst allen ernstes über die technischen Dinge reden, ganz objektiv und ohne dich verarschen zu lassen? Ja dann fang damit bitte mal selber an und münze nicht die angeblichen Möglichkeiten die ja DLSS und/oder RT bieten als schon vorhandener Fakt. Bestes Beispiel ist nämlich immer wenn du sagst: Ja die RTX Karten sind ja von der Leistung bis zu 10 mal schneller, wenn erst einmal alles optimiert und genutzt wird.

Ähm ja und wann soll das sein? 2025, wenn dann die neueste RTX Karten Generation draußen ist? Auch dein kleiner Thread wo du ja nur über die Technik hinter RT reden willst. Ein reiner Werbethread für nVidia und deren RTX Karten. Da wird immer nur von dir gepostet wie toll doch alles ist und was es alles schon für hübsche Videos vorhanden sind. Aber am Ende wird da nicht wirklich über die Technik diskutiert, sondern nur deine subjektive Ansicht noch einmal gesondert hervorgehoben.
Fakt ist, das RT bis jetzt in noch immer nur 1 Spiel vorhanden ist und mit Metro kommt nach 6 Monaten wo RT offeziell vorgestellt ist erst das zweite Spiel. Fakt ist ebenso, das RT eine enormer Leistungsfresser ist und eben nicht der wie von dir so oft propagierte Heilsbringer.

Und yeah wow Hardware Unboxed hat Spiele getestet in 1440p, die nicht über 6GB VRAM Verbrauchen und/oder Games, die eben auch noch smooth laufen wenn nur 6GB vorhanden sind (also dahingehend ein vernünftiges Speichermanagment aufweisen).
Wenn selbst CB schon bewiesen hat in einem 1080p Test, das die 6GB bei nicht jedem Spiel ausrreichen, was willst du jetzt mit dem Video beweisen? Das es funktionieren kann. Ja das wussten wir auch vorher. Das die Karte im Grunde stark genug für 1440p ist? Auch dies wussten wir schon.
Meine Meinung ändert sich dadurch nicht. Ich finde es weiterhin nicht richtig, dass nVidia die Karte dadurch künstlich limitiert einfach nur 6GB VRAM drauf zu bauen. Und jeder der die Karte kaufen wird, wird je nach Spiel dann halt einfach Probleme kriegen, sofern nicht bestimmte Details verringert werden. Und das eben schon in 1080p. Und das bei einer NEUEN Grafikkarte, die für eben genau diese 1080p beworben wird und wo man erwarten kann in dieser Auflösung mit den Reglern auf Max zu gehen. Aber jeder wie er will, wer sich zu jeder GPU Generation bei nVidia zur kassen bitten lässt (weil man ja ein vermeintliches Schnäppchen gekauft hat), der möge dies bitte machen.
 
Das ist ein sehr einseitiger Post deinerseits. Ist es denn so schwer, beiden Seiten was abzugewinnen?

Das sich RT durchsetzt ist ein Fakt, dagegen kann man nicht argumentieren (Zur Erinnerung: Auch AMD entwickelt RT fähige Karten. Man braucht dieses Konzept früher oder später einfach, genauso wie man früher oder später anders aufgebaute CPUs braucht, weil man Aufgaben nicht beliebig parallelisieren kann).
Man könnte höchstens sagen, dass die Leistung noch nicht ausreichen könnte. Dabei müsste man dies aber auch irgendwie untermauern können, was man zum aktuellen Zeitpunkt nicht kann. Das eine Spiel ist die einzige Argumentationsbasis und das es dafür nicht taugt, zeigt ja schon die Art der Integration von RT sowie die massiven Performancesprünge durch Patches.

Selanius schrieb:
künstlich limitiert einfach nur 6GB VRAM

Der Speicherausbau bzw. Controller hängt am Chip. Wir der beschnitten, wird womöglich auch das Speicherinterface beschnitten. Man hätte in diesem Fall nur noch 12 GB verbauen können.

Man hätte natürlich den Speicherausbau verdoppeln können. Dann wären alle Karten um 100€ teurer geworden. Und das obwohl kein Mensch mit 16 GB VRAM auf einer 2070 etwas anfangen könnte. Auch nicht die optimale Lösung, stimmts?

Ich denke, dass die 2060 ganz gut in den aktuellen Markt passt, besonders dann, wenn bald die 6-Layer Modelle kommen
 
Selanius schrieb:
Stimmt, es war nicht Hisn, sondern Chismon, dem du den ganzen Post "übersetzt" hast. Da beide für mich mit zu den besten Postern gehören, die ich bisher hier lesen durfte, hab ich das halt verwechselt. Mein Fehler.

Du hast offenbar den zum Himmel schreienden Sarkasmus und die Intention des Posts nicht verstanden.
Sinn des Ganzen war zu zeigen, dass man seine Posts auch nett und vernünftig und ohne Bashing verfassen kann und das dem ganzen auch noch viel mehr Argumentationskraft verleiht. Nur weil man im einem Internetforum unterwegs ist, heisst das noch lange nicht, dass man seine sozialen Kompetenzen vor dem Posten vergisst.

Und warum gehören diese für Dich zu den "besten Postern"? Weil sie das schreiben, was Du hören willst?
Der Schreibstil und die Ausführung können es ja, wenn man den Ursprungspost von ihm beobachtet wohl nicht sein...

Und zu dem Rest, wie wärs mal an der eigenen Nase packen und deine subjektive Meinung und dein missionieren für nVidia einfach weg lassen.
Meine Subjektive Meinung stelle ich auch als diese dar. Fakten stelle ich auch als diese dar. Das hat mit Missionieren nichts zu tun.
Ich kann Stimmungsmache und Shitstorms nicht ausstehen, weil diese meist einer vernünftigen Grundlage entbeeren und viel zu oft die Meinung einer kleinen aber lauten Minderheit durchdrücken sollen.

Und dieser Trend wird aber immer weiter in die Foren getragen und zerstört die Diskussionskultur.
Zudem kann inzwischen ja fast kein Hersteller mehr irgendjemandem was zu 100% recht machen.

Du willst allen ernstes über die technischen Dinge reden, ganz objektiv und ohne dich verarschen zu lassen? Ja dann fang damit bitte mal selber an und münze nicht die angeblichen Möglichkeiten die ja DLSS und/oder RT bieten als schon vorhandener Fakt.
Siehst Du- Und genau das ist typisch an der Diskussionskultur hier. Auf Angriff gehen, Behauptungen aufstellen und dann wieder NICHTS liefern.

Welche Möglichkeiten von DLSS und/oder RT sind den faktisch nicht vorhanden?
Ich bitte um Beispiele.

Bestes Beispiel ist nämlich immer wenn du sagst: Ja die RTX Karten sind ja von der Leistung bis zu 10 mal schneller, wenn erst einmal alles optimiert und genutzt wird.
Dann BELEGE Deine Behauptungen endlich mal, dass dem nicht so ist.
Ich liefere Vergleichsvideos, Benchmarks, erkläre die Möglichkeiten, wie jeder die Performance selbst testen kann, ob die versprochene Mehrleistung abrufbar ist, verlinke Downloadlinks zu Demos etc.


Ähm ja und wann soll das sein? 2025, wenn dann die neueste RTX Karten Generation draußen ist?
Nein- Das ist JETZT. Es gibt Spiele, die die Funktionen nutzen, in der Unreal Engine ist die Technik inzwischen nutzbar und für meine Renderings und Shaderspielereien funktioniert das alles so wie es soll.

Nur weil DU nichts damit anfangen kannst, weil Du kein Sinnvolles Einsatzszenario für Dich findest, heisst das noch lange nicht, dass die Karten nicht liefern.

Ich bin der letzte der den Leuten eine RTX Karte andrehen will.
Ich betone in jedem Thread gefühlte 1000x, dass die Karte ein spezielles Zielpublikum anspricht und dass sich der Rest diese Hardware um Gottes Willen nicht kaufen soll.

Das wird aber immer bei Seite gewischt, weil sowas nicht ins Schubladendenken und zum Fanboy- Stempel passt, den mir hier einige immer wieder versuchen aufzudrücken.

Es wird hier im Forum so viel ungerechtfertigter Mist verbreitet (weil weder logisch noch belegbar), dass es immer weiter ins Toxische abwandert.
Dem Trend sollte jeder, dem das Forum am Herzen liegt, mit aller Kraft sofort das Wasser abgraben, indem er entsprechend handelnde Mitdiskutanten auf argumentativer Basis "stellt".

Auch dein kleiner Thread wo du ja nur über die Technik hinter RT reden willst. Ein reiner Werbethread für nVidia und deren RTX Karten.
Wenn Du mal das Brett vor Deinem Kopf und Deinen Bias etwas runterfahren würdest, dann würdest Du merken, dass das ein neutral gehaltener Thread ist, der sich vornehmlich um die Technologien und Möglichkeiten dreht.

Da wird immer nur von dir gepostet wie toll doch alles ist und was es alles schon für hübsche Videos vorhanden sind.
Das Potenzial und die zukünftigen Einsatzszenarien inkl. derer Vorteile werden diskutiert.

Nenne mir nur einen einzigen Nachteil der neu zur Verfügung stehenden Technologie.

Aber am Ende wird da nicht wirklich über die Technik diskutiert, sondern nur deine subjektive Ansicht noch einmal gesondert hervorgehoben.
Es ist jeder eingeladen sich den Thread anzusehen und sich selbst ein Urteil zu bilden.

Fakt ist, das RT bis jetzt in noch immer nur 1 Spiel vorhanden ist und mit Metro kommt nach 6 Monaten wo RT offeziell vorgestellt ist erst das zweite Spiel.
Fakt ist, dass Du aus Deiner Sicht nicht begreifen willst, dass andere die Features schon voll nutzen. Nicht nur für Spiele.
Und dass bereits jetzt -trotz der Preise- Leute Spaß mit der Karte haben, die Kaufentscheidung bewusst getroffen haben und sich nicht von NVIDIA über den Tisch gezogen fühlen.

Fakt ist auch, dass sich der Rest, der mit diesen Karten nichts anfangen kann, oder ein sonstiges negatives Gefühl hat, sich diese blos nicht kaufen soll, wenn ihm die Preis/Leistung der Rasterisierung nicht passt.

Fakt ist ebenso, das RT eine enormer Leistungsfresser ist und eben nicht der wie von dir so oft propagierte Heilsbringer.
Erzähl was Neues? RT kostet Leistung- Echt jetzt?

Begründe mal Deine Meinung, warum die Technik, die in allen photorealistischen CGI Szenen zum Einsatz kommt, nicht der Heilsbringer im Grafikbereich sein soll? Scheinen in den Grafik- Departments offenbar alle Idioten zu sein, die sich von Dir belehren lassen müssen, dass sie endlich begreifen, welchem Nepp sie schon seit Jahren aufsitzen.

Und yeah wow Hardware Unboxed hat Spiele getestet in 1440p, die nicht über 6GB VRAM Verbrauchen und/oder Games, die eben auch noch smooth laufen wenn nur 6GB vorhanden sind (also dahingehend ein vernünftiges Speichermanagment aufweisen).
Dann hättest Du Dir das Video vielleicht mal ansehen sollen.

Hättest Du Dir das Video angesehen, wüsstest Du, dass da der Beweis für unterschiedliche RAM- Allokation nach VRAM Größe und dem nicht stattfindenen Impact bei einem "anscheinenden" Speicherüberlauf der 2060 auf die Spieleperformance geführt wird.

Und dann nenne mir bitte endlich die hier propagierte Vielzahl an Spielen, die in 1080P bei der 2060 schwächeln und die den Kauf dieser Karte schwerwiegend in Frage stellen.

Und ja- Wir wissen bereits, dass die 2060 bei Battlefield unter DX12 und RT on schwächelt, weil dann die Speicherlast in die Höhe schiesst.

Dann schau Dir mal dieses Video an - Dann kannst Du Dir ja selbst mal ein Bild davon machen, welche Allokationsfehler BF5 in Speicherbegrenzten Szenarien betreibt:


12,4GB RTX Titan gegen 16,7GB (2080TI) Verbrauch obwohl die Titan ERHEBLICH mehr Speicher zur Verfügung stellen könnte? Der Speicherverbrauch der TI ist 4GB!! höher trotz gleicher Settings?

Und dieses EINE Spiel mit einem offensichtlich fehlerhaften VRAM- Reservierungs-/Nutzungssystem und schwacher DX12 Implementation nimmt man hier als Referenz, dass bei Nutzung der 2060 RTX in MEHREREN Spielen bereits jetzt die Details runtergedreht werden müssen?

Meine Meinung ändert sich dadurch nicht. Ich finde es weiterhin nicht richtig, dass nVidia die Karte dadurch künstlich limitiert einfach nur 6GB VRAM drauf zu bauen.
Wie hätten Sie denn sonst segmentieren/downgraden sollen, dass sie der 2070 nicht zu nahe kommt. Erkläre es mir.
Das ist unabhängig davon, dass Du natürlich für Dich jederzeit festlegen kannst, dass Du es nicht richtig findest, dass der Speicher begrenzt wurde.

Klar ist das für diejenigen, die für günstig Geld eine Karte haben wollen, die wie der von mir verlinkte Test zeigt derzeit auch noch in 4K eine passable Figur macht, schade.
Das Schnäppchen wäre dann eben ein noch deutlich größeres Schnäppchen gewesen.

Und jeder der die Karte kaufen wird, wird je nach Spiel dann halt einfach Probleme kriegen, sofern nicht bestimmte Details verringert werden. Und das eben schon in 1080p.
Und genau das wird in JEDEM Test widerlegt, dass das zu "Problemen" führt und hier zum wiederholten Male trotzdem noch von Dir konstatiert. Du kriegst durch einen Settings- Wahn und schlechte Programmierung jede Grafikkarte klein.

Sogar die neu erschienenen Grafikbretter wie Anthem hängen bei um die 3,5GB VRAM Nutzung rum (1440P) und das Spiel hat ja nun wirklich alles andere als schrottige Texturen.

Und das bei einer NEUEN Grafikkarte, die für eben genau diese 1080p beworben wird und wo man erwarten kann in dieser Auflösung mit den Reglern auf Max zu gehen.
Wer gibt denn das vor, was man von einer MIDRANGE- Grafikkarte erwarten kann?
Und ja- Derzeit kann man diesbezüglich alles auf Ultra stellen.

Es war noch nie in der ganzen Geschichte der Computerspiele bzw. der Grafikkarten so, dass Dir irgendjemand eine Garantie beim Kauf egal welcher Grafikkarte gegeben hätte, dass Du 5 Jahre lang alle Spiele auf Ultra spielen können wirst.

Aber jeder wie er will, wer sich zu jeder GPU Generation bei nVidia zur kassen bitten lässt (weil man ja ein vermeintliches Schnäppchen gekauft hat), der möge dies bitte machen.
Genau- Gerade derjenige, der sich so eine vermeintlich überteuerte Grafikkarte zulegen will wird gerade aus dem Preisargument heraus doppelt überprüfen, ob es das ist, wass er will.

Lg
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Regulador und Hurricane271
@ZeroZerp
Ich könnte jetzt deinen Post beantworten. Aber schon beim überfliegen fallen so viele Sachen auf, wo du dich echt unwissend stellst. Somit einfach nur nein.

@Oneplusfan
Das ist ja das interessante. AMD fängt auch an bzw. sagte jetzt auf der CES sie arbeiten ebenso an RT, bringen es aber raus, wenn es vernünftig läuft. Macht ja auch Sinn, wenn man eben mal in Richtung Filmindustrie schaut, die ja schon so lange mit RT arbeiten und auch dort es einfach noch immer so viele Resourcen frisst, ist es nun einfach absolut unwahrscheinlich, das eine Firma wie nVidia mal eben eine Grafikkarte zaubert die das plötzlich ohne Anstand kann. Und wir reden ja hier nicht nur von dem bisschen was DICE an RT in BF5 berechnen lässt.
Und ja du hast recht mit den ersten Patches nach RT Einführung lief es so langsam besser, kostet aber noch immer mehr als genug Leistung um nicht mal im Ansatz zu einer Steigerung zu führen, sondern man kommt jetzt mit RTX on so langsam an die Performance wie mit RTX off was FPS und alles andere betrifft.
Und es wird eben nur recht wenig bei BFV berechnet. Wenn man jetzt eben noch viel mehr über die RT Cores berechnen lassen würde, dann würde wahrscheinlich selbst eine RTX2080ti nicht einmal 1080p mit 30fps hinbekommen.

Man kann es drehen und wenden wie man will, nVidia hat RT wie auch DLSS auf den Markt geworfen, ohne das die Features wirklich fertig waren. Das sieht man halt auch dran, das selbst nach 6 Monaten (und ich gehe mal davon aus, das den Entwicklern schon wenigstens 3 bzw. 6 Monate vor der Gamescon RT näher gebracht wurde) es immer noch kein weiteres Spiel gibt. Nicht einmal die Spiele, die bei der Gamescon Pressekonferenz in der Liste standen und schon länger auf dem Markt sind haben bisher Patches erhalten die RT einbauen. Einfach aus dem Grund, weil RT Eben doch nicht so leicht integrierbar ist wie in der Ankündigung mit "It just works".
Und das es eben bis jetzt nur das eine Spiel gibt und erst mit Metro jetzt ein zweites kommt (wobei man da noch abwarten muss was die Tests sagen in wie weit RT dort eingebaut ist und wie gut oder schlecht es dort läuft), zeigt eben das die Leistung noch nicht ausreichend ist und die Entwickler da noch viel Zeit benötigen um RT überhaupt vernünftig zum laufen zu bekommen. Und das untermauert meine Aussage.

Und ja ich weiß, das die Speichergröße auch von der große des Speicherinterfaces abhängt. Aber das liegt ja auch in den Händen von nVidia, wenn man das Speicherinterfaces mit absicht eben klein hält, dann ist es klar das man nur X oder Y an Speicher dranhängen kann. Also ändert es ja nichts an der Aussage, 6GB sind zu wenig, weil nVidia das Speicherinterface absichtlich kleiner gestaltet bzw. beschnitten hat (sind ja dieselben Platinen wie bei der 2070 bis jetzt).
Die Zeche zahlt der Kunde, in dem er eine Karte hat die von der Leistung im unteren WQHD Bereich locker arbeiten könnte, aber je nach Spiel die Speichergröße limitieren kann/wird und man dann Abstriche machen muss bei der Grafik.
Die GPU selbst wird auch soweit mir bekannt nirgends kritisiert. Die ist wie sie ist echt spitze.

Und wir haben nun einmal in so vielen Generationen bei nVidia gesehen, das die Leistung der jeweiligen GPU nie das Problem war. Es war ab einer gewissen Nutzungszeit die höher war als das was nVidia sich vorgestellt hat (meist länger als 2-3 Jahre) immer der Speicher der limitiert hat, weil er einfach nicht mehr groß genug war.

Und jetzt hast du eine NEUE Grafikkarte, deren Speicher schon bei erscheinen bei einigen Spielen nicht mehr ausrreicht in FHD, also etwas was seit 2-3 Grafikkartengenerationen immer mehr zum Standard bzw. unteren Einstieg wurde. Also kann man doch auch als Käufer erwarten wenn man eine NEUE Grafikkarte kauft, das man wenigstens für einen Preis von 350-450€ in FHD zumindest für 1-2 Jahre alle Regler auf Max stellen kann. Und da ist RT noch gar nicht an.
 
Selanius schrieb:
Ich könnte jetzt deinen Post beantworten. Aber schon beim überfliegen fallen so viele Sachen auf, wo du dich echt unwissend stellst. Somit einfach nur nein.

Interessant, dass wenn ich mal Belege für die getätigten Aussagen einfordere (was andere Leute von mir laufend verlangen obwohl ich nicht derjenige bin, der die Dinge kritisiert) natürlich wieder nichts dabei rumkommt.

Aufgrund der Faktenlage war das aber irgendwie auch zu erwarten...

Dennoch verbreitest Du weiterhin die Mär, dass der Speicher der Karte schon jetzt bei FHD in EINIGEN Spielen nicht ausreichen würde (und bleibst wie alle anderen einen Beweis/eine Referenz schuldig).

Vergebene Liebesmüh.
Schade
 
Zuletzt bearbeitet:
Selanius schrieb:
AMD fängt auch an bzw. sagte jetzt auf der CES sie arbeiten ebenso an RT, bringen es aber raus, wenn es vernünftig läuft

Nein, RT wird ohne Hardware niemals vernünftig laufen. Wie stellst du dir das vor? Dass die Leute überall Echtzeit RT integrieren, ohne dass irgendwelche Hardware existiert?
Was AMD damit wirklich meinte: Wir bringen RT, wenn Nvidia quasi die "Drecksarbeit" gemacht hat und es einigermaßen Verbreitung findet. Ohne diesen Schritt seitens Nvidia hätte AMD sicherlich nicht so viel in der Richtung unternommen, wie es jetzt der Fall ist. Ähnlich war es mit dem DX12/Vulkan Vorstoß damals seitens AMD. Da hat Nvidia auch AMD die "Drecksarbeit" machen lassen und ewig mit guter DX12 Unterstützung gewartet.

Und beides war/ist doch etwas gutes. Einer musste halt Anfangen.

Selanius schrieb:
kostet aber noch immer mehr als genug Leistung um nicht mal im Ansatz zu einer Steigerung zu führen, sondern man kommt jetzt mit RTX on so langsam an die Performance wie mit RTX off was FPS und alles andere betrifft.

RT wurde nicht eingeführt, um mehr Frames bei gleicher Optik zu generieren. Es wurde vielmehr eingeführt, um bessere Optik zu erzeugen und um in Zukunft eine bessere Leistungsskalierbarkeit zu haben. Programmierer dürften sich auch freuen, da die Fake Beleuchtung wegfallen wird.
Hier hätte man nur nicht BF V als Vorzeigetitel hernehmen dürfen.

Selanius schrieb:
nVidia hat RT wie auch DLSS auf den Markt geworfen, ohne das die Features wirklich fertig waren

Auch hier kann man dagegenhalten, dass diese Features nie fertig sein können. Ein neues, so umfassendes Feature kann nicht fertig sein, das ist quasi ein Paradoxon. Es ist eher ein Henne-Ei Problem.
Sicherlich hätte man den Spielestudios mehr Zeit zur Integration einräumen müssen. Das DICE auf einer Volta Karte entwickeln musste zeigt ja, wie wenig Zeit die Programmierer hatten. Mehr kann man Nvidia hier aber auch nicht wirklich vorwerfen.

Selanius schrieb:
aber je nach Spiel die Speichergröße limitieren kann/wird und man dann Abstriche machen muss bei der Grafik

Es mag sein, dass die Speichergröße in 2 Spielen limitiert, aber grafische Abstriche macht man in diesen Titeln keine. Denn entweder sind die Titel an sich grafische Abstriche (COD :D) und laufen generell wie ein Sack Nüsse oder es macht schlicht keinen Unterschied in FHD/WQHD, ob die Texturen auf Extreme oder "nur" Ultra stehen. Das ist, wenn überhaupt, ein psychologischer Faktor, weil man nicht alle Regler nach rechts ziehen kann (Was eh absurd ist, da keiner mit 8xMSAA zockt, wenn er mit fast gleicher Bildqualität bei 4xMSAA 20fps mehr bekommt).

Aber gut, bei der VRAM Thematik gibt es wohl unterschiedliche Meinungen. Ich finde aber nicht, dass diese so wichtig ist, dass man eine Karte von vorne herein in die Tonne kloppen kann, weil sie "zu wenig" davon besitzt.

Selanius schrieb:
immer der Speicher der limitiert hat, weil er einfach nicht mehr groß genug war

Man konnte oft die doppelte Menge an Speicher kaufen, wenn man unbedingt wollte. Aus eigener Erfahrung kann ich sagen, dass das auch nicht viel gebracht hat. Ob heute jemand mit ner GTX 670 2GB oder 4GB rumläuft, das macht, wenn überhaupt, nur bei den Texturen nen Unterschied. Die Karte hat einfach an sich zu wenig Leistung.
Die GPU Leistung ist auch mit weniger Speicher immer noch die selbe, man muss halt einige wenige Einstellungen um eine Stufe reduzieren, dann hat man wieder die gleiche Leistung.
Und bitte jetzt keine Benchmarks rauskramen, die zeigen, dass eine 7970 doppelt so schnell wie eine 680 ist, weil das Spiel so getestet wurde, dass die 680 voll läuft und die 7970 gerade so nicht.

Versteh mich bitte nicht falsch, es ist immer gut, bei gleichen Preis/Leistungsdaten die Karte mit mehr Speicher zu nehmen. Nur würde ich nicht den Speicherausbau als DAS Kriterium gewichten (Was nicht heißt, dass viel zu wenig Speicher kein Ausschlussgrund wäre. Sollte wirklich eine RTX 2060 mit nur 3GB kommen, wäre das so ein Kandidat).
 
  • Gefällt mir
Reaktionen: .Sentinel.
Oneplusfan schrieb:
Denn entweder sind die Titel an sich grafische Abstriche (COD :D) und laufen generell wie ein Sack Nüsse
Du sag mal (damit ich nicht Dumm sterbe) -> Hast Du mal eben den Test, wo es zu Schwierigkeiten bei COD kommt?

Ich hab jetzt mal einige Tests durchgelesen (auch den von CB) und entweder ich bin blind, oder ich habe schlichtweg einseitige Quellen, nirgends gab es da Schwierigkeiten.

1549093174081.png


55 FPS in den 99teln und 74 FPS im Schnitt stellen doch alles andere als ein Problem dar und das in WQHD und nicht 1080P?

LG
Zero
 
Du musst in den Sonderstest zur Frametimeanalyse gehen. Da hat die Karte in Cod WW2 interessanterweise in WQHD bessere Framerimes als in FHD.
Die Begründung war:
"Hier ist es denkbar, dass durch die schneller aufeinanderfolgenden Frames in Full HD auch öfter auf den Speicher zugegriffen werden muss. Und wenn dieser bereits in Full HD limitiert, tritt das Problem natürlich auch häufiger auf, als in höheren Auflösungen."

Macht halt in meinen Augen nicht übermäßig viel Sinn.

FF15 ist der andere Titel, der Probleme macht. Nur sieht das Spiel auch so schon schrottig für die Anforderungen aus. Da würde mich nicht wundern, wenn man einfach nen Grafikspeicher (Allokations) Bug hat und das gepatcht werden kann.
Diese beiden Titel sind weder Vorzeigetitel in Sachen Grafik und Ressourcenmanagement, noch zeigt dieser technische Schrott "wo die Reise hingeht" wie viele Leute sagen.
 
Die 2060 ist halt die RTX Einstiegskarte. Aber wenn man das mal etwas nüchtern und wirtschaftlich für den Kunden betrachtet, dann ist sie leider momentan (wie alle anderen Karten bei AMD und Nvidia auch) zu teuer für die gebotene Leistung, weil man die selbe Leistung schon seit ein paar Jahren für etwa den selben Preis (+-) haben konnte. Ja, sie ist ein weeeenig günstiger. Aber die GPU Preise haben sich einfach schlecht entwickelt. Das gilt für beide Hersteller. Theoretisch müsste man schon längst 1070/V56 Leistung für unter 300€ bekommen, sie liegen aber oft noch darüber. (Übrigens gibts die Gainward 1070 gerade für 269€ bei Alternate). Aber hätte hätte Fahrradkette.

Trotzdem ist es momentan der Preis/Leistungs Sieger bei den Turing Karten. Turing hat die bessere DX12/Vulkan Unterstützung und so kann man davon ausgehen, dass die Karte in Zukunft noch besser gegen Pascal abschneiden wird.

Für mich ist sie aber dann doch ein wenig zu teuer. Eben weil die RTX Features, für die sie das Einstiegsmodell ist einerseits noch nicht wirklich angekommen sind (ausser Techdemos und ein Spiel) und sie für eben diese Features, welche allem Anschein nach mehr VRAM benötigen, dann in Zukunft möglicherweise limitiert sein wird, wegen der 6 GB und ihrer limitierten RTX Features. Spätestens bei der nächsten Gen. könnte es dann mit den Raytracing Features, trotz RTX cores ungemütlich werden, aber wer weiß das schon. (Ein ungutes Gefühl bleibt)

Ich bin auch nicht der Meinung, dass die 6GB ein so limitierender Faktor sind, wenn man die RTX Features nicht nutzt. Die paar möglichen FPS Schwankungen würden mich nicht sonderlich stören. Andererseits ist dafür die Preisklasse etwas zu hoch angesetzt. Die Kunden sind schon lange die 8GB gewohnt. (Ich weiss, dass es technisch gesehen nicht anderszu lösen war, aber die meisten Kunden wissen das nicht)

Die 2060 ist heute eine gute Karte. Ganz klar. Aber der Kompromiss mit den 6GB VRAM und dem unteren Limit an RTX Features und dem Preis gibt dem Ganzen einen sehr komischen Beigeschmack. Jedenfalls dann, wenn man sich eine 350€ (+-) GPU für die nächsten 3 Jahre kaufen wollte. (Das ist so mein persönlicher Zeitrahmen und kann für andere anders sein).

Man kann verstehen, weshalb die Diskussion um diese Karte so verzwickt ist.
 
  • Gefällt mir
Reaktionen: Revan1710
@Sun-Berg
Wir bewegen uns ja immer mehr auf die 300,-€ zu (Beispielmodell Gainward)...

1549109580917.png


Und ich sag mal wenn sich die Karte um die 320,-€ einpendeln sollte, dann sieht das wenn man die Start- Preise der 1060 GTX nimmt mit 319€ für die FE respektive 279€ für die Partnerkarten (http://www.pcgameshardware.de/Geforce-GTX-1060-6G-Grafikkarte-264678/Tests/GTX-1060-Review-1201931/) alles verhältnismäßig garnicht mehr so teuer aus, wie hier immer getan wird.

Man darf nicht vergessen, dass man hier vergleichsweise einen Leistungshammer (knapp 60% schneller zur Vorgängergeneration) inkl. der neuen Technologien erhält.

Zudem hat man ja zukünftig die Wahl. 1160 für denjenigen, den das RTX Gedöns nicht interessiert. Der wird dann mit wahrscheinlich der unbeschnittenen Rasterisierungsleistung wieder bei so bei um die 250€ landen.

Dann sollten ja alle endlich glücklich sein. Dann gibts aus allen Lagern auswahl satt und jeder kann sich an seiner fü ihn passenden Lösung (auch preislich) erfreuen.

LG
Zero
 
  • Gefällt mir
Reaktionen: Sun-Berg
ZeroZerp schrieb:
Zudem hat man ja zukünftig die Wahl. 1160 für denjenigen, den das RTX Gedöns nicht interessiert. Der wird dann mit wahrscheinlich der unbeschnittenen Rasterisierungsleistung wieder bei so bei um die 250€ landen.

Das wird wohl leider nicht der Fall sein. Gerüchten zufolge wird eine 1160 Ti für 279 $ an den Start gehen und etwa 20 % Mehrleistung zu einer 1060 bieten, wohingegen eine 1160 für 229 $ ins Rennen geschickt wird, die sich nur minimal zur 1060 abheben kann.

Für den großen Leistungssprung kommt man wohl nicht um den RTX-Aufschlag herum.
 
@Revan1710
Wir werden sehen.
Wenn die Tabelle von HardOCP stimmen sollte, dann gibt es bestimmt wieder einige lange Gesichter...
 
  • Gefällt mir
Reaktionen: Revan1710
bin hier neu und hätte eine frage,
darf man sich hier im thread oder allgemeinen im forum in intel, nvidia, samsung oder was auch immer für threads aufhalten oder läuft das wie in meinem alten forum ab und man wird pausenlos als blöd beleidigt weil man zum beispiel nicht das böse intel/nvidia haten will? ich kann mir dieses ständige du nix kaufen xyz = dumm nicht mehr geben.
 
@ZeroZerp
https://www.computerbase.de/2019-01/nvidia-geforce-rtx-2060-test/

Hier der passende Test von CB (Also der Techseite auf dessen Forum wir uns gerade befinden). Wo im Fazit es sogar von der Redaktion selber bestätigt wird, das es jetzt schon Spiele gibt wo man mit 6GB VRAM nicht weiter kommt ohne Details zu reduzieren. Und es sogar noch einmal explizit gesagt wird, das dies in Zukunft immer häufiger passieren wird.

Also wo erzähle ich hier Märchen?
Oder willst du jetzt der CB Redaktion unterstellen, das diese Lügen?

@Oneplusfan
Schade und ich hatte wirklich gedacht, das du endlich versuchst weniger durch die Grüne Brille zu atmen. Schon allein in deinem ersten Absatz steht so viel Unsinn drin. Gut war mein Fehler zu versuchen mit dir normal zu diskutieren, da ich fälschlicherweise annahm das du nicht wie ZeroZerp nVidia blind bist. Kommt nicht wieder vor und du wirst in Zukunft ebenso so im Zweifel einfach wie jeder andere nVidia Gläubige behandelt.
 
Sorry wenn das jetzt blöd rüberkommt, aber du hast dich wohl nur angemeldet um rumzustänkern?
Ich würde gerne sachlich diskutieren, aber dann wird einem mal wieder die grüne Brille unterstellt.....

Wenn dir was an meinem Geschrieben nicht passt, bin ich gerne bereit, mir eine andere Meinung anzuhören und ggf. meine eigene zu ändern.

Wie ich schon einmal schrieb, diese Firmen könnten mir nicht fremder sein. Es ist mir einfach nur wurscht und ich verstehe auch nicht, warum die Fanboybrille überhaupt ein Argument sein kann. Jeder Mensch bei klarem Verstand wird doch einsehen, dass so etwas einfach nur kindisch ist.

Ich muss zugeben, dass ich persönlich die Erklärung seitens CB über das Verhalten der 2060 in COD WW2 nicht verstehe. Wie kann eine Karte in 1080p schlechtere Frametimes haben als in 1440p ? Da hätte ich mir weiterführende Tests gewünscht (z.B. ob das Problem auch mit abgeriegelter Framerate auftritt). Man kann seine ganze Argumentation nicht u.a. auf so einem Beispiel und Vermutungen aufbauen.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Selanius schrieb:
@ZeroZerp
https://www.computerbase.de/2019-01/nvidia-geforce-rtx-2060-test/

Hier der passende Test von CB (Also der Techseite auf dessen Forum wir uns gerade befinden). Wo im Fazit es sogar von der Redaktion selber bestätigt wird, das es jetzt schon Spiele gibt wo man mit 6GB VRAM nicht weiter kommt ohne Details zu reduzieren. Und es sogar noch einmal explizit gesagt wird, das dies in Zukunft immer häufiger passieren wird.

Also wo erzähle ich hier Märchen?
Weil Du regelmäßig betonst, dass es EINIGE Titel wären, die durch diese 6GB Einschränkungen erfahren würden.
Ich kenne den Test von CB.

Ich kenne auch die Titel, die es betrifft.

Ich werde es für Dich aufbereiten, warum diese Feststellung, dass der Speicher schon jetzt bei EINIGEN Spielen Einschränkungen mit sich brächten anhand der präsentierten Titel (3 an der Zahl scheinen im deutschen Sprachgebrauch jetzt schon "einige" zu sein) nicht zu halten ist:

Beispiel 1:
Battlefield- Habe ich im Verlauf des Threads schon zu genüge durchgekaut.
Fehlerhaftes Speichermanagement bei hohem Füllgrad (mit Beweisvideo). -> Kann die 2060 nichts dazu.
Softwarefehler

Beispiel 2:

1080P:
1549150099589.png


WQHD:
1549150159351.png


Was sieht in dem Diagramm sofort ein Blinder mit Krückstock?
Nicht nur, dass in der höheren und mehr speicherverbrauchenden Auflösung die Frametimes ERHEBLICH besser sind, nein- Auch noch, dass die FPS mit der höheren Auflösung nur minimal niedriger sind.

Wenn man also einen Rückschluss aus dieser Messung ziehen kann, dann absurder Weise dass gerade höherer VRAM verbrauch einer 2060 wohl bei dieser Software besser liegen muss, als niedrigerer.

Da wir alle wissen, dass das absoluter Blödsinn ist, handelt es sich hier um
-eine fehlerhafte Messung - (unwahrscheinlich, weil das CB ausgeschlossen haben wird)
-ein Testsystem, dass bei der Messung im Hintergrund anderweitig ausgelastet wurde (Virenscanner, Updates oder was auch immer) - (unwahrscheinlich, weil das CB ausgeschlossen haben wird)
-Treiberprobleme in Full HD
-Fehler in COD selbst/Schlechtes Speichermanagement in 1080P
-tausend andere Gründe

Somit können die Frametimes in 1080P nicht vom einem VRAM Mangel herrühren, wenn im Szenario das den VRAM mehr beansprucht, alles deutlich besser läuft.

Zur Erklärungsversuch von CB, dass der VRAM der Grafikkarte aufgrund höherer Framezahlen "öfter" abgefragt wird und dadurch "Staus" entstehen. Das würde dann eher auf ein Latenzproblem heinweisen.

Die Karte sähe nach der Theorie von CB lt. deren Messung im Schnitt 16% mehr Bildanfragen. Würde dabei aber unregelmäßig 50%-60% höhere Spikes generieren.

Zudem- ein kleiner Ausschnitt aus dem Haupttest des Spiels von CB:
Frametimes von Vega 64 und GTX 1080

Call of Duty: WWII hat nicht die besten Frametimes. Sowohl auf einer Radeon RX Vega 64 als auch auf einer GeForce GTX 1080 lässt sich das nachweisen. Die Grafikkarte von AMD hat dabei generell die ruhigeren Frametimes, aber es lassen sich auch hier Ausreißer messen. Bei der GeForce sind sie deutlicher.


In vielen Spielen lassen sich kleinere Ausreißer bei den Frametimes nicht spüren. In WWII ist das jedoch der Fall. Immer mal wieder hakt das Spiel für einen kurzen Augenblick, sowohl auf einer AMD- als auch auf einer Nvidia-Grafikkarte.

Also haben wir auch grundsätzlich Probleme bei Karten mit mehr VRAM.

Beispiel 3:
Final Fantasy 15

Um hier mal eine Gefühl dafür zu vermitteln, was hier als "Einschränkung" verkauft wird:

Werte 1080P:
AVG FPS 80,5
99tel 65,8

Werte WQHD:
AVG FPS 59,5
99tel 45,1

Diese Werte bei einem Spiel, dass Grafikkarten zum Frühstück verputzt, können hier ja nicht wirklich ein Problem sein. Zumal auch hier die extremen Peaks bei den Frametimes eher wieder auf ein Treiberproblem/ Speichermanagementproblem von FF15 selbst hindeuten.

Oder willst du jetzt der CB Redaktion unterstellen, das diese Lügen?
Nein- Das sind sicher die Werte, die sie gemessen haben. Und ich gestehe ihnen natürlich auch zu Spekulationen darüber anzustellen, wie sich der Spielemarkt in Sachen Speicher entwickeln wird.

Wir haben als drei Spiele, die aktuell im Netz rumgeistern und die dafür sorgen, dass es Bewertungen gibt, die das in einen Kontext setzen, als dass man mit der Grafikkarte an breiter Front schon aus dem letzten Loch pfeifen würde.

Wenn man das aber mal in eine statistische Relation setzt (Lt. Mobygames wurden Stand heute knapp 80.000 Computerspiele erfasst), könnte man auch schreiben, dass (nur) 0,0037% der erhältlichen Spiele oder nicht mal eine Hand voll, teils nur kleine Auffälligkeiten zeigen, die die jeweiligen Spiele zudem selbst auf Ultra nicht als unspielbar zurücklassen und die bei näherer Betrachtung auf mangelnder Abstimmung, Bugs oder suboptimalem Speichermanagement der Softwaretitel zurückzuführen ist.

Man darf man aber auch andere Schwerwiegende Faktoren nicht außer Acht lassen:
Wir haben mit der 2060 eine rechenstarkestarke, erschwingliche Karte, die sich lt. unserer Zahlen sehr gut verkauft.

Die Spiele, die hier einen "Problemfall" darstellen wären, hätte es die 2060 vor deren Erscheinen schon gegeben, auch auf dieser durch den Qualitätsmanagementprozess gedreht worden-> Die Software wäre dann natürlich auch darauf hin optimiert worden und solche "Auffälligkeiten" minimiert.

Meine Erahrungen mit der Unreal Engine haben gezeigt, dass diese Spikes meist durch ein nicht optimales Timing beim Streaming im Zusammenspiel mit unsauber allokiertem VRAM zustande kommen können.

Da legt dann bei einem vermeintlichen, vordefinierten Überlauf die Karte ab und zu einen kompletten Flush des Speichers und dann wird der gesamte VRAM neu bestückt.
Das sind Kleinigkeiten und wenn man die Karte in seinen Fingern hält, lässt sich das auch einfach korrigieren.

Und so wird es auch zukünftig laufen. Die 2060 RTX wird in der RTX Serie- und das kann man jetzt schon an unseren Absatzzahlen sehen (Systemhaus), mit deutlichem Abstand die meistverkaufte Karte werden. Die geht erstaunlich gut.
Somit werden die Spielehersteller tunlichst darauf achten, um möglichst viel abgrasen zu können, dass deren Software im Hauptabsatzsegment (midrange Hardware) rund läuft.

Der High- End Sektor ist für die Spieleentwickler mangels großer Installationsbasis uninteressant und es wird eher als "prestigeträchtig" angesehen, diesen par "Spinnern" noch ein par Zusatzoptionen zu spendieren.


Grüße
Zero
 
Zuletzt bearbeitet:
@Oneplusfan
Wenn du ernsthaft auf einer vernünftigen Basis argumentieren willst, dann las doch Begriffe wie Drecksarbeit etc. einfach weg. Denn weder erledigt nVidia die "Drecksarbeit" für AMD noch umgekehrt. Beide Firmen gehen meistens immer einen anderen Weg um bestimmte Dinge zu bewerkstelligen. Und bisher haben es beide Unternehmen immer geschafft eine bestimmte Leistung in ihren Produkten unter zu bringen, so dass man immer als Käufer die Produkte nutzen kann, halt mal mehr und mal weniger längerfristig.

@ZeroZerp
Es spielt absolut keine Rolle ob der RTX2060 der Speicher ausgeht weil der Entwickler schlampig programiert hat oder sonst etwas.
Der Käufer sitzt vor dem Rechner und hat das Problem und kann es im Fall der RTX2060 nur darin lösen bei einer neuen Karte in FHD schon die Details zu reduzieren. Und das ist nicht der Sinn bei einer neuen Karte dies schon zum Start machen zu müssen, weil der Hersteller der Karte nur die hohe Marge gesehen hat.

Da kannst du jetzt noch 5000 mal eine Wall of Text machen. Es bleibt einfach dabei, stand jetzt reicht der Speicher der RTX2060 schon jetzt nicht mehr aus um in allen aktuell erhältlichen Spielen in 1080p bei maximalen Details zu laufen ohne Ruckler zu erzeugen. Und das ist Stand jetzt, bei Markteinführung, für 350-450€. Dabei spielt es auch keine Rolle das schon 80.000 Spiele gibt, denn wenn man danach geht, dann wäre RT ja so unbedeutend und unwichtig weil es nur 1 Spiel von 80.000 nutzt. Also jeder vernünftig denkende erkennt, dass dies Unsinn ist, das Pferd von so einer Seite auf zu zäumen.

Und ist doch schön das die Karte sich jetzt schon so toll verkauft. Kann nVidia im nächsten Jahr mit der neuen Grafikkartengeneration (also Turing 1.1 in 7nm) die gleichen Leute noch mal abgrasen. Schadet zwar am Ende mehr als das es hilft, aber Hauptsache nVidia bekommt sein Geld.

Um es mal ganz einfach zu sagen, den Käufer außerhalb solcher Techforen wie CB hier interessiert es absolut nicht warum Karte XY Probleme bei Spiel AB hat. Die Probleme sind da und stören. Und die Probleme werden sicher nicht weniger. Vor allem nicht wenn das von dir so glorifizierte RT bald in immer mehr Spielen einzug findet und die Hardware eben noch mehr beansprucht, also auch den VRAM.

Aber hey, Hauptsache für dich gibt es keine negativen Dinge bzgl. RT und nVidia. Muss eine schöne heile Welt sein, in der du lebst.
 
@Selanius
Es geht darum, dass man hier Spiele nimmt, die grundsätzlich auch auf anderen Systemen, die potenziell lästungsfähiger sind schon Katastrophal laufen und Frametimes zum Gruseln Produzieren wie z.B.:
... und dann deren schlechte Performance plötzlich auf einen VRAM Mangel zurückführt.

CODWW2 hat die Foren voll von Leuten mit stärkeren Systemen und Ruckelproblemen, FF15 hat die Foren voll Leuten mit stärkeren Systemen und Ruckelproblemen und dass DX12 bei Battlefield 5 unterirdisch performt, weiss ja inzwischen auch jeder.

Somit werden hier unzulässige Schlüsse gezogen, die zuallererst mal garnichts mit irgendwelchen VRAM Auslastungen zu tun haben können, sonst würde es auf den anderen Systemen nichr schlecht laufen, nur ein wenig schneller, sondern flüssig.

Und ja- Der Endeffekt, der für den Käufer bleibt ist, dass er mit einer Midrange Karte damit Leben muss, dass solche Schnitzer, die auch die stärkeren Grafikkarten runterziehen (dort fällt es aufgrund der grundsätzlich höheren Framerate nicht so auf) die Performancce einschränken. Jedoch in diesem Falle nie auf ein unspielbares Maß.

Und daher ist es nunmal auch objektiv als Vermessen anzusehen, die Karte gleich aufs Abstellgleis (schon jetzt überaltert) schieben zu wollen. Es geht mir hier nur um die Maßlose Übertreibung, der Einschränkungen, die man bei "einigen" Spielen hinnehmen müsste bzw. die Zukunftsängste, dass jede zukünftig erscheinende Software plötzlich anfängt über 6GB Speicher haben zu müssen.
Und nochmal- Es ist eine Midrange Karte- Nix High End. Nix next-gen (außer beim Featureset), nicht für Ultraeinstellungen gedacht.

Aber leb Du nur in Deiner unkritischen, schönen heilen Welt, wo Du jeden Mist, der uns von den Softwareherstellern vorgesetzt bekommst verteidigst und stattdessen die lieblose/feherhafte Programmierung mit Hardware erschlagen willst, wofür Du immer mehr Geld hinlegen musst.

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Oneplusfan
Selanius schrieb:
Also jeder vernünftig denkende erkennt, dass dies Unsinn ist, das Pferd von so einer Seite auf zu zäumen.
Wenn ich mich mal einmischen darf,
es ist fast egal was man bei dir Zitiert du strahlst eine wirklich Negative Aura aus, es liest sich als würden oder hätten die deinem Kind/Familie die Ehre genommen...
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: pietcux
Zurück
Oben