Test Battlefield V mit DXR im Test: Die Strahlen sind los

xexex schrieb:
Deine Argumentation kannst du aber auch wunderbar umdrehen. Wieso sind heutzutage praktisch alle TV Geräte ab 40" nur noch in 4K zu bekommen? Ich hätte lieber billigere Geräte mit Full-HD Auflösung.
Es geht hier um den Anfang einer neuen Technologie. Du bezahlst heute für einen 4K TV auch nicht mehr, als früher für einen FHD TV. Nur als 4K noch neu war, waren die TVs deutlich teurer (wie heute die RTX Karten) und da gab es als Alternative auch neue FHD TVs. Hast du heute als Alternative neue GTX Karten? Nein. Genau das war mein Kritikpunkt. Wenn ich in 2 Jahren eine RTX Karte (4K TV) zum Preis einer heutigen GTX Karte (FHD TV) kaufen kann, werde ich mich kaum darüber beschweren, dass ich das RTX mitbezhalt habe. Darum ging es nicht. Ich maule ja auch nicht rum dass ich für den Preis eines FHD TV heute 4K bekomme. Anders sähe es aus, wenn die TV Preise durch 4K nun generell höher wären, aber dem ist nicht so.
 
ZeroZerp schrieb:
@Schnitzel128

Alles gut- Sah das auch nicht als negativ an, sondern als interessantes Gedankenspiel :)
Du kannst über die SDK die neuen Einheiten direkt ansprechen und prüfen, wie schnell diese arbeiten und dass diese überhaupt arbeiten.

Wenn man Dein Gedankenspiel weiterspinnt, könnte man aber auch unterstellen, dass nVidia treiberseitig die neuen Aufrufe abfängt und dann absichtlich für die alten Grafikkartengenerationen um den Faktor 10 abschwächt und die Strukturen auf den neuen GPUs nur nichtbefeuerte Fake- Strukturen sind.

Hehe- Wenn sowas rauskommen würde.....
Wer weiß, was die Hersteller allgemein mit ihren alten Produkten machen :D

Ne, aber mich würde es eben einfach interessieren, ob z.B. eine Vega64 oder eine 1080ti das auch können und wie viel der Unterschied dann eben ist.
Bisher kann man eben nicht sagen, ob das "gut" läuft mit RT (auch wenn es natürlich im Anfangsstadium ist) durch die Architektur, oder einfach nur sinnvoll für AI ist.

Dennoch werde ich wohl bald eine RTX 2080ti drin haben... Aber nicht wegen RT, sondern wegen der mehrleistung gegenüber meiner 1080 :D
 
@Schnitzel128
Ich weiss was Du meinst. Experimentieren kannst Du zu Anfangs damit recht gut, wenn es Dich wirklich in der Tiefe interessiert:
http://cwyman.org/code/dxrTutors/dxr_tutors.md.html

Visual Studio in der 2017er community Version runterladen.
Dann dieses Paket - http://cwyman.org/code/dxrTutors.Code.Win10-RS5.zip
Und dann nach Installation/Entpacken der ganzen Geschichte das im zweiten Paket enthaltene directxraytracingtutorials.sln doppelklicken und die Prerequisites laden lassen.

Wenn man schon ein wenig Verständnis für die Materie aufbringt, versteht man dadurch sehr schön, wie etwaige Renderpipelines aussehen können und was die entsprechenden neuen Funktionen bzw. Cores da wirklich "können" bzw. wie schnell sie sind.
In den Intersection- Berechnungen, also dem Szenario, wo ich die Szene von der Kamera aus mit Lichtstrahlen abtaste, kommt das mit dem Faktor 10-15 gegenüber einer shadergestützten Berechnung schon hin, wenn man eine 1080TI gegen eine 2080TI stellt.

Das sind schon Welten...
 
  • Gefällt mir
Reaktionen: Schnitzel128 und Swiffer25
ich dreh ein wenig an der Taktschraube und dann wirds auch meine 1060 gut darstellen können
 
  • Gefällt mir
Reaktionen: poly123
xexex schrieb:
Das ist Quatsch, weil du vor einem 55er meist nicht in einem Meter Entfernung sitzt und letztlich die wenigsten Inhalte heute überhaupt mit 4K gesendet werden. Die meisten werden quasi dazu gezwungen etwas zu kaufen, für das sie (derzeit) keine Verwendung haben.

Anhang anzeigen 725568
Nochmal Glück gehabt, bräucht ich fast einen 8k laut deiner Grafik :)
 
  • Gefällt mir
Reaktionen: .Sentinel.
Soo hab mich mal an Nvidias Work Around gehalten, da DXR noch bekannte Bugs hat.

Performance Settings in Battlefield V

We recommend in this first release of DXR that “DXR Raytraced Reflections Quality” be set to “Low” due to Battlefield V’s Known Issues when using “Medium”, “High”, and “Ultra” settings. EA, DICE, and NVIDIA will also continue to optimize this implementation and deliver regular updates.

Although preferences will vary, we recommend disabling the following settings from Video-->Basic when DXR is enabled for the best overall experience:

Chromatic Aberration
Film Grain
Vignette
Lens Distortion
https://forums.geforce.com/default/topic/1080010/geforce-rtx-20-series/battlefield-v-dxr-faq/

Und siehe da, 88 fps avg in WQHD - Ultra und RTX low.
Paar seltene Hackler drin, lies sich aber super spielen.
Und die Grafik ist einfach Bombe :-)
 
  • Gefällt mir
Reaktionen: Gortha, pietcux und t3chn0
Ich nehme stark an, dass die Leistungsfähigkeit von GPUs bezüglich der Berechnung von Raytracing in Zukunft stark ansteigen wird, so wie vor einigen Jahren bei Tessellation. Damals (ca. 2009) überforderten die höchsten Einstellungen praktisch alle GPUs, heute schaffen das selbst günstige Midrangekarten. Und auch damals übertrieben Entwickler gerne mit der Option, um ihre Spiele (und vor allem Benchmarks) aufzupeppen. Siehe Unigines "Heaven" Benchmark.
 
Ich bezweifle zwar immer noch den Sinn hinter Raytracing in einem schnellen Shooter wie BFV, aber irgendwo muss anscheinend damit begonnen werden. Mehr fps gehen mir hier vor rt.

Sogar ein langsamer Shooter würde mehr davon profitieren. ;)
 
  • Gefällt mir
Reaktionen: Krautmaster
FHD samt matschigen Texturen— Rtx on mit visuellen aufploppende spiegelungen — mit gutem Willen hoch gerechneten ca. 60 fps — dazugehörige neue Werbeunterstützende Namensgebung RT vor dem X —und das alles für 1300 € .Nächstes Jahr dann 1600 € für die 2090ti und ca. 30% Steigerung und 80 fps. Läuft ... würde ich sagen.
 
Zuletzt bearbeitet:
@Birke1511
Genau- Und da Du offensichtlich mit der neuen Option nichts anfangen kannst, kaufst Du Dir einfach eine non- RTX- Karte (die dann auch matschige Texturen liefert, dafür schneller und deutlich hässlichere, fehlerbehaftete Spiegelungen) und bleibst bei dem für Dich ausreichenden Status Quo der Grafikqualität stehen oder übersprüngst halt einige Generationen an Grafikkarten. Damit sparst Du sogar noch einen haufen Geld!

Die anderen, die mal wieder einen Sprung in Grafikqualität sehen wollen und bereit sind entsprechend Mittel dafür aufzuwenden greifen einfach zu den neuen Karten.

So ist jeder erstmal versorgt und kann nach seinem Gusto das für sich richtige Modell wählen.

Gegen die matschigen Texturen haben die neuen Karten übrigens Tensor Cores an Bord, die aufgrund von Deep Learning Materialeigenschaften verinnerlichen können und diese ohne repetitive vorgespeicherte Texturen in Zukunft auf die Polygone legen können. Kein Matsch mehr, keine Gigabyteweise Texturen mehr....

Zudem haben die Karten eine Technik an Bord, die das Aufploppen von Gegenständen, Effekten etc. unter erheblicher Steigerung der Detaildichte UND unter Zugewinn von Geschwindigkeit selbst regeln kann.

Muss halt jeder wissen, was er bereit ist zu geben, zu unterstützen und welchen Weg die Grafik nehmen soll.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gortha
Steht die Option des DXR On auch den GTX 1080er und 1070er zur Verfügung?^^
 
Man kann ja RTX finden wie man will.
Man kann sich aber auch mal fragen warum das ganze nicht alz Zusatzkarte oder Huckepack realisiert worden ist.
Ähnliche wie seinerzeit die 3DFX Karten.
Dann könnte jeder dem es das Geld wert ist einsteigen und andere die mit "klassischer" Grafik zufrieden sind können es aber eben auch lassen.

Wo so mancher, z. Bspl. mein Vorvorredner mal nachdenken sollte, (Kein Angriff!) ist wie schnell die Halbwertzeit mancher Argumente ist.
Da wird von hässlichen Spiegelungen im Wasser gesprochen ohne RTX und wer sich das antun will.
Wie oft hab ich in der Vergangenheit schon gelesen wie toll doch das Wasser aussieht mit der neuen Superduper Grafikkarte. Bisher immer ohne RT!
Es wird immer des Bessere des Guten Feind sein. Bei den RTX Karten stimmt aber einfach das Preis Leistungsverhältnis nicht, zumal offensichtlich schon die 2070 keinen sinnvollen Nutzen daraus gewinnen kann.

Kommt dann die RTX 2060 für 400€ und gänzlich ohne Mehrwert durch RT, spätestens nach unten hin wird doch deutlich das hier was nicht zueinander passt?

Ich meinerseits bin mir sicher. Wäre der Mining Boom weiter gegangen, die Lager leer, dann wären die neuen Karten zu einem evtl. geringen Aufpreis zur Vorgängergeneration auf den Markt gekommen.
 
Ulukay schrieb:
Nochmal Glück gehabt, bräucht ich fast einen 8k laut deiner Grafik :)
Wieso? Sitzt du in 1m Abstand vor nem 55 Zöller? :D Es geht dabei um TVs, nicht um Monitore. ;)
 
anexX schrieb:
Weil du z.B. bei nem 55er bei 1080p die Pixel schon fast einzeln zählen kannst. ^^

Billiger ist eben nicht immer sinnvoller.
Ich habe gestern einen Spielfilm von DVD auf meinem neuen UHD 55 Zoll TV gesehen. Es geht gut. Aber wenn das Panel nun nur FHD hätte, hätte ich bestimmt auch nicht die Pixel gesehen aus 3,5 m Entfernung. Auf meinem 27 Zoll FHD Monitor sehe ich auch keinen Pixelbrei, sondern ein hervorragendes Bild. UHD wird immer noch nicht benötigt, es stellt nur keiner mehr TV Panels in HD her. Und ein Preisunterschied zwischen HD und UHD Panelen gibt es sicher auch nicht. Ist nur ein kleinerer Prozess, mehr nicht.
 
EvilsTwin schrieb:
Man kann ja RTX finden wie man will.
Man kann sich aber auch mal fragen warum das ganze nicht alz Zusatzkarte oder Huckepack realisiert worden ist.
Ähnliche wie seinerzeit die 3DFX Karten.
Weil die 3DFX Addon- Karten damals vollständige Grafikkarten waren, die das Monitorsignal durchgeschliffen haben.

Dadurch ist nichts gewonnen, nur dass es noch teurer würde, weil Du dann zwei vollständige Grafikkarten im System hättest (oder man verwendet die IGPU).

Dann könnte jeder dem es das Geld wert ist einsteigen und andere die mit "klassischer" Grafik zufrieden sind können es aber eben auch lassen.

Das können die Leute doch jetzt schon. Es wird doch hier immer davon gesprochen, dass der Leistungszuwachs der neuen Grafikkarten lächerlich ist. Somit scheint diese ja diesbezüglich für die Allgemeinheit keinen Wert darzustellen.

Wenn einer den Lebenstraum hat eine blaue Grafikkarte zu besitzen und diese die Leistung einer 1080TI hat aber 2000,-€ kostet, so kann es durchaus sein, dass es demjenigen Wert ist, diesen Preis zu bezahlen.
Deswegen ist er kein Idiot oder jemand, der eine Preispolitik fördern will, dem Hersteller Geld in den Hintern blasen will, oder sonstwas.
Es ist ihm die Sache einfach Wert. Nicht mehr, nicht weniger.

Wo so mancher, z. Bspl. mein Vorvorredner mal nachdenken sollte, (Kein Angriff!) ist wie schnell die Halbwertzeit mancher Argumente ist.
Da wird von hässlichen Spiegelungen im Wasser gesprochen ohne RTX und wer sich das antun will.
Wie oft hab ich in der Vergangenheit schon gelesen wie toll doch das Wasser aussieht mit der neuen Superduper Grafikkarte. Bisher immer ohne RT!
Es wird immer des Bessere des Guten Feind sein.
Genau nichts anderes schreib ich die ganze Zeit. Der eine geht hin und sagt unter 100FPS kann er nicht mehr Spielen, der andere wiederum will ohne 4K nicht mehr leben und der dritte wiederum hat die hässlichen Screenspace Reflections dicke. Das sind ganz individuelle Präferenzen, bei dem es kein allgemeingültiges "das ist gut und richtig" oder "das ist falsch" gibt. Auch die Sinnhaftigkeit tut diesbezüglich nichts zur Sache.

Der letzte Stand der Wissenschaft ist, dass das Menschliche Auge im Optimalfall 110FPS auflösen kann. Wenn aber jemand eine Freude daran hat, mit 144Hz und optimalerweise den passenden FPS zu spielen und Stein und Bein schwört, dass es für ihn besser ist, dann bittesehr. Dann ist auch dieser bereit für das Erreichen dieser Zielwiederholfrequenz vielleicht viel Geld in die Hand zu nehmen, wo andere wiederum nur den Kopf schütteln können.
Deswegen liegt der 144 HZ Freak aber insofern nicht falsch, als dass es ihn vielleicht einfach zufrieden macht unter Fraps die 144 in der Ecke stehen zu haben.

Um diese Subjektiven Empfindungen herum gibt es ganze Industriezweige (z.B. High End Hi-Fi, Luxuskarossen) etc. deren Mehrkosten aus rein objektiv technischer Sicht einfach nicht greifbar oder in ein Preis-/Verhältnis zu setzen sind.

Dort versucht es auch keiner, weil diese Klassen einfach etabliert sind und unter anderem auch ein gewisses Prestige versprühen. Dafür darf man gesellschaftlich akzeptiert komischerweise grundlos deutlich höhere Beträge für objektiv nicht "bessere" Produkte ausgeben, wozu so mancher auch noch anerkennend nickt.

Die letzten Jahre wurden nur die FPS und Auflösungsfraktion bedient. Jetzt kommen die an der Reihe, die wieder eine Steigerung der Grafikqualität an sich sehen wollten.

Bei den RTX Karten stimmt aber einfach das Preis Leistungsverhältnis nicht, zumal offensichtlich schon die 2070 keinen sinnvollen Nutzen daraus gewinnen kann.

Auch hier wieder- Jeder einzelne bestimmt durchweg für sich, ob eine Sache einen gewissen Preis wert ist. Denn wer will den schon beurteilen, wie wichtig Feature XY für jemanden persönlich ist und an welchem Geldwert er das bemisst. Bzw. eine Ebene drunter, wer will denn schon allgemeingültig bewerten, was z.B. 1000,-€ für jemanden persönlich als "Wertigkeit" darstellt. Der eine verdients in ner Stunde. Der andere Spart ein Jahr drauf.

Wenn jemand regelmäßig 50% seines Spielspaßes nur deshalb verloren hat, weil ihm immer wieder diese schlechten Reflektionen/niedrige Auflösung/niedrige FPS auf den Senkel geht, dann kann der Aufpreis für diesen bereits gerechtfertigt sein.

Kommt dann die RTX 2060 für 400€ und gänzlich ohne Mehrwert durch RT, spätestens nach unten hin wird doch deutlich das hier was nicht zueinander passt?
Wir haben es hier mit einer ersten und zudem extrem inkonsistenten und öffentlich verkündet in vielen Bereichen fehlerhaften Implementation zu tun. Deshalb lässt diese "Machbarkeitsstudie", mehr ist es wohl noch nicht, noch keine Rückschlüsse auf die Alltagstauglichkeit zu.

Ich meinerseits bin mir sicher. Wäre der Mining Boom weiter gegangen, die Lager leer, dann wären die neuen Karten zu einem evtl. geringen Aufpreis zur Vorgängergeneration auf den Markt gekommen.
May be.

Abschliessend:
Dennoch sollte der Schritt in Richtung Raytracing an sich eben differenziert betrachtet werden und nicht nur anhand eines für jeden unterschiedlich empfundenen Preises oder der aktuellen Marktsituation bewertet werden.

Und sorry, aber BV 5 mit RTX on gibt ein spürbar stimmigeres Gesamtbild ab, als RTX off. Klar merkt man solche Dinge aber auch erst jetzt, wenn man den direkten Vergleich hat.
Und natürlich fällt dieser Effekt kaum auf, weil er sich einfach für das Gehirn gewohnt richtig in das Gesamtbild einfügt. Also völlig normal und nichts Besonderes. Man darf nie vergessen, wie stark das Gehirn filtert und "Fehler in der Matrix" teilweise auch einfach ausradiert.

Grüße
Zero
 
Zuletzt bearbeitet:
pietcux schrieb:
. Auf meinem 27 Zoll FHD Monitor sehe ich auch keinen Pixelbrei, sondern ein hervorragendes Bild..

Haha.
Daran merkt man, dass du es nicht besser weißt.
Ich musste meinen 27 Zoll WQHD zu Beginn in FHD betreiben.
Das tat schon irgendwie weh.
Den Augenöffner gabs aber dann als ich auf WQHD umstellen konnte.
Die Pixeldichte von FHD auf 27 Zoll ist einfach zu gering.
Das wirst du dir selbst dann erst eingestehen, wenn du mal einen besseren Monitor hast.
Nichts geht über Pixeldichte.
Ist einfach so.

Hatte zum Test BF V auf 1080p gestellt.
Sieht (auch dank der schlechten Skalierung meines WQHD Monitors auf FHD) furchtbar aus.
 
  • Gefällt mir
Reaktionen: Oneplusfan
poly123 schrieb:
geht einwandfrei, bei 2k und ca. 90 - 100 fps
1. Woher hast du den 2K Monitor gekauft?
2. 90-100 FPS bei welcher Einstellung und Auflösung?

Alles im allen zu wage und unglaubwürdig, weil es sich nicht mit den Benchmarks deckt und selbst eine 1070 unter 1080p nicht immer auf deine Werte kommt. Und zur Grundaussage aus deinem Zitat, sage ich lieber nichts. Selbst ein 10% OC wird niemals den Unterschied zwischen spielbar und total unspielbar machen.
 
Dome87 schrieb:
Toller Test, Raytracing ist also schön, nicht perfekt und im Anfangsstadium. Meine 2080Ti kommt am WE, ich bin gespannt (1080p 144Hz) :) Für RT habe ich sie nicht geholt, aber wenn man es nutzen kann, wieso nicht...

Ich denke frühestens in zwei Generationen wird die Geschichte erst im Mainstream ankommen und auch dort Leistung bringen. Oder es liegt nur an BF V und ich späteren Spielen ist RT ja vielleicht weniger hungrig.


also für fullhd 144hz reicht meine 1080ti auch. wenn ich die details runterschraube, dann sind mehr als 200fps drin, dann greift aber in sehr vielen szenen je nach spiel (bfV zb im multiplayer auf 64spieler-karten) das cpu limit schon sehr stark, d.h. in den meisten spielen wird man das mit aktuellen cpus (selbst mit 9900k) nie konsatant erreichen (zb wer nen 240hz monitor hat).
kurzum: 2080ti ist mmn overkill für 144hz fullhd. würde dir einen 144hz-165hz 1440p monitor empfehlen, dafür sollte das ding wie geschaffen sein.
Ergänzung ()

cat_helicopter schrieb:
Ich find ja DX niedrig durch die Bank am schönsten. Zudem kann ich nicht verstehen, wenn Leute sagen, sie sehen da keine/kaum Unterschiede. Ich find gerade die Wasser und Autoreflexionen sind sehr gelungen und tragen viel zum nächsten Schritt Fotorealismus bei.
stimmt: bei pfützen und spiegelungen zb an glatten oberflächen siehts hammer aus. das is es aber mmn fast schon wieder. was ich gesehen habe im direktvergleich zb auf youtube, haut mich insgesamt weniger vom hocker. ist halt jetzt neu und bis das vllt iwann im mainstream ankommt dauerst noch paar jahre. im moment testet nvidia an seinen premiumkunden eine neue technik. erst wenn das auch im mainstream ankommt wirds wirklich interessant.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xammu, Esenel und Dome87
Chismon schrieb:
Genau das, nur wenn man jetzt eine nVidia RTX/Turing Grafikkarte kaufen will, bekommt man die Katze im Sack ;).

Dass die Turing-Karten aktuell floppen (angesicht RT-Raytracing und DLSS-Versprechungen bzw. bisher nur unausgegorener Umsetzung dieser neuen, laut "Lederjacke" jetzt schon revolutionaeren Features) ist auch am aktuellen nVidia-Boersenkurs abzulesen und nicht alleinig auf Ueberschaetzung des Mining-Booms zurueck zu fuehren, denn wie man so gerne sagt "an der Boerse wird die Zukunft gehandelt") und da hat nVidia mit den RTX Karten momentan fuer die Mondpreise zu wenig zu bieten.

Das Fazit am Ende des Artikels ist an sich richtig ausgefallen :), aber ich haette mir hier ein noch deutlicheres/negativ konnotierteres Fazit von Wolfgang/CB gewuenscht (dass nVidia RTX-Turing Grafikkarten aktuell aus Kundensicht zu unrund sind und zum Kauf nicht empfohlen werden koennen), aber dann wuerde vermutlich wohl die NDA-Keule bzw. Liebesentzug von nVidia drohen :rolleyes:, schade!
Schau dir AMD an alle Tech Aktien sind in den letzten 18 monaten hoch und dann abgestürtzt. Damit wie gut oder schlecht es Nvidia geht hat das eher wenig zu tun. Die Zahlen sind nicht so viel unter den Erwartungen geblieben nur die letzten paar mal haben sie eben immer die Erwartungen übertroffen.

Die RTX Karten sind auch aus drei. Gründen teuer und nicht Vergleichbar mit Pascal und den meisten Generationen davor.
  1. Laut Gerüchten sitzt Nvidia auf sehr vielen Pascal Karten. Nach dem das Mining abgeflaut ist, hatten sie etwas zu langsam die Produktion zurückgefahren.
  2. AMD ist keine Konkurrenz. Nvidia hat quasi ein Monopol im Highend wie es Intel hatte. AMD kann nicht einmal gegen Pascal etwas besseres bieten. Ja Vega ist billiger (UPDATE teuer war ein tippfehler), aber ist teurer in der Herstellung und hat eine schlechtere Energieeffizienz als Pascal. Bis Navi 7nm für Highend kommt wird das so bleiben.
  3. Die Chips sind riesig. Als Nvidia vor 5 Jahren mit der Planung der Chips begonnen hatten, dachten sie vermutlich 7nm ist schon da. Die Chips sind gerade noch so machbar von der Größe. In der Vergangenheit war da meist die nächste Fertigung bereit mit kleineren Chips um eben die neueren Architekturen mit allen Ausführungseinheiten zu bauen.
Klar wenn #2 nicht wäre würde Nvidia einfach wenig verdienen und zur Not sogar mit leichten Verlusten verkaufen um bis 7nm zumindest die Marktstellung zu halten.
Aber #3 wird bei allen diesen Chips Auswirkungen haben. Früher war das Problem meist die Leistungsaufnahme. Heute kann man 7 Milliarden Transistoren auf einen A12X packen und das Ding braucht meist nur so 3-5 W. Sprich rein technisch kann man fast jeden Mega Chip (Stromzufuhr, Abwärme) betreiben solange die Speicherbandbreite kein Problem ist (es noch Sinn macht). Die Produktionskosten nehmen aber zu.
Ich denke daher, dass mehr und mehr teurere Highend Chips kommen werden die einfach ziemlich groß werden und die RTX Preiskategorie nicht verschwinden wird sondern sich eher noch ausdehnen.
7nm wird sich viele Jahre halten und auch wenn bist 5nm angekündigt wurde, was danach kommt und vor allem wie lange das dauert kann heute jeder nur spekulieren.
Ich denke das in ein paar Jahren 7/7+/5 nm chips geben wird die richtig groß und teuer sind (Oder es gibt multichips und die kosten einfach eben das 2x/4x/8x). Die Leistungsabstände werden denke ich größer und die neuen midrange werden nicht so leicht alte highends schlagen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
Zurück
Oben