News Asus MG279Q: IPS-Monitor mit 144 Hz jetzt offiziell mit FreeSync

Oh man. War ja anscheinnd lustig über's Wochenende.

Daedal schrieb:
Muss wohl so sein. Ich seh da nichts von PSR.

Da steht auch nichts von PSR.

http://www.vesa.org/wp-content/uploads/2010/12/DisplayPort-DevCon-Presentation-eDP-Dec-2010-v3.pdf
Seite 24. Panel Self Refresh und es steht deutlich dabei "Framebuffer can also be used for LCD Overdrive to improve 3D performance"
ePD Standard

Und die Webseite kannst du noch 10 mal zitieren. Die behaupten zwar, dass PSR bestandteil von 1.2a ist, aber verlinken anschließend auf den VESA Standard in dem es nicht drin steht.

JMP $FCE2 schrieb:
Und mit der "3D performance" ist dann wahrscheinlich Shutterbrillen-3D gemeint, das schnell reagierende Panels benötigt.
Damit ist ganz einfach gemeint, dass man mit dem Framebuffer die Overdriveberechnungen verbessern kann und das davon besonders Spiele sehr stark proditieren im Gegensatz zu Desktop-Anwendungen die aufgrund ihres statischen Inhalts davon eher weniger profitieren.

Das ist echt etwas verwirrend. Das mit der 3D performance hätte man echt weg lassen sollen. Es verbesser ganz einfach die Overdriveberechnungen. Das ist alles.
pcper will das ja auch bei den GSync Monitoren festgestellt haben und in Zukunft noch weitere Tests diesbezüglich dazu durchführen.
 
Lesen ist nicht so deine Stärke, oder? In dem Link der VESA:
Adaptive-Sync is a proven and widely adopted technology. The technology has been a standard component of VESA’s embedded DisplayPort (eDP™) specification since its initial rollout in 2009. As a result, Adaptive-Sync technology is already incorporated into many of the building block components for displays that rely on eDP for internal video signaling. Newly introduced to the DisplayPort 1.2a specification for external displays, this technology is now formally known as DisplayPort Adaptive-Sync.
Nur weil eine Technik bei eDP zuerst genutzt wurde, heisst das nicht, dass bei DP 1.2a diese nicht zum tragen kommt. Wo nimmst du deine Logik her? Deutlicher kann man das nun wirklich nicht mehr beweisen als hier nun geschehen. Und damit bin ich dann raus. Das weitere rumeiern und nicht verstehen eurerseits, dürft ihr dann allein weiterhin den geneigten Lesern hier antun. Moderatoren haben wohl keine Zeit das getrolle auf Kindergartenniveau zu beenden.

Lernt lesen.
Ergänzung ()

FAQ bei der VESA zu DP 1.3:
Q: Is VESA’s new AdaptiveSync supported?

A: Yes. AdaptiveSync was first supported by DisplayPort 1.2a, and it is already supported in some available products. This is also branded as “Free-Sync” from AMD, which is based on VESA’s AdaptiveSync Standard.

http://www.tomshardware.com/news/vesa-displayport-freesync-amd,28524.html
Refinements to previous technologies in eDP 1.4 include Panel Self-Refresh (PSR). By only updating changed pixels from frame to frame, the amount of data in the pipeline is reduced. Any pixels that remain the same between frames are not updated, further saving power and bandwidth.

Finally, for those wondering about Adaptive Sync (or FreeSync as AMD calls it), it is indeed part of both the eDP 1.4 and 1.4a specs. Why aren't we seeing it yet in shipping products? As it turns out, it's part of the optional section of the standard. It seems that all that's needed are monitors that support it. AMD has stated that as many as 11 new displays will be shipping in Q1 with the feature enabled. Coupled with an appropriate AMD graphics board and a driver update, frame-tearing could quickly become a thing of the past.
 
Zuletzt bearbeitet:
Hier geht es nicht um AdaptiveSync, sondern um deine Behauptung, dass die DP 1.2a Monitore PSR fähig seien.
Keine Ahnung wie du auf den Trichter kommst AdaptiveSync und PSR immer gleichsetzen zu wollen. Das Eine funktioniert auch ohne das Andere. Das versuchen wir dir ja die ganze Zeit klar zu machen.


Daedal schrieb:
Lesen ist nicht so deine Stärke, oder? In dem Link der VESA:
Das musst du gerade sagen. Ich wüsste gerne wo du wieder bei deinem TomsHardware Beitrag heraus liest, dass PSR in den aktuellen FreeSync Monitoren möglich ist.

Dort steht nur, dass PSR ein Feature des eDP 1.4 Standards ist und das AdaptiveSync ein optionaler Teil des eDP 1.4 und 1.4a Standards ist und das mit den ersten 1.4'er Modellen erst 2016 zu rechnen ist.

Da es aber jetzt schon 1.2a Monitore gibt mit denen die FreeSync Technologie funktioniert gibt es keinen Grund anzunehmen, dass auch dort das PSR Feature vorhanden sein muss. Ich wüsste echt zu gerne wie du deine Schlüsse aus den Aussagen ziehst und zu dem Ergebnis kommst, dass 1.2a Monitore PSR beherrschen. Ich habe nicht eine einzige Information gefunden, die auch nur ein Hauch eines Anzeichens dafür liefert.
 
Also wie auch immer du mir klar machen willst, dass Adaptive Sync kein Panel Self Refresh benötigt, bitte fang an. Denn bisher hast du das einfach nur behauptet weil du nicht lesen kannst was ich verlinke. Dann bitte jetzt eine Quelle die klar sagt, dass kein PSR bei Adaptive Sync integriert ist. Auf gehts.

Hier habe ich mal meine Quelle, die wohl immer noch besser ist als gar keine (die anderen technischen Whitepapers scheinst du onehin nicht zu verstehen)
http://hexus.net/tech/news/graphics/81460-amd-freesync-enabled-driver-update-19th-march/
It helps that FreeSync is based upon an industry standard Panel Self Refresh feature in the Adaptive-Sync standard which is part of the DisplayPort 1.2a specification.
Ich habe sie ja noch nicht ein dutzend mal verlinkt. ^^
http://www.golem.de/news/amd-freesync-im-test-kostenlos-im-gleichen-takt-1503-113065-2.html
Die grundlegende Idee stammt aus dem Notebookmarkt, wo sie in Kombination mit dem Embedded-Displayport genutzt wird, um Energie zu sparen (Panel Self Refresh). Läuft ein Film mit 24 Bildern pro Sekunde, kann der Monitor mit konstant 48 statt 60 Hz arbeiten (Media Buffer Optimization).

Adaptive Sync für Displayport 1.2a erweitert die Idee um die dynamische Hz-Anpassung, alle Monitore mit einem entsprechenden Scaler beherrschen die Freesync-Technik.
eDP 1.0 -> Einführung von Adaptive Sync (Stromsparen)
eDP 1.3 -> Einführung von PSR zu Adaptive Sync (Variable Bildfrequenzen)
DP 1.2a -> Einführung von Adaptive Sync (inkl. PSR) zu DP 1.2a
Freesync basiert auf Adaptive Sync - warum sollte Freesync jetzt auf der alten Revision anstatt der aktuellen basieren?

Edit: Aber vielleicht willst du jetzt auch behaupten Freesync funktioniert nur auf Röhrenmonitoren, weil ja schließlich VBLANK aus der Zeit stammt und nun eine Wiederverwendung fand.
 
Zuletzt bearbeitet:
Ich sag's noch einmal. Hexus ist keine gültige Quelle. Die behaupten einfach etwas und geben als Quelle für diese Behauptung den Vesa Standard an in dem diese Behauptung nicht nachvollziehbar ist. Als Quelle ist Hexus nutzlos. Da wäre ja selbst Wikipedia besser.

Deinen golem Link kannst du auch noch ein weiteres dutzend Mal verlinken und trotzdem wird darin nicht stehen, dass AdaptiveSync PSR voraussetzt.

Dort steht, dass sich AdaptiveSync PSR zum Vorbild genommen hat und das AdaptiveSync jetzt eine Erweiterung im neuen 1.2a Standard ist. Nicht mehr und nicht weniger.
PSR stamme aus dem Notebook Markt und sei zum Stromsparen gedacht.

Vielleicht solltest du mal etwas gründlicher lesen.


Im übrigen muss ich dir hier gar keine Quellen angeben die belegen, dass PSR kein Bestandteil des DP1.2a Standards ist. Was meinst du was das für Dokumente sein sollen? VESA 1.2a What's not in it Standard.
Es gibt auch kein Dokument in dem drin steht, dass im 1.2a Standard kein BleepBlorp Feature implementiert ist. Es gibt nur Dokumente in denen drin steht was implementiert ist.

Du bist in der Beweispflicht mir zu beweisen, dass im 1.2a PSR erwähnt wird und sei es nur als optionales Feature.
Das konntest du bisher nicht tun.
 
eDP beinhaltet Adaptives Sync
eDP 1.3 beinhaltet Adaptive Sync inkl. PSR.
DP 1.2 a beinhaltet Adaptive Sync in der aktuellen version.
Das alles ist belegt durch die VESA. Links schon vorhanden.

Und nun zu deinen Quellen die genau das was du behauptest beweisen, bitte schön....
 
Daedal schrieb:
eDP beinhaltet Adaptives Sync
eDP 1.3 beinhaltet Adaptive Sync inkl. PSR.
DP 1.2 a beinhaltet Adaptive Sync in der aktuellen version.
Das alles ist belegt durch die VESA. Links schon vorhanden.
Ganz genau.

Dem Ganzen habe ich auch nie widersprochen. Wogegen ich Einspruch erhoben habe ist der folgende Blödsinn hier, der ständig von dir kam:

Daedal schrieb:
Also du solltest wirklich aufhören dazu solchen Blödsinn zu erzählen. Das ist ja hanebüchen wie wenig du dich mit dieser Matereie befasst hast. ^^ Spätestens nachdem die VESA-Spezifikationen das deutlich sagen, die ich verlinkt habe und nachdem ich nun 2 mal schon ganz detailiert erklärt habe warum du falsch liegst solltest du aufhören und mal das Material lesen.

AMD brauch keine neue Hardware, weil bei DP 1.2a PSR mit an Bord ist. Dies ist bei DP 1.2, welches Nvidia nutzt nicht der Fall, die haben das selber zusammen gepfrimmelt. Jeder DP 1.2a Monitor hat einen PSR Framebuifer per default an Bord. Das sind nämlich die "neuen scaler" die gar keine scaler sind, sondern kompletter Monitor Controller. Diese sind nun mit eDP angebunden anstatt LVDS wie das bei DP 1.2 noch Standard war.

Jeder Monitor mit DP 1.2a und AdaptiveSync hat einen PSR Framebuffer - sonst dürfte da gar nicht DP 1.2a drauf stehen.

Das ist falsch. Bitte lies die verlinkte VESA Spezifikation dort ist deutlich beschrieben das du dich irrst. Ohne Panel Self Refresh gibt es kein Adaptive Sync.

Ich kann gar nicht so viel zitieren so viel Blödsinn hast du über die letzten paar Seiten geschrieben und jetzt auf einmal kommst du an und willst von alle dem nichts mehr wissen?
 
Seit der Einführung von PSR in AdapotiveSync gibt es kein anderes mehr. Seit der Integration von Adaptive Sync mit PSR in den DP 1.2a Standard ist auch PSR ein Teil davon, da es ein Teil von AdaptiveSync geworden ist. Irgendwie hast du ein Logik Problem.

1+1=2
aber es gilt auch:
1+1+1=3

Die beiden Dinge widersprechen sich nicht - und das ist deine einzige Argumentation so weit - etwas das ein Viertklässler auf den ersten Blick als Blödsinn durchschaut.

Also eine Quelle für deine Behauptungen bitte, denn alle Quellen wirderlegen was du behauptest.
Mir würde ja mal ein einziger Artikel einer beliebien Redaktion reichen der das was du schreibst bestätigt. Wo denn?
 
Daedal schrieb:
Seit der Einführung von PSR in AdapotiveSync gibt es kein anderes mehr. Seit der Integration von Adaptive Sync mit PSR in den DP 1.2a Standard ist auch PSR ein Teil davon, da es ein Teil von AdaptiveSync geworden ist. Irgendwie hast du ein Logik Problem.
Du bist mit vielleicht clever. Ich möchte erstmal für deine Behauptung eine Quelle sehen.
Einführung von PSR in AdaptiveSync? Wo steht das denn? Integration von AdaptiveSync mit PSR in DP1.2a? Wo zum Teufel steht das? Das steht in keiner einzigen deiner Quellen.
PSR hat Null Komma Nix mit Adaptive Sync zu tun, aber nach so viel Peinlichkeiten die du dir jetzt schon geleistet hast kannst du das jetzt natürlich auch nicht mehr zugeben und musst jetzt zu deinem Blödsinn stehen, den du hier die ganze Zeit so vehement verteitigt hast. Ich versteh das schon. Rede dir ruhig weiterhin ein, dass 1+1=3 ergibt. Leuten wie dir ist einfach nicht zu helfen.
 
Zuletzt bearbeitet:
Daedal schrieb:
Der Sekundäre Buffer liegt nicht mehr in der GPU bereit zum erneuten senden wenn an dem primären Buffer gerendert wird. Es gibt nur noch einen Bildbuffer im GPU-VRAM, der sobald er fertig gerendert ist raus geht.

Das ist ganz sicher nicht so gelöst, weil es massiv Performance kosten würde. Die GPU müsste nach jedem gerenderten Frame die langweilige DP-Übertragung abwarten, um mit dem Aufbau des nächsten Bildes anfangen zu können. Ein zweiter Buffer im VRAM ist auf jeden Fall notwendig, damit die GPU keine Pausen einlegen muss.

Noch mehr für meine Theorie spricht übrigens das Verhalten von Freesync bei zu hohen Frameraten und Fallback-Modus Vsync off. Wenn die GPU z.B. 300 fps berechnet, kann sie die gar nicht direkt über den DP schieben, weil er nicht schnell genug ist. Diesen Fall muss die DP-Ausgabelogik also auf jeden Fall abfangen und auf 144 Hz Festfrequenz (je nach Monitorprofil) kappen, und ich halte es nach wie vor für die plausibelste Theorie, dass an der Untergrenze die Grafikkarte auf 40 Hz Festfrequenz umschaltet.
 
Also wieder keine Quellen. Alles zitierte und Spezifikationen exitieren nicht...ebenso wie Bielefeld.
Na dann schönes weiter trollen.
 
Quellen bescheinigen Freesync eine mit Vsync off identische Performance. Dass die mit nur einem Framebuffer im VRAM massiv beeinträchtigt würde, ist absolut offensichtlich.
 
Hier gestern eine neue Veröfentlichung die sogar noch mehr Details direkt von AMD und Nvidia zur jeweiligen Technik klärt:

www.techreport.com/review/28073/benq-xl2730z-freesync-monitor-reviewed

Die ersten die darauf eingehen, was eigentlich passiert wenn beide Technologien ausserhalb der Panel-Frequenz operieren. Auf Seite 3 wird das Schritt für Schritt erklärt, doch es ist absolut lesenswert von Anfang an, um dann auf der Seite 3 folgen zu können.
Entscheidend für diese Diskussion ist ein Zitat von AMDs David Glen, einer der Freesync Entwickler:
I asked AMD's David Glen, one of the engineers behind FreeSync, about how AMD's variable-refresh scheme handles this same sort of low-FPS scenario. The basic behavior is similar to G-Sync's. If the wait for a new frame exceeds the display's tolerance, Glen said, "we show the frame again, and show it at the max rate the monitor supports." Once the screen has been painted, which presumably takes less than 6.94 ms on a 144Hz display, the monitor should be ready to accept a new frame at any time.

What FreeSync apparently lacks is G-Sync's added timing logic to avoid collisions. However, FreeSync is capable of operating with vsync disabled outside of the display's refresh range. In the event of a collision with a required refresh, Glen pointed out, FreeSync can optionally swap to a new frame in the middle of that refresh.
1. Fällt die Framerate unter die minimale Frequenz des Monitors, wird die Frequenz des Monitors auf Maximum erhöht und der selbe Frame wird ständig wiederholt

Wäre also geklärt was passiert. Nun also dazu wo das Bild her kommt, welches so lange wiederholt wird bis die GPU ein neues rendert. Würde es von der GPU kommen, wie das bei Double-Buffering passiert, würde das neue Bild gezeigt werden, nachdem das alte Bild ein zweites mal dargestellt wurde. Es wäre völlig unmöglich innerhalb der 6,94 ms bei 144Hz, die der Refresh benötigt um ein Bild darzustellen, diesen Vorgang zu unterbrechen und das in der Zwischenzeit fertig gerenderte Bild der GPU anzuzeigen, da dies ja erst geht wenn ein Buffer-Flip stattfindet und dann bei der nächsten Scanperiode das das neue Bild angezeigt wird.

Doch hier ist es anders wie der zweite farbige Satz zeigt:
2. Sollte es zu einer Kollision des neuen Bildes mit einem Refresh kommen, wird der Refresh unterbrochen und das neue Bild sofort dargestellt. Dies bedeutet es muss aus einem anderen Buffer kommen. Das Bild im Panel Self Refresh Buffer wird mit 144Hz wiederholt, das Bild aus der GPU kommt mit eine Framrate unter 40 FPS von der GPU, das bedeutet, dass das alte Bild mindestens 3-6 mal auf dem Panel dargestellt wurde (je nach Frametimes der einzelnen Frames unterhalb von 40 FPS)

Die GPU müsste also nicht nur einmal den Frame doppelt schicken, sondern bis zu 6 mal oder sogar öfter, als sie einen Frame rendern kann zu dem Zeitpunkt. Durch die Nutzung des Panel Self Refresh Buffers wird hier die Frequenz nicht nur verdoppelt, wie bei Nvidia, sondern maximiert, kann jedoch jedezeit unterbrochen werden durch den neuen Frame der GPU - eigentlich müsste hier Tearing entstehen in diesen Fällen (auf 144Hz Niveau), oder man aktiviert eben VSync wie es AMD anbietet, welches das abfängt und somit der Refreshframe zu Ende rendert und dann erst durch den neuen Frame der GPU nahltlos ersetzt wird ohne Tearing. Im Prinzip ein Triple-Buffering ohne Latenz-Penalty, da es keinen Buffer-Swap auf der GPU geben muss zwischen zwei Sekundär-Buffern um das neue Bild anzuzeigen. Es wird direkt angezeigt und unterbricht die PSR-Periode. Dies wäre nicht möglich wenn es keinen Bildschirm-basierenden Buffer geben würde der den Refresh unabhängig und abgekopelt durchführt.

Interessant auch die Details zum GSync Ansatz von Tom Peterson in dem Artikel:
Petersen explained that sorting out the timing of a variable-refresh scheme can be daunting when the wait for a new frame from the graphics card exceeds the display's maximum wait time. The obvious thing to do is to refresh the display again with a copy of the last frame. Trouble is, the very act of painting the screen takes some time, and it's quite possible the GPU have a new frame ready while the refresh is taking place. If that happens, you have a collision, with two frames contending for the same resource.

Nvidia has built some logic into its G-Sync control module that attempts to avoid such collisions. This logic uses a moving average of the past couple of GPU frame times in order to estimate what the current GPU frame-to-frame interval is likely to be. If the estimated interval is expected to exceed the display's max refresh time, the G-Sync module will preemptively refresh the display part way through the wait, rather than letting the LCD reach the point where it must be refreshed immediately.

This preemptive refresh "recharges" the LCD panel and extends its ability to wait for the next GPU frame. If the next frame arrives in about the same time as the last one, then this "early" refresh should pay off by preventing a collision between a new frame and a gotta-have-it-now refresh.
Die GPU nimmt den fließenden Durschnitt der letzten Frames und schätzt ab ob die Refreshzeit überschritten wird. Dann wird vorsorglich in doppelte Frequenzen geschaltet, bevor es eine Framekollision gibt. So soll ein neuer Frame immer eine Lücke bekommen in die er geschoben werden kann, bevor das Problem überhaupt entsteht. Eigentlich das selbe im Prinzip, nur das Nvidia hier etwas Feintunig gemacht hat um nicht die maximale Frequénz anlegen zu müssen. Schreibt ja auch der Tester dort. Sagen auch Tom Peterson von Nvidia und Tom Glen von AMD. Beide nutzen einen Panel-Buffer der sich selbst refresht um das umzusetzen.
 
Daedal schrieb:
Die GPU müsste also nicht nur einmal den Frame doppelt schicken, sondern bis zu 6 mal oder sogar öfter, als sie einen Frame rendern kann zu dem Zeitpunkt. Durch die Nutzung des Panel Self Refresh Buffers wird hier die Frequenz nicht nur verdoppelt, wie bei Nvidia, sondern maximiert, kann jedoch jedezeit unterbrochen werden durch den neuen Frame der GPU - eigentlich müsste hier Tearing entstehen in diesen Fällen (auf 144Hz Niveau), oder man aktiviert eben VSync wie es AMD anbietet, welches das abfängt und somit der Refreshframe zu Ende rendert und dann erst durch den neuen Frame der GPU nahltlos ersetzt wird ohne Tearing.

kommt ganz auf die definition von unterbrochen an!
Wenn der Refresh selbst unterbrochen wird, also nicht pausiert sondern völlig gestoppt und von vorne beginnend, dann entsteht doch kein Tearing, weil ein völlig neues Bild komplett von Oben her neu dargestellt wird.
Sofern ich das so richtig verstanden habe, und das so technisch möglich ist.

Da ja das Panel? die GPU? scheinbar merkt dass das letzte frame über 25ms zum berechnen hatte(oder eben seit 25ms nix neues mehr kam) wird ein refresh aus dem buffer (woher auch immer) erzwungen und wenn in den nächsten 6.94ms nicht doch ein neues Bild auftaucht wird wieder ein refresh aus dem buffer erzwungen, und falls dann mittendrin doch eins auftaucht wird der refresh unterbrochen und von vorne begonnen mit dem neuen frame.....
 
Stimmt. Es wird ja über das selbe alte Bid neu refresht. Tearing wäre sichtbar wenn es zwei verschiedene Bilder sind.
 
Haldi schrieb:
und falls dann mittendrin doch eins auftaucht wird der refresh unterbrochen und von vorne begonnen mit dem neuen frame.....

Das würde beim ersten notwendigen Refresh (nach z.B. 25ms) aber nicht funktionieren, weil dann der Teil des Bildes, der beim Abbruch noch nicht refreshed wurde verblassen würde ("flimmern").
 
Aber kein Tearing. Zudem ist ja zu sehen, dass die Panels das Limit bei 37 Hz haben wenn sie mit 40 Hz spezifiziert sind. Das ist genügend Spielraum wenn eben bei 40 Hz das PSR aktiviert wird. Nvidia kalkuliert das aus dem Durchschnitt der voran gegangenen Frames auch mit Spielraum dafür. Das wird bei den Tests der jeweiligen Techniken so raus gekommen sein damit es passt am untersten Limit.
Ergänzung ()

kisser schrieb:
Das würde beim ersten notwendigen Refresh (nach z.B. 25ms) aber nicht funktionieren, weil dann der Teil des Bildes, der beim Abbruch noch nicht refreshed wurde verblassen würde ("flimmern").
hmmm gerade nochmal überlegt. Das stimmt so auch nur teilweise. Nach den 25 ms startet der Refresh in einem Takt von 144 Hz und braucht dann nur noch 6,9 ms um komplett durch zu laufen. Wenn genau in der Hälfte nun unterbrochen wird und oben das neue Bild beginnt, ist die Hälfte des Bildes ja refresht und nur der untere Teil des Bildes würde beginnen zu faden - nun sind 25ms+6,9ms (2xhalbes Bild) vergangen bis der Bildaufbau bei der ersten Zeile ankommt die faded.
Es erhellt sich das halbe Bild minimal.
 
kisser schrieb:
Das würde beim ersten notwendigen Refresh (nach z.B. 25ms) aber nicht funktionieren, weil dann der Teil des Bildes, der beim Abbruch noch nicht refreshed wurde verblassen würde ("flimmern").
Das trifft aber nur zu wenn die verblassung nach 25ms sichtbar anfängt, was aber wenn diese erst bei 32ms sichtbar wird?
Die "Minimale Frequenz" also nicht die Panel Minimale sondern Panel Minimale + ein Reserve Frame wäre, dann wäre da überhaupt kein Problem mehr.
 
Der Monitor ist schon wieder teuerer geworden... hmm jetzt zuschlagen oder weiter auf Alternativen und auf den gleichzeitigen Preiskampf hoffen ?

Mfg
ssj3rd
 
Ich z.B. warte, bis ein Monitor rauskommt, der mehr nach meinem Geschmack ist.
Das beste dran ist, dass die Zeit für mich arbeitet; genau wie du schreibst, mehr Alternativen was zum Preiskampf führt. Ich bin bereit, bis zu 800€ für einen ordentlichen Monitor auszugeben.

Wenn du jetzt einen Monitor brauchst, dann kauf, ansonsten warte.
 
Zurück
Oben