Der ultimative Pimax Thread! (4K, 5K, 8K)

@ZeroZerp
Ich denke daß für die meisten Leute die 5k+ mit Abstand die bessere Wahl ist. Nur eben für mich ist es noch nicht ganz entschieden. Wäre es NUR der Schwarzwert oder NUR die größere Helligkeit, aber es sind beide Werte, die bei der 8k einen Tacken besser sind. Natürlich kann man mit Adaption argumentieren, daß das nicht ins Gewicht fällt. Allerdings ist der bessere Schwarzwert den Testern live beim Zocken aufgefallen, was per definition POST-adaptiv ist. Und das ist mir leider megawichtig neben der Helligkeit, die auch postadaptiv als brilliantere Farbwirkung auffallend bleibt. Wäre die Helligkeitsadaption so mächtig, würde man die Odyssey nicht wegen seiner lebendigen Farben im Vergleich zur Rift loben.

Beim SDE ist es fürchte ich etwas anders als bloß eine andere Anordnung bei gleichem SDE. Das hängt definitiv von den Farben usw ab und nochmal wie es je nach Spiel live wirkt. Da vertraue ich auf swevivers Aussage, der glaube ich von allen Testern am meisten in den Pimaxens verbracht hat, also am ehesten eine Unterm-Strich-Aussage machen kann. Und er meint halt, daß der sde bei der 8k geringer WIRKT. Das heißt das Killerkriterium ist für mich noch nicht vom Tisch.

edit: daß die 5k+ prinzipiell immer schärfer bleibt, ist glaube ich Konsens. Für mich entscheidend: 8k scharf genug.

@Mracpad
Du weißt vermutlich über IT-Kram signifikant mehr als ich und ich gebe zu, daß Pimaxens neues Update eine gute Portion Unklarheit enthält. Jedoch scheint mir die Aussage zu sein, daß auf die übliche Leistungsdifferenz zwischen 1080ti u. 2080ti (30% aufm Papier halt) nochmal 30% ONTOP kommen für die 2080ti, falls die Engine stimmt. So hatte ich das gelesen. Man kann ja dann die Aussagen, die ich bloß skizzenhaft zusammengefasst habe, anzweifeln. Da bin ich nebenbei immer gerne mit vorne dabei. Ein Schönredner bin ich sicher nicht.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: .Sentinel.
Zum Schwarzwert der 5k+ darf man nicht vergessen dass die ja anscheinend das Farbprofil der 8k für nutzen(daher ja auch der blaustich etc), was auch den möglichen schwarzwert der 5k+ komplett zerstören kann, was das profil auch sehr wahrscheinlich macht da es das dümmste ist was man machen kann.
Daher zweifle ich doch aktuell sehr stark daran dass der schwarzwert der 8k doch so viel besser sein wird.
 
kellerbach schrieb:
Das Zitat widerlegt aber deine Aussage von den 30%. Es steht dort eine 60. Man muss schon Widerspruch mit der Brechstange suchen, um das wiederholt (!) zu übersehen. Ganz nebenbei war meine 1-Satz-Zusammenfassung des Verlinkten so allgemein gehalten, daß man schon merkwürdig drauf sein muss, da eine Falschaussage rausspinnen zu können. Echt ey..

Ich mache das jetzt mal im Detail Schritt für Schritt:

Die Überschrift erwähnt einen Performancevorteil von 60-70% in Benchmarks bei Verwendung einer 2080 TI.

Der Text erklärt woher dieser kommt. Sie sprechen dort von Solution 1 und Solution 2

Ein Grund für die 60-70% Unterschied ist z.B. dass der Vergleichsbenchmark mit einer GTX 1080 TI durchgeführt wurde. Hier die Textbelege:

2. RTX2080Ti VS GTX1080Ti you will get ~30% performance improvement.

So when you combined solution 1 and solution 2. you can totally get more ~60% performance, taking GTX1080Ti as the benchmark.

Solution 2 ist ein Upgrade von 1080 TI zu 2080 TI, kommen wir zu Solution 1:

Es gibt eine Checkbox im PiTool welche benötigt wird um ältere Spiele mit Unreal Engine zu spielen. Wenn man diese aber bei anderen Spielen aktiviert lässt, verliert man 35% Performance.

Hier die Textbelege:

To do backward compatibility with the old game based Unreal 4.17 or below, we add a checkbox in the PiTool, but it seems most users turn on the setting but forget to turn off it when playing the new games[...]

bild35.JPG

Ergänzung ()

kellerbach schrieb:
@Mracpad
Jedoch scheint mir die Aussage zu sein, daß auf die übliche Leistungsdifferenz zwischen 1080ti u. 2080ti (30% aufm Papier halt) nochmal 30% ONTOP kommen für die 2080ti, falls die Engine stimmt. So hatte ich das gelesen. Man kann ja dann die Aussagen, die ich bloß skizzenhaft zusammengefasst habe, anzweifeln. Da bin ich nebenbei immer gerne mit vorne dabei. Ein Schönredner bin ich sicher nicht.

Es geht mir nicht um Unklarheiten. In deinem Link steht ziemlich genau was Sache ist. Und ich habe dir das mehrfach versucht näher zu bringen:

Mracpad schrieb:
Mit der GPU hat das afaik nix zu tun, ist doch einfach nur ne checkbox die man je nach spiel aktivieren sollte oder auch nicht. Sieht für mich eher nach ner temporären Lösung aus um in manchen games einen 30% fps malus zu umgehen. Hoffe die Checkbox werden sie noch los, für den Standard User ist es definitiv zuviel verlangt abhängig von der Engineversion des Spiels ne Checkbox markieren zu müssen.

Die 30% für den Unterschied zwischen 1080 ti und 2080 ti habe ich bloß nicht erwähnt weil ich davon ausgegangen bin das du den text grundsätzlich gelesen und verstanden hast, nur eben nicht die Nummer mit der Checkbox.

Nach deiner Antwort habe ich dann beide Gründe erwähnt:

Mracpad schrieb:
1. Wenn du die Checkbox bisher falsch bedient hast und jetzt damit aufhörst kriegste 30% mehr Performance.
2. Kauf dir ne 2080 TI, dann haste 30% mehr Performance als mit ner 1080 TI.

Hier sind beide 30% Verbesserungen erwähnt, dass ich 30 + 30 = 60 vorrechnen muss habe ich absolut nicht erwartet.

Und weil du darauf immer noch mit sehr deutlichem Unverständnis reagiert hast kam der darauf folgende Post zustande bei dem ich bereits sichtlich gereizt war. :D
 
Zuletzt bearbeitet:
Mracpad schrieb:
Wenn du dich an den geschätzt ~5% Unterschied in Sachen Helligkeit und Schwarzwert festklammern möchtest, kannst du das gerne tun. Nur wird das höchstwahrscheinlich in der Praxis keinerlei Unterschied machen

So siehts aus. Man darf nicht vergessen, dass wir uns bei den beiden Brillen immer noch im gleichen Kontrastbereich befinden. Das ist kein OLED vs. LCD. Und dazu ist unser Auge / Gehirn noch ganz gut darin den Unterschied auszugleichen. Ich bin sogar mit der Oculus Go vollkommen zufrieden was das angeht - und das obwohl ich sowohl Rift als auch Vive sehr gut kenne. Und da dürfte der Unterschied sehr viel größer sein als zwischen den zwei Pimax Brillen.
 
Zum Thema UE4 und dem ominösen "Schalter".

Vor Version 4.18 waren die VR Works Bibliotheken nicht voll funktionsfähig implementiert.
Somit hatte man diverse Features aus dem Single Pass Stereo Set nicht zur Verfügung.

Das kostet natürlich ordentlich Leistung, wenn die Perspektivverschiebung nicht aus der bestehenden Projektionsmatrix gezogen wird, sondern tatsächlich ein vollständiger zweiter Renderpass durchgeführt werden muss.

Deshalb- Nicht vergessen das X rauszunehmen, wenn es nicht zwingend notwendig ist.

Grüße
Zero
 
@Mracpad & blaexe
Von Anklammern kann keine Rede sein. Ich halte mir einfach die Wahl noch offen, weil ich Zweifel daran habe, daß man den Pluspunkt an beiden Enden des Kontrastes einfach so wegadaptiert. Immerhin ist der Unterschied bemerkbar, wird also nicht restlos wegadaptiert. In dem Vergleichsvideo mit seiner hochwertigen Lumix-Kamera u. der elite-Intro fand ich den Unterschied bzgl. Schwarzwert erheblich. Wir reden in allem von marginalen Unterschieden, sogar bzgl. Schärfe, eurem Lieblingskriterium. Daher machts keinen Sinn, wegen Geringfügigkeit ein Auswahlkriterium kleinreden zu wollen.

Es macht desweiteren keinen Sinn, sich für seine Präferenzen bei der Wahl eines Produkts rechtfertigen zu müssen. Ich will es keinem andrehen unter Vorspiegelung falscher Tatsachen, sondern lege einfach nur offen, was mir wichtig ist und aufgrund welcher Kriterien ich entscheide. Ich fürchte ihr beiden müsst das einfach aushalten, daß ich mir meine Entscheidung noch offenhalte und eure Lieblingskriterien nicht so hoch gewichte wie ihr.

Gucken wir mal was das neue Farbprofil bringt oder nicht bringt.

Bzgl. 60%: stimmt es also nicht, daß pimax bei bestimmten Engines/Engineversionen irgendein 2080-exklusives Feature nutzt, was die alte Architektur nicht hat?
 
Zuletzt bearbeitet von einem Moderator:
Ich bin einfach zu schwach, um die 2080ti wiederherzugeben. Wenn sie erstmal schnurrt und leuchtet. Mist! Man lebt nur einmal.
 
  • Gefällt mir
Reaktionen: marcus locos
nargorn schrieb:
Ich bin einfach zu schwach, um die 2080ti wiederherzugeben. Wenn sie erstmal schnurrt und leuchtet. Mist! Man lebt nur einmal.
:lol::lol::lol:
 
  • Gefällt mir
Reaktionen: nargorn
🤦‍♂️😂
 
kellerbach schrieb:
Bzgl. 60%: stimmt es also nicht, daß pimax bei bestimmten Engines/Engineversionen irgendein 2080-exklusives Feature nutzt, was die alte Architektur nicht hat?

Ganz ehrlich? Ich glaube langsam du versuchst mich zu trollen.

Mein Post #1.243 resultiert in dieser Antwort/Frage? Ernsthaft?

Guck dir halt dazu noch Post #1.245 von ZeroZerp an.
 
Zuletzt bearbeitet:
@Mracpad
Naja, apropos trollen. Wie war das mit dem Vergleichskriterium beim Testen von Brillen mit unterschiedlicher nativer Auflösung? Selbe renderres verwenden, um die Grafikpower als Faktor rauszunehmen? Das war kompletter Unsinn. Dennis Ziesecke führte dankenswerter Weise in einem anderen Zusammenhang das Beispiel mit 2k und 4k Monitoren an, daß man die bei Tests selbstverständlich mit ihrem nativen Signal füttern muss. Dein Einwand, daß Brillen nicht native Auflösung empfangen, sondern immer höher, war ja leider keiner, weil man bei Brillen mit unterschiedlicher nativer Auflösung dann halt um denselben Prozentsatz erhöht zu rendern hat. Du warst an dem Punkt der Argumentation plötzlich weg, nicht mehr gesehen. Mr. Rift hatte da nochmal nachgefragt, weil er verunsichert war, wie sich das nu verhalte. Funkstille. Dein Denkfehler war, daß du Standardisierung bei Vergleichen mit begrenzendem Faktor (Peripherie, hier: Graka) verwechselt hast.
 
Zuletzt bearbeitet von einem Moderator:
Du vergisst zu erwähnen das du derjenige warst der einen erhöhten Renderfaktor vorgeschlagen hast, nur hätte deine Variante eben zu einer ungleichen Multiplikation geführt. Nur deshalb habe ich die Diskussion begonnen.

Das war auch der Grund weshalb ich mich aus der Diskussion zurückgezogen habe. Der Ablauf war der gleiche wie in dem aktuellen Dialog wegen den "Performanceverbesserungen".

Du darfst gerne davon ausgehen das ich kompletten Unsinn schreibe, ist mir Wurst. Das habe ich allerdings weder in der damaligen, noch in dieser Diskussion getan. Ich habe bestimmt nicht fehlerfrei argumentiert, aber davon bist du auch deutlich entfernt. Ich werde von nun jedenfalls damit aufhören dich auf den Quatsch hinzuweisen den du von dir gibst oder irgendwo her interpretierst.

Adios.
 
Ich habe mich im aktuellen Fall geirrt mit der Pimax-Meldung und du hast dich damals geirrt, so einfach ist der Sachverhalt. Du hattest die Sache damals sehr explizit gemacht, sodaß es nichts mehr zu deuten gab. Explizit: Grafikkarte als standardisierender Faktor, weils angeblich unfair wäre, ein HMD mit höheren Grafikkartenanforderungen entsprechend ihren Erfordernissen zu befeuern, weil man dadurch die Grafikpower "mit rein nehmen würde in die HMD-Betrachtung".

Ich habe grundsätzlich keine Probleme Irrtümer zuzugeben, ich hatte z.B. früher ATW und ASW verwechselt, weil ich neu in der Materie war. Nur kann ich das leichter, wenn der, der mich auf einen Irrtum aufmerksam macht, auch selber Irrtümer einsehen kann.

Peace, keiner ist unfehlbar. Wir kriegen bald superfeine hardware, ein riesen Grund zur Vorfreude :)
 
Yo, peace VR Bros!! ;-)
 
  • Gefällt mir
Reaktionen: .Sentinel.
Endlich, es geht los :D
Wobei sie mich als #246 noch nicht gefragt haben; ein wenig Zeit wird also schon noch ins Land gehen. Rechne mittlerweile mit Anfang bis Mitte November.
Aber immerhin: Es geht los! :D
 
Wie wollen die bei dem Tempo alle 5000 backer bis Weihnachten beliefern?
Glaube nicht, dass ich meine dieses Jahr noch bekomme. Hab in den letzten Stunden gebackt.
 
Bin ich jetzt wieder ein Hater wenn ich sage dass man sich von der Vorstellung lösen sollte dass alle Backer bis Weihnachten auch nur annähernd bedient werden? Oder doch Realist?

Pimax hat im Forum geschrieben, dass 14 (!) Brillen bis jetzt raus sind. Ich rate nur die Erwartungen etwas im Rahmen zu halten.
 
Nee, biste nicht. Also Hater, mein ich😂.
 
Zurück
Oben