News Virtual Reality: Oculus VR empfiehlt GTX 970 oder R9 290 für Rift

Lustig wie einige nach der 4K Auflösung schreien ohne sich über die Konsequenzen Gedanken zu machen.
Fassen wir zusammen...90 fps werden aus Latenz Gründen empfohlen, etwas was in 4k nicht einmal eine Titan X ohne Abstriche schafft. Damit wären dann 2 fällig....hat bisher aber nur ein Auge versorgt. Da aber jeder Mensch normalerweise 2 davon hat rechnen wir das ein weiterss mal x2 und schon sind wir bei einem 4000 € Grafikkarten Unterbau der an die 1000 W zieht und der Rest vom System kommt dannnoch hinzu.
Also viel Spass beim Sparschwein schlachten. :p
 
Lustig wie einige hier schreien, dass 4k als Display auch zwangsläufig eine Ingame Auflösung von 4k voraus setzte.

Mehr muss man zu deinem "Text" wohl nicht schreiben.
 
Zuletzt bearbeitet:
CortanaXB schrieb:
Ich hab ja über 100h im Rift mit Elite Dangerous verbracht und muss schon sagen: 4K braucht das Ding schon, damit die Texte gut lesbar sind.

Supersampling würde auch schon sehr viel helfen. Und das kommt mit dem VR Compositor ja auch tatsächlich in CV1 schon. (Vive hat ebenso einen Compositor, aber afaik kein Wort davon, ob der dieses spezielle Feature hat, der wird dort mehr für die Wände verwendet, die eingeblendet werden)

Der Trick ist, dass der Text separat und in höherer Auflösung gerendert werden kann als der Rest vom Spiel. Und danach dann je nach Bedarf runterskalieren, hilft sehr bei Lesbarkeit.

Agba schrieb:
Lustig wie einige hier schreien, dass 4k als Display auch zwangsläufig eine Ingame Auflösung von 4k voraus setzte.

Exakt. Auch in niedrigerer Auflösung gerendertes wirkt mit brauchbarem Skalieralgorithmus schon deutlich schärfer, und kritische Teile können eben in höherer Auflösung gerendert werden.
 
Agba schrieb:
Lustig wie einige hier schreien, dass 4k als Display auch zwangsläufig eine Ingame Auflösung von 4k voraus setzte.

Mehr muss man zu deinem "Text" wohl nicht schreiben.

Zum Einen habe ich noch keinen Bildschirm zu gesicht bekommen wo das ohne den klassischen unscharfen, blassen Matsch Faktor umgesetzt wurde. (mal mehr, mal weniger)
Zum Anderen dürfte angesichts der hohen, latenzbedingten Framerate das Letzte sein was man benötigt eine weitere Stufe die dazwischen funkt um das Bild nochmal umzurechnen denn das dürfte die Bildlatenz mit Sicherheit auch nochmal nach oben treiben.
 
Ich verstehe wirklich nicht wo dein Problem liegt, das du dich scheinbar auch noch darüber freust, das es das absolut mindeste an Auflösung in die Specs geschafft hat.

Bzw. du quasi gezwungen bist direkt die nächste Rift gleich im Anschluss zu kaufen, da es Auflösungstechnisch keinen Puffer gibt.

und wo genau das Problem liegt ingame die Auflösung 1920x 1080, 2460x1440, usw. einzustellen verstehe ich ebenso nicht.

Zum Einen habe ich noch keinen Bildschirm zu gesicht bekommen wo das ohne den klassischen unscharfen, blassen Matsch Faktor umgesetzt wurde. (mal mehr, mal weniger)

Und um mal ganz Plump dabei zu bleiben: Wo ist der Unterschied zu jetzt? Viele werde sicher auch nicht mit 2160x1200 anfangen, aufgrund ihrer Hardware. Ob das jetzt das CV1 oder ein uhd display drin ist. irgendwie hast du dich da selbst ausmanövriert ^^.
Also warum kein uhd Display, beidem zudem noch die Skalierungvon FullHD Videos viel besser sein wird als bei jener krummen 2160x1200 Auflösung...

Denn Videos dürften zweifelsohne eine wichtige Rolle einnehmen.

Zwei Displays einzusetzten war ein richtiger und wichtiger Schritt, aber jedem Display nur 1080x1200 zu geben, gleichzeitig aber immer wieder zu behaupten man möchte die beste VR Erfahrung bieten um den noch jungen Markt nicht kaputt zu machen...
 
Zuletzt bearbeitet:
Agba schrieb:
Ich verstehe wirklich nicht wo dein Problem liegt, das du dich scheinbar auch noch darüber freust, das es das absolut mindeste an Auflösung in die Specs geschafft hat.
Knapp daneben ist auch vorbei.
Ich freue mich nicht darüber was es in die Spec geschafft hat sondern ich mache mich über realitätsferne Vorstellungen für ein Massenprodukt lustig.

Und um mal ganz Plump dabei zu bleiben: Wo ist der Unterschied zu jetzt?
Ich sage es mal so. Bei denjenigen die keinen Unterschied zwischen der nativen Auflösung und einem interpolierten Bild sehen ist das Geld in eine gute Brille besser aufgehoben als bei einem UHD Display.

Viele werde sicher auch nicht mit 2160x1200 anfangen, aufgrund ihrer Hardware. Ob das jetzt das CV1 oder ein uhd display drin ist. irgendwie hast du dich da selbst ausmanövriert ^^.
Nicht wirklich denn was du konsequent ignorierst ist das jedes mal 2 Bilder erforderlich sind.
Damit du 90 fps zu Gesicht bekommst müssen also 180 Bilder pro Sekunde brechnet werden aber ich kann den Spass auch noch von einer anderen Seite aus aufrollen.
Welche Grafikkarte hat eine Bildschirmschnittstelle die pro Sekunde 180 Bilder in der UHD Auflösung liefern kann?
Die Interpolierung kann man wohl aufgrund der Latenzprobleme (die ich bereits ansprach) knicken.

Von den Kosten für die entsprechenden Displays (existieren die überhaupt schon?) und den damit verbundenen, zu erwartenden Aufpreis für das Gerät ganz zu schweigen.
 
@Wadenbeisser

die 2160x1200 beziehen sich ja bereits auf 2 Augen denk ich da (1080x1200px pro Auge). Sprich eigentlich muss die Grafikkarten als Bild später nur 180 Bilder ala ~ 0,6 facher Full HD Auflösung wiedergeben. Sprich 90 Bilder a 2160x1200. Das ist weniger als viele 27 Zöller an Auflösung bieten und sollte machbar sein. Klar muss das Bild aufgrund der vielen Korrekturen, größer berechnet werden. Aber das scheint ja im Treiber und damit auch im Pc zu passieren. Durch das Kabel muss dann also nur die Auflösung durch ohne Puffer und Co.

-------cut-------

Ich weiß die Argumente sind schon platt getreten :D.

Aber ich hätte am liebsten die doppelte Auflösung an jedem Auge und könnte die Brille dann besser in nem "virtuellen" Büro mit vielleicht mehreren Texteditoren bedienen, die ich durch drehen des Kopfes "ansteuer" xD.

Ich weiß nicht wie sehr skalierungsprobleme auftreten, aber bei spielen sollte ein "hoch"(geändert von "runter") skalieren ohne Probleme möglich sein. Sprich dann halt nur full HD auf einer 4k(pro Auge 2k) Brille, und wenn man sehr leistungsarme Szenarien hat, profitiert man halt von der hohen Auflösung.

Für mich müssen die Spiele mit dieser Brille nicht mal die "BAMS - MEGA GEIL" Grafik haben. Lieber Anforderungen runter und Auflösung hoch. Ich profitiere mehr davon Team Fortress 2 mit mittlerer Grafik aber hoher Auflösung zu spielen und den ultimativen "mittendrin" Effekt zu haben, als doch alle paar Momente das Pixelraster zu erkennen.

Ich weiß nicht wo die "Schwelle" liegt, ab der man dieses Raster(nach Eingewöhnung und wenn man nicht drauf achtet) kaum mehr wahrnimmt. Aber ich habe Angst das es definitiv bei einer höheren Auflösung liegt als hier ein Auge abbekommt.

Abwarten und selber testen. Immerhin ist Oculus zusammen mit den anderen VR-Brillen nur der erste Schritt. Ich denke vielleicht gibt es in zwei Jahren dann eine neue Variante die am Markt ankommt mit höherer Auflösung und vielen Feinverbesserungen. Bis dahin gibt es dann auch wieder Grafikkarten die 20%- ? mehr leistnein der gleichen Preisklasse und dann skaliert das ganze nach oben. Die Frage ist sicherlich wie gut das Stückchen Hardware jetzt im Markt ankommt. Den "richtigen" Einstieg dafür gibt es wohl kaum, denn die Hardware kann immer zu "schwach" sein in den normalen Consumer PC's.
 
Zuletzt bearbeitet:
bugmum schrieb:
Ich weiß nicht wie sehr skalierungsprobleme auftreten, aber bei spielen sollte ein "runter" skalieren ohne Probleme möglich sein. Sprich dann halt nur full HD auf einer 4k Brille, und wenn man sehr leistungsarme Szenarien hat, profitiert man halt von der hohen Auflösung.

Das ist aber hoch skalieren. ;)
Beim runter Skalieren wird eine hohe Auflösung berechnet und in einer geringeren Auflösung ausgegeben, also genau das Gegenteil.
Was ich meinte kannst du schnell selbst testen indem du die Auflösung deines Desktops entsprechend runter drehst.
Beispielsweise beim Spielen die Auflösung von 1920 x 1080 auf eine (deutlich) geringere reduzierst. Meiner Erfahrung nach kommt dann ein etwas milchiger, leicht unscharfer Matsch bei raus und das hat nichts mit der Auflösung an sich zu tuen.
 
- Danke -

Habs korrigiert. Ja das kann durchaus sein das dabei eine matschigere Grafik entsteht, müßte man testen wie das ins gewicht fällt. Und auch zur Skalierung sollte es verschiedene Algorithmen geben von denen einige auch für ein etwas schärferes Bild sorgen sollten (wenn man da Beispiele aus Photoshop einfach übertragen kann :D).

Würden theoretisch Displays mit der viermal so hoher Auflösung angesteuert, könnte man doch theoretisch 1 Pixel bei fullHd zu 4 Pixeln bei 4k machen oder ? Wäre das dann immer noch unschärfer als bei einem nativem Bildschirm in Fullhd ?
 
tochan01 schrieb:
naja, ganz so krass ist es nicht aber man weis ja das mit kein auto aus dem ersten baujahr kaufen soll, wegen der kinderkrankeiten...^^. wie man es nicht machen sollte hat ja MS gezeigt.... die ausfallrate der ersten x360 gen lag bei 42% link quelle

ich finde es auch knuffig wie sie alle hier battle'n und mit argumenten bewerfen, welches sys nun besser ist. ich bezweifel, das die alle beide systeme schon auf dem kopf hatten ^^. mein dev kit 1 der oulus hab ich nach 2 wochen weiterverkauft. das die auflösung zu gering war, steht außer frage aber es war ja auch ein dev kit. alles drauf folgende habe ich bewusst ausgelassen.

alles was jetzt auf dem markt kommt, ist die erste gen. einer neuen technik. wer erwartet hier das "perfekte" erlebnis zu bekommen, egal von welchem herstellter, ist ein traumtänzer und jeder anbieter wird das produkt weiter verbessern. es geht immer besser, da die technik sich ständig weiterentickelt. siehe flatsreens. ich kann mich noch an der ersten plasma TV erinnern den ich gesehen habe.... kein vergleich zu heute ^^.

Es ist ja nicht so, dass ich alle in der Entwicklung befindlichen VR Billen nicht auch gerne alle bei Marktstart auf einem dediziertem System ausprobieren/testen wollen würde, aber kaufen, das steht auf einem völlig anderem Blatt, weil mein eigenes Sys das nicht vernünftig packen wird (schon bei den jetzt genannten Anforderungen würde meiner GPU wohl der Saft ausgehen, obwohl das noch abzuwarten bliebe, ich bin auf den Test/Hardwarehunger gespannt) und ich auch kein Hardware Bonze bin, der 'mal eben (weil es mir auf Anhieb gefällt, weil ich einer der ersten VRler sein möchte, o.ä.) ein paar Tausend Euro für die Hardware auf den Tisch legt. Selbst wenn einer der Hersteller bspw. eine vernünftige Lösung vorstellt (unter 1440p Auflösung geht da wohl nichts), wo ist die Basis/Software dafür und wie sieht es mit dem Preis aus? Bis erstere anspringt dürfte es noch ein Weilchen dauern und bis letztere Brillen für Otto Normalverbraucher auch nur im entferntesten Sinne erschwinglich sein werden, wird noch einige Zeit vergehen ... leider, denn ich kann es eigentlich auch kaum erwarten :). Eine andere Frage ist, werden Leute bereit sein dafür auch 1000+Euro auf den Tresen zu legen, wie bei einem HD-TV? Wenn man auch noch virtuellen TV-/Spielfilmsupport dabei hätte, mit Sicherheit, aber so?

tochan01 schrieb:
auch für mich bringt die technik ein großes potential. bisher habe ich noch kein bild gesehen sehen wie es wirklich der nutzer erlebt. da hat MS ja ordentlich den deckel drauf. ich bin aber auch sehr gepannt, ob das der nachfolger des monitores wird ^^.

Ja, bei mir wird es wohl vermutlich erst eine HoloLens werden, ob sich dann das Interesse an den VR Brillen relativiert, hängt wohl von deren Support ab. Da haben nicht nur die Hardware Hersteller einiges zu leisten, sondern vor allem die Programmentwickler und dann ist die Frage, ob nur einzelne Modelle (vergleichbar mit dem Heimcomputer-Wettrennen in den 80ern) oder alle Brillentypen unterstützt werden. Da hätten dann Sony und Valve sicherlich gegenüber Facebook/Oculus einen Vorteil, es sei denn letztere holen sich exklusiv Microsoft (eher unwahrscheinlich, da diese sich eher auf die HoloLens konzentrieren werden und einen plattformübergreifenden Ansatz in letzter Zeit immer mehr pflegen), EA, Activision-Blizzard oder Ubisoft an Bord? Es könnte auch sein, dass noch ein weiterer Player in Kürze im VR Brillenmarkt auftaucht wie etwa Nintendo oder Google. Natürlich ist das alles hoch spekulativ :), es könnte der Nachfolger des Monitors (Vorläufer des Hologramms/virtuellen Holodecks) sein, wobei die HoloLens da wohl breiter aufgestellt zu sein scheint als die VR Brillen bei denen es momentan vorrangig um Spiele zu gehen scheint.
 
Zuletzt bearbeitet:
@bugmum
Wie gesagt, ein Problem beim Interpolieren vermute ich auch bei der zu erwartenden Erhöhung der Eingabelatenz (Zeitverzägerung zwischen Bewegung und Reaktion auf dem Bildschirm, das Umrechnen kostet schließlich auch Zeit) denn es fühlt sich ab einem bestimmten Punkt einfach falsch an. Man denke nur an die Kritik zu der Verzögerung bei der Bewegungssteuerung von den Konsolen.
Die so hoch angesetzte Mindestframerate beruht schließlich auf eben dieser Zeitverzögerung und nicht auf dem Bildfluss.

Theoretisch sollte das mit der Vervierfachung der Pixel natürlich funktionieren allerdings habe ich das noch nie so umgesetzt gesehen und gewinnt damit auch keinen Blumentopf da es letztendlich auch nur wie mit einem entsprechend gering aufgelösten Display aussehen würde. Da kann man sich das Geld dann auch sparen. ;)

Die ganze VR Geschichte ist eben noch am Anfang und die Anforderungen daran nicht zuletzt deshalb hoch weil die Hardware noch nicht darauf ausgelegt ist.
 
Damit scheitert die Verbreitung von VR noch bevor das Teil überhaupt auf dem Markt angekommen ist. Dazu muss man sich nur die Hardwarestatistiken bei Steam anschauen. Der Großteil der PC-Gemeinde gibt niemals 300 Euro und mehr für eine Grafikkarte aus.
 
Wo steht denn geschrieben das sich jeder sofort sowas kaufen muss?
 
Wo steht geschrieben, dass die Oculus VR immer auf demselben technischen Stand verbleibt und immer die gleichen Hardwarevoraussetzungen hat?
 
Klikidiklik schrieb:
Wo steht geschrieben, dass die Oculus VR immer auf demselben technischen Stand verbleibt und immer die gleichen Hardwarevoraussetzungen hat?

Im Artikel und in der Quelle:
"Die empfohlene Systemkonfiguration dient zugleich als Richtschnur, an der Software-Entwickler sich bei der Optimierung ihrer Anwendungen orientieren können und gilt für die Lebensdauer von Oculus Rift, wird also zunehmend günstiger zu haben sein."
 
Klikidiklik schrieb:
Wo steht geschrieben, dass die Oculus VR immer auf demselben technischen Stand verbleibt und immer die gleichen Hardwarevoraussetzungen hat?

Nach deinem vorherigen Posting müßte die Grafikkartenentwicklung eingestellt werden und jene auf immer und ewig auf dem Preis verharren damit dieses Posting von dir auch nur irgendeinen Sinn hätte.
Logisch, es wird später neuere Versionen geben und zusammen mit den Anwendungen/Spielen werden die Systemanforderungen im laufe der Zeit steigen.
 
Hätte da auch mal eine Frage und hoffe, dass die bisher noch nicht beantwortet wurde.

Und zwar wollte ich mir einen neuen PC kaufen. Nicht weil er nicht mehr reicht, sondern weil er einfach unzuverlässig geworden ist bzgl. Abstürze, Bluescreens, etc. Habe auch schon versucht nach dem Problem zu forschen, aber es wird einfach am MB oder NT liegen.

Darum wollte ich mir ein paar Komponenten neukaufen, darunter auch eine CPU. Die GPU (GTX 260) wollte ich erstmal behalten, da sie für meine Ansprüche vollkommen ausreicht.

Als CPU wollte ich mir den i5 4460 holen. Jetzt steht bei den Anforderungen, dass man einen besseren i5 bräuchte (4590), um die Brille zu nutzen. Heißt das also, dass ich das Vorhaben iwann mal die Brille zu nutzen, vergessen kann oder wird der 4460 doch ausreichen? Dass die Brille viel GPU-Power braucht, ist mir ja klar, aber die CPU? Die meisten Spiele an sich brauchen ja schon eine gute CPU (i5). Also hat die CPU mit der Brille nicht so viel zu tun?
 
Zurück
Oben