VR- der allgemeine Diskussions-Thread für alles

SIR_Thomas_TMC schrieb:
1) Wie lange geht das Konzert denn? So lang wie echte Konzerte, also 2h?
Glaube es war so ne Stunde. Die Pausen zwischen den Liedern sind größtenteils weg geschnitten.
SIR_Thomas_TMC schrieb:
2) Und kann ich an die Quest 3 eigentlich einfach Kopfhörer einstöpseln bzw. Bluetooth-Kopfhörer verbinden?
Klar, sollte man bei einem Konzert auch definitiv. Der Sound ist sehr gut räumlich inkl. dem Publikum, gibt ein richtiges Mittendrin-Gefühl.

Wichtig ist dass man die 3D Ansicht aktiviert...das ist standardmäßig (warum auch immer) nicht so und irgendwie versteckt. Man muss sich vorne einen Sitzplatz "aussuchen" und kann dann auf 3D wechseln. Dann ist man auch alleine und gestört.
 
  • Gefällt mir
Reaktionen: SIR_Thomas_TMC
Kuhprah schrieb:
So, die HPG2 is leider weg, die Quest 3 mit Virtual Desktop am LAN macht aber auch Spass. Nur is das Bild irgendwie nicht so scharf und kräftig wie bei der G2. Aber damit kann man leben.
Denke mal, dass die Quest 3 die nächsten Jahre mal da bleibt, einzig die Bequemlichkeit muss noch besser werden. Aktuell drückt es mir noch zu fest auf die Nase :(

Aber im Bekanntenkreis sind inzwischen alle auf die Quest 3 umgestiegen, erst jetzt zu Weihnachten wieder 5 Leute mehr die eine geholt haben : D Wenn das so weiter geht zockt in nem Jahr keiner mehr auf nem Bildschirm :daumen:
Ich nutze an meiner Quest 3 das BoboVR M3 und an meiner Quest 3S habe ich das kiwi Design K4 DuoAIO Headstrap (das hat integrierte Kopfhörer). Bin mit beiden Straps zufrieden.
 
Jo, hab mir auch was von Kiwi geholt. Das machte es besser. Was immer noch stört ist dass ich quasi den gesamten Druck auf der Nase habe, keine Ahnung warum, aber irgendwie is meine schmale Kopfform da nicht kompatibel mit vielen Einsätzen :(
 
SIR_Thomas_TMC schrieb:
Zu 2, kurz mal die KI genervt:
  • Ja: Kabel- & Bluetooth-Kopfhörer möglich 🎧
  • 3,5-mm-Klinke: rechts am Headset
  • USB-C: links am Headset
  • Bluetooth: funktioniert, aber Latenz möglich
  • Empfehlung Gaming: kabelgebunden (kein Delay)
USB-C geht auch für Kopfhörer
und Bluetooth: die meisten am Markt befindlichen Bluetooth-KOpfhörer/inrears haben so 160ms Latenz
das ist für Musikspiele und co blöd, zu groß
obs bei einem Konzert aber groß auffällt ?

ansonsten gibts aber auch "Bluetooth-Kopfhörer/Inears" die eigentlich gar keine Bluetooth sind, sondern einen 2,4GHz Dongle dabei haben, den man seitlich in den USB-C Port der Quest3 steckt..
hat sogar einen zweiten USB-C Port, womit man weiterhin die Quest3 über z.b. einen Akku von BoboVR gleichzeitig aufladen kann

mit diesem Dongle sinkt die übliche Bluetooth Latenz von 160ms runter auf 25-30ms
für die allermeisten Spieler ist das hinreichend niedrig
man muss dann auch keine Bluetoothsettings angreifen, kein Koppeln.. sobald man den Dongle in die Quest3 (oder ein Smartphone) reinsteckt, steht die sofort die Verbindung
 
  • Gefällt mir
Reaktionen: SIR_Thomas_TMC
Blaexe schrieb:
Ich denke das Thema fliegt aktuell komplett unter dem Radar, {...} Wie du sagst, Erinnerungen wirklich realistisch zu konservieren für die Zukunft ist genial

ich hatte die Gelegenheit - vor dem Abriss des alten Hauses meiner Großeltern - darin noch schnell einige 360 Panos zu machen...
also mit ner Bridge + NOdalpunktadapter

daraus paar Panos gemacht...

diese 1 Jahr später, nachdem das Haus abgerissen war, meinem Vater nochmal gezeigt..
und diese vielleicht 15 Panos: er konnte über 1h lang darüber erzählen was da so alles passiert ist

betrachtet mit der REverb G2 - die in diesem Fall bei den ca. 200Megapixel-Panos doch nochmal mehr immersion brachte für mich (trotz schlechterne Sweetspot) als die Quest3

ich hab jetzt Hyperscape selber noch nicht ausprobiert, will nicht mein Wohnzimmer jetzt da mit allen DAten auf nen Server hochladen

hab mir aber die (2 Jahre alten) Demos angeschaut, die vorher verlinkt wurden.
ist Hyperscape heute besser?

da ist schon noch deutlich Luft nach oben finde ich...
auch sind die Quest3-Kameras ziemlich schlecht für sowas..
nicht falsch verstehen: im Vergleich zu ganz am Anfang hat sich Passthrough ja deutlich gebessert

aber bei den Bildern sieht man halt, dass es 10Euro Kameras sind

also im derzeitigen Stadium - so cool 3D und 6dof in den Bildern ist - glaub ich zieh ich gute 360-Panos noch vor
 
@Kraeuterbutter

Der große Vorteil für die Immersion ist ja dass es volumetrisch ist. Das ist noch mal ein ganz anderes Level als normale Bilder - egal wie hochauflösend. Die alte Diskussion 6DOF vs. 3DOF. Du weißt ja was das für einen Unterschied macht.

Davon abgesehen ist die Qualität trotzdem sehr gut. Man würde das einer Quest Kamera nicht zutrauen.

Das war noch die Streaming Variante:

https://www.uploadvr.com/meta-horizon-hyperscape-photorealistic-scene-capture-quest-3/

"If Meta had blindfolded me and added a fake grain to the image, upon turning on the display I initially wouldn't have known whether what I was looking at was passthrough or real.

To be clear, it wasn't perfect. I could see the typical Gaussian splat distortion on fine details like small text, and by performing a deep squat I noticed significant distortion underneath furniture, in areas the headset never saw at all during the scan. But these imperfections aside, this was still the most realistic automatic scene capture I've ever seen."

Das ist ein Bericht der lokalen Variante:

https://www.uploadvr.com/horizon-hyperscape-worlds-hands-on-teleporting-into-my-bosss-home-with-vr/

" After visiting Kyle's home, I also scanned the living room and kitchen area of the apartment I live in, and found the resemblance to be remarkable. In fact, visiting it in VR while in my office induced such a strong feeling of presence that I tried to walk through my virtual kitchen, and thus bumped straight into my office wall. As someone who has been using positionally-tracked VR for well over a decade, I thought the days of mistaking the virtual for real like this were far behind me. But I was wrong. And it's a testament to just how realistic Hyperscape scans can feel, especially for places you're familiar with in reality, even in this lower quality on-device version."
 
Zuletzt bearbeitet:
Blaexe schrieb:
@Kraeuterbutter

Der große Vorteil für die Immersion ist ja dass es volumetrisch ist. Das ist noch mal ein ganz anderes Level als normale Bilder - egal wie hochauflösend. Die alte Diskussion 6DOF vs. 3DOF. Du weißt ja was das für einen Unterschied macht.
bei "egal wie hoch die Auflösung", bin ich persönlich dann nicht ganz dabei...

wie gesagt: ich hab keinen aktuellen Scan selbst gemacht,
sondern mir die Demos die in deinem Artikel auch erwähnt werden alle angesehen,
also Gordon Ramsay's Küche und Happy Kellis Crock-Room und alle restlichen

(leben wirklich Menschen so? die Beispiele wirken für mich wie nen Ikea-Show-Room...
vielleicht killt das nochmal zusätzlich für mich Immersion :-) )

aber im Ernst:
ja, volumetrisch ist großartig..

hab ich vor 6-7 Jahren die Demos schon bewundert.. wo einige kurze 5-10 sekündige volumetrische Videos gezeigt wurden..
da hatte man zwar nur einen Bewegungsspielraum von halben Meter links und halben Meter rechts..
aber für die Immersion ist das schon ausreichend, für ein großes WOW

nach den ganzen Lobpreisungen hatte ich mir vielleicht mehr erwartet...
und ja - es ist volumetrisch - aber alle Texturen sind nur Matsch
der Boden wirkt dadurch eben weniger echt (auf mich) wie ein hochauflösendes gutes 360 Foto

6dof lebt von der Bewegung.. stehe ich still, bleibt noch der 3D-Effekt, ja
aber dann halt grottige Texturen im Vergleich eben zu einem hochwertigen Pano

bissal wie mit 3D-Fernsehen vs. Flat...
ja, ich zieh nen guten 3D-Film vor....
aber nen 3D-Film mit nur half-SBS und niedriger auflösung vs. 4k Flat Film ? --> da nehm ich dann doch den 4k Flat-Film


sind die Beispiele (sind ja schon 2 Jahre alt) eventuell schlechter, als das was Meta heute mit Hyperscape abliefern kann?
liegts daran?

ich werds wohl doch probieren müssen

an und für sich nämlich genau mein Ding...

ich hab auch schon öfters 3D-Fotos mit der Quest3 gemacht, und 3D-Filme...
aber: die Auflösung ist halt einfach wirklich grottig, dass es nur mit sehr viel rosaroter "FAn-Brille" einem guten normalen Video einer z.b. Osmo Pocket 3 vorzuziehen wäre...

ich hab mir aus Actioncams (mit deutlich besseren Sensoren als die Quest3 hat) ne 3D-Kamera gebaut,
was auch schöne Aufnahmen macht, die man mit Quest3 dann anschauen kann

oder mit der Drone aus der Luft (einfach 2 Bilder mit etwas seitlichem Versatz) die für mich tatsächlich - in der Quest3 - in 3D deutlich besser ausschauen, weil Tiefe erkennbar und dadurch sogar mehr Details rauskommen, als beim Flat-Foto)

aber das man die Dateien nicht runterladen kann bei hyperscape, nicht lokal speichern/sichern kann ist für mich ein Nogo,
wodurch das so wie jetzt nur ne Spielerrei bleibt und ich da keine Zeit für "ernsthafte" Erinnungsaufbewahrung damit anstellen wollte
einfach nur ne Demo

mich würden auch paar mehr Hintergründe interessieren.. wie aufwändig das Berechnen nun tatsächlich ist, obs nicht mit nem GamingPC über Nacht auch zuhause funktionieren würde


aber PS.: so wie wir anfangs über den "enttäuschenden " Passthrough der Quest3 teils geschimpft haben, so gut ist er mittlerweile finde ich geworden..
laute feine aber gute verbesserungen..
man kann Bildschirme tatsächlich ablesen, Handyscreens, keine nennenswerte Verzerrungen mehr hinter den Händen etc...
gute Fortschritte wurden hier gemacht..
bessere Kameras in künftigen Generationen, mehr Auflösung und Rechnenpower dahinter kanns ja nur besser machen




 
Kraeuterbutter schrieb:
und ja - es ist volumetrisch - aber alle Texturen sind nur Matsch

Matsch? Da haben wir wohl unterschiedliche Ansprüche ;)

Ich würde gutes Geld wetten dass es deinen Vater deutlich mehr beeindrucken würde in einem Gaussian Splat durchs alte Haus zu laufen statt sich 360 Grad Bilder anzuschauen. Und darum geht's ja unterm Strich.
 
ja, Matsch:

hier Beispiele aus der vielleicht besten Demo bei Hyperscape:
hier auf den Bildern, klein - sieht es jetzt besser aus als dann tatsächlich in VR...

aber:
soll das Granit sein ?
1767643944289.png


soll das Holz sein?
oder ist der Tisch aus Kunstharz ?
1767643992995.png



soll das hier Leder sein? keinerlei Poren, oder sonstiges das irgendwie auch nur erahnen lassen könnte, was für ein Material das sein soll:
1767644096283.png



ist das ein Teppich oder Sägespäne?
1767644123666.png



also ja, das ist quasi die Definition für Matsch bei Texturen...

selbst vor 30 Jahren hätte man das bei den ersten Digicams so nicht durchgehen lassen

die 25 Euro Spielzeugkamera meiner Tochter die sie von den Großeltern geschenkt bekommen hat (und bei Testbericht unter 20 solcher Kameras die schlechteste Wertung bei Bildqualität bekommen hat)
und wirklich BESCHISSENE Fotos macht...
ist hier noch besser

also ja.. es haut mich nicht vom Sockel

die ganze Photogrammetrie oder GAusian-Geschichte: versteh mich nicht falsch:
faszinierend..
ich beschäftige mich seit 8 Jahren mit Photogrammetrie und weiß wie schwierig es sein kann und wie oft ich gescheitert bin was halbwegs brauchbares zustande zu bekommen..

hier einen ganzen Raum oder sogar eine ganze Wohnung quasi fehlerfrei zu sehen ist beeindruckend.. vor allem wie einfach das mit der Qeust3 erfasst wird..
BEEINDRUCKEND !

aber das Ergebnis -und ich beziehe mich jetzt nur auf die Beispeiel die ich hier in der Demo gesehen habe, vielleicht kann man selber mit mehr Zeit (Oberflächen näher betrachten, genauer scannen) hier auch schönere Ergebnisse noch erreichen

das Ergebnis ist für mich noch nicht da, dass ich sage: ich werde keine 360 mehr machen
dafür ist mir das hier noch zu schlecht
Ergänzung ()

hier z.b. von Varjo Teleport:
auch Gaussian Splats...

scheint mir - was man so von youtube halt sehen kann - besser zu sein..
ich kann hier bei den Blättern erkennen dass es Blätter sind, sie haben Struktur etc.



das scheint mir die Qualität zu sein, wo es richtig interessant wird...

das auf der Quest3 - ist für mich noch in dem Bereich wie Netflix auf der Vive schauen..
so cool ein virtuelles Kino sein mag - für die meisten war das zu wenig Qualität
 

Anhänge

  • com.oculus.paracosmaavalanche-20260105-205714.jpg
    com.oculus.paracosmaavalanche-20260105-205714.jpg
    571,6 KB · Aufrufe: 10
  • com.oculus.paracosmaavalanche-20260105-205714.jpg
    com.oculus.paracosmaavalanche-20260105-205714.jpg
    571,6 KB · Aufrufe: 10
  • com.oculus.paracosmaavalanche-20260105-205725.jpg
    com.oculus.paracosmaavalanche-20260105-205725.jpg
    601,6 KB · Aufrufe: 10
  • com.oculus.paracosmaavalanche-20260105-205737.jpg
    com.oculus.paracosmaavalanche-20260105-205737.jpg
    569,5 KB · Aufrufe: 14
  • com.oculus.paracosmaavalanche-20260105-205854.jpg
    com.oculus.paracosmaavalanche-20260105-205854.jpg
    450,7 KB · Aufrufe: 11
  • com.oculus.paracosmaavalanche-20260105-205907.jpg
    com.oculus.paracosmaavalanche-20260105-205907.jpg
    646,3 KB · Aufrufe: 12
  • com.oculus.paracosmaavalanche-20260105-205926.jpg
    com.oculus.paracosmaavalanche-20260105-205926.jpg
    599,9 KB · Aufrufe: 12
  • com.oculus.paracosmaavalanche-20260105-205950.jpg
    com.oculus.paracosmaavalanche-20260105-205950.jpg
    864,4 KB · Aufrufe: 11
Zuletzt bearbeitet:
Blaexe schrieb:
Matsch? Da haben wir wohl unterschiedliche Ansprüche ;)
Kraeuterbutter schrieb:
aber das Ergebnis -und ich beziehe mich jetzt nur auf die Beispeiel die ich hier in der Demo gesehen habe, vielleicht kann man selber mit mehr Zeit (Oberflächen näher betrachten, genauer scannen) hier auch schönere Ergebnisse noch erreichen?
so... kann man...
ich hab jetzt einen schnellen Scan meines Vorraums gemacht (abends bei künstlichem Licht),
da steht ein Lego-Technik D11 Bulldozer 42131

dem hab ich etwas mehr Zeit gewidmet...
dann noch paar Zeichnungen meiner Kinder

und was soll ich sagen: WESENTLICH besser, als das was bei den Demos in der Hyperscape-Demo-App gezeigt wurde

ja, da kann ich Holz auch als Holz erkennen
und beim D11 - trotz der vielen kleinen Bauteile die Abstehen, Geländer etc...
hat er den quasi perfekt gescannt und eingebaut

ja.. das gefällt mri jetzt schon deutlich besser !!
die Demo hingegen ist zu vergessen...

leider eignet es sich weiterhin nicht zur Dokumentation, da ja keinerlei Archivierung/lokale Speicherung möglich ist
sehr schade

ich wäre auch bereit für sowas etwas zu bezahlen, 3-5 Euro pro Scan z.b.

 
  • Gefällt mir
Reaktionen: Blaexe und SIR_Thomas_TMC
@Kraeuterbutter

Es gibt ja Möglichkeiten Gaussian Splats lokal zu erstellen und anzuschauen, ist dann eben nicht so benutzerfreundlich. Gemini empfiehlt hier die Software Postshot (auf dem PC, mittlerweile zum Export aber Abo notwendig) oder Lichtfeld Studio (Open Source) und SplataraScan auf der Quest 3 für beste Qualität. Selbst ausprobiert habe ich es nicht.
 
  • Gefällt mir
Reaktionen: Kraeuterbutter
danke, schau ich mir an..
hab mich letztens bisschen mit 3DF Zephyr beschäftig (rein Fotogrammetrie)
--> will damit Negativ für Verwendung beim 3D-Druck erzeugen für Bauteile
obwohl die Scans mit Texturen beeindruckend sind wie ich finde (also 100% Details der Fotos enthalten),
hab ich dann einige Löcher im Objekt, Fehler..

fasziniert mich, wie fehlerfrei das hier bei Meta funktioniert (aber Gaussian Splats ist ja auch ganz was anders eigentlich, auch wenn der Aufnehmvorgang der Bilder ähnlich ist)

meine Aussagte mit den Details muss ich etwas noch relativieren:
gestern als ich dies gelobt habe (Lego-Bagger, kleinste Schrift sogar lesbar)
hatte ich nur dieses Regal, den Bager und paar Fotos im Gang (1m breit) gescannt..
also nicht viele Daten..

heute hab ich da mehr Zeit (bei sonnenlicht investiert)
und festgestellt:
als ich Wohnzimmer gescannt habe (ca. 50m²)
hat das Hochladen mal wesentlich länger auch gedauert
und das Ergebnis: ist in den Details (die Objekte ich die ich besonders genau mir angeschaut habe) weniger detailliert

ich hab das um es zu verifizieren nochmal dann mit einem Adventkranz am Tisch probiert.. nur diesen gescannt, nur diesem Aufmerksamkeit geschenkt
und hier ist die Detaildichte dann deutlich höher

sprich: bei großen Räumen wird nicht mehr so detailliert gearbeitet...
früher soll das ja - bei guter Internetverbindung - am Server dann gerendert worden sein
mittlerweile läuft das Live-Rendern lokal auf der Quest3 bei HyperScape
vielleicht ist hier das Einschränken der Daten nötig?

ein Ding was mich stört:
die Höhe..
ich bin beim Bewegen in den Scanns ca. 10cm zu hoch..
das stört ein wenig die Immersion
und: man kann sich zwar Bücken um z.b. unter einen Tisch zu schauen.. aber nichtmal 1 Sekunde später drückt er dich wieder auf eine STandard-höhe...
stehst du dann physisch auf - bist du 70cm zu groß.. um dann 1 Sekunde später wieder auf STandardhöhe gedrückt zu werden

da die Daten ja für jede Höhe eigentlich vorhanden sind, würde ich mir wünschen, dass man die Höhe frei einstellen kann, bzw. kein "rücksetzen" auf einen Standard stattfinden würde

ansonsten sehr beeindruckend..

hab auch ein Kinderzimmer gescannt mit einem Spiegel..
versucht nicht selber im Spiegel aufzutauchen (Paradoxon - wer weiß was für einen Einfluss das auf das Universum hätte)
also immer nur seitlich den Spiegel mit reingenommen..

Betritt man dann diesen Raum, kann man per Joystick nicht durch den Spiegel durch (also er hat schon irgendwie erkannt, dass da physisch schluss ist),
man kann aber per pedes durchschreiten
und dahinter befindet sich dann der gleiche Raum nochmal, aber in einer etwas abstrakteren Darstellung.. bissal magisch das ganze lol

na, ich hab heut glaub ich 2-3 Stunden damit rumgespielt

wirklich beeindruckend und macht Lust auf mehr !

hier ein Beispiel was mit Postshot scheinbar möglich ist..
kaum als Gaussian Splat zu erkennen..
(aber gut: 2D am Monitor und ideal vorgegebener Flugpfad ist natürlich was anderes wie 3D in VR wo man dann wo nah rangehen kann)
 
Blaexe schrieb:
Glaube es war so ne Stunde. Die Pausen zwischen den Liedern sind größtenteils weg geschnitten.
Hab mir das Coldplay-Konzert jetzt auch angeschaut. Vielen Dank für dne Hinweis, da hätte ich echt was verpasst.
Wer ne Quest hat und Coldplay gut finden, sollte das bis zum 16.01.26 09:00 Uhr auch unbedingt gemacht haben.
https://horizon.meta.com/event/1150252113839760/?hwsh=hmpnUCbLi2

Dauert 70 Minuten, jedoch läuft das Konzert quasi als Endlosschleife (mit 15 min Wartezeit zwischen den Loops). Sprich, wenn du mitten drin einsteigst (wofür die Wahrscheinlichkeit hoch ist), musst du die Pause noch einrechnen.

Ach ja, setzt euch wirklich in den Bereich vorne (Sitzplätze) und dann auf 3D klicken, weil sonst hörst du das Gelaber vom Nachbarn...

Fand nur den Bass deutlich zu lasch, muss wohl an der Quest liegen, weil die Kopfhörer können das grundsätzlich viel (wenn an PC angestöpselt).

Und ich würde auch locker 20-30 EUR für diese Form des Konzerterlebnisses ausgeben (wenn es dann kein Ablaufdatum hat).

Wie bekommt man eigentlich mit, das sowas läuft, bzw. was ansteht?
Nur über die Webseite? https://horizon.meta.com/event/305157035795903/?locale=de_DE
Steht da zwar "ABONNIERE die Serie" aber ich sehe nicht, wo...

Ich werd am Wochenende noch meine Kids in den Genuss kommen lassen, Coldplay quasi "live" anschauen zu können.
 
  • Gefällt mir
Reaktionen: Blaexe
Zurück
Oben