Tipps für Photogrammetrie

Shaav

Fleet Admiral
Registriert
Okt. 2009
Beiträge
12.093
Moin moin,
ich finde das Thema Photogrammetrie total interessant aber auch unheimlich schwer gute Ergebnisse zu erzielen. Ich interessiere mich sehr dafür wie eure Erfahrungen diesbezüglich sind. Insbesondere wäre ich dankbar für Tipps die euch sehr weitergeholfen haben euer Ergebnis zu verbessern. Ich scheitere derzeit an der Aufnahme eines Blumentopfes (samt Pflanze) was echt nicht sein muss. Für die korrekte Abbildung eines ganzen Raumes fehlt mir glaube ich die Rechenleistung.

Was habt ihr so photografiert? Woran seid ihr gescheitert? Welcher Tipp hat euch sehr weitergeholfen?
Nutzt ihr auch PhotoScan? Wieviel Bilder habt ihr benötigt, aus wievielen Punkten bestehen eure Punktwolken?

Folgende Tipps haben mir sehr weitergeholfen:
- RAW
- Blende F11 oder höher
- kein direktes Sonnenlicht
- keine spiegelnden oder eintönigen Flächen

Meine Hardware:
Core i5
8GB RAM
GTX 970
 
Zuletzt bearbeitet:
Ich habe bei mir im Lightroom beobachtet, dass 8GB RAM ab und zu voll laufen. Da ich bei mir die Auslagerungsdatei deaktiviert habe (verbraucht mir zu viel Platz auf der SSD) hat sich dabei auch immer gleich Lightroom verabschiedet.
Ich habe jetzt ein Upgrade auf 24GB gemacht; seitdem läuft es deutlich stabiler.
 
Lightroom ist wohl weniger für Photogrammetrie geeignet ;) Prinzipiell ist mehr RAM jedoch auch bei Photoscan vorteilshaft.
Hast du dir das User Manual von Photoscan durchgelesen? Da stehen allgemein sehr viele Tipps, z.B. für die Aufnahme der Fotos drin, die sehr sehr nützlich sind.
Persönlich habe ich bisher nur recht wenig mit Photoscan gearbeitet, jedoch war ich unter Zuhilfenahme dieses Manuals meist mit den Ergebnissen zufrieden. Ich habe aber z.B. auch gelesen, dass Capturing Reality teils schnellere oder bessere Ergebnisse liefern kann, bin jedoch noch nicht zum Testen gekommen.
 
Ich bin auch gerade schwer am Erfahrung sammeln was das Photoscan betrifft.
Mit kleinen Objekten (ca. 60 -80 Bilder in 360°) habe ich schon recht gute Erfolge gehabt.
Die Software ist sehr gut, wenn man die Tipps, aus dem Manual beachtet.

Allerdings auch sehr Hardwarehungrig.

Sehr Wichtig ist die Aufnahmequalität. Mit unscharfen Bildern (auch wenn es nur wenige in der Summe sind) leidet das Ergebnis deutlich.

Habe gestern mal ein freies Sample gerechnet. Das waren sehr gute Luftaufnahmen einer Drohen von einem Straßenzug ca. 150m.

200 Bilder bei 4608x3456 PX und ~ 4 MB/JPeg Bild

13h für die Dichte Punktwolke (38 Mio Punkte).

Hardware:
14C/28T Xeon E5v3 CPU und 64GB DDR4 RAM

Ich suche auch dringend noch Leute die etwas Erfahrung mit Agisoft Photoscan haben.
 
Ja, den Test habe ich auch gelesen. Der ist auch gut aufgearbeitet. Aber leider bringt die GPU bei weitem nicht so viel Steigerung wie die Kernanzahl der CPU.

Und in einem Heim PC mehr als 2 ordentliche Grafikkarten zu betreiben ist mehr Aufwand als eine "Viel-Kern-CPU".

Bsp.:

Mit dem 6-Kerner (5930K - 6x 4,0 Ghz) habe ich für Projekt X ~ 12 Stunden gebraucht. (mit 2x GPU).
Der 14-Kerner (14x 2,3 Ghz) hat für das gleiche Projekt "nur" ~ 6,5 Stunden gebraucht. (mit 2x GPU).

jeweils die GPU Unterstützung deaktiviert, habe ich im Schnitt ca. 1,5 Stunden mehr Rechenzeit.

Und die GTX 980ti ist ein anderes Kaliber als eine GTX 970 ;) die hatte ich vorher. Wobei gerade beim Gaming die Leistung zwischen den Karten weiter auseinander geht.

Wobei auch das Hyperthreading bei Agisoft 15% - 20% bringt. Klingt erstmal nicht spektakulär, aber warum sollte ich die Prozente verschenken, wenn ich sowieso die Hardware dazu habe. :)

Der i5 (Egal wie hoch getaktet und welche Generation) ist nicht der Ideale Partner für Agisoft. Weil man z.Bsp auch für jede GPU einen Core deaktivieren sollte. (Empfehlung von Agisoft). Da bleibt vom i5 nicht viel übrig. Konnte aber für dieses Szenario noch keine Test machen.
1.) Zeitaufwendig
2.) habe ich nicht so viel verschiedene Hardware zur Verfügung. :freaky:

PS: hängt aber sicherlich von dem Projektumfang und den Software Settings ab. Bzw. welche Qualität die Rohdaten haben.
Ergänzung ()

Achso:

Testprojekt war eine Drohnen Aufnahme mit ca. 200 Bilder in ~ "4000 x 3000" = 5 MB/JPG
Punktwolke: ca. 38.000.000 (Es wurde aber nur ein Ausschnitt von ca. 25% der Straße mit der Dichten Punktwolke berechnet).
Darauf beziehen sich auch die Zeitangaben meiner Tests.

Die Settings des ersten Schrittes (Ausrichten der Bilder und finden der Punkte) 400.000 und 40.000.

Also Faktor 10x zur Default Einstellung.
Ergänzung ()

PS: nach meinen Erfahrungen sind die Rohdaten der wichtigste Faktor!.
Also hoch aufgelöste Bilder mit minimalem Bildrauschen. Keine unscharfen Bilder zwischen drin.

Ein gutes Projekt braucht mit einem einzelnen PC viel Zeit. Demnach lieber mal mit "Tagen" kalkulieren, anstatt mit "Stunden" Falls man kein passendes Server-Cluster hat.

Ich bin immer dankbar für Tipps wie man die Qualität der Projekte optimieren kann.
Es kommt nicht auf die Textur an. Sondern wie ich aus der Punktwolke ein möglichst detailliertes MESH erzeugen kann.
 
Zuletzt bearbeitet:
Die Settings des ersten Schrittes (Ausrichten der Bilder und finden der Punkte) 400.000 und 40.000.

Das erklärt einiges^^

Welches Tie point limit hast du eingestellt? "0"?
Hast du bei Accuracy "Highest" eingestellt?
Das sind die richtig großen Zeitfresser fürs Alignment.

nach meinen Erfahrungen sind die Rohdaten der wichtigste Faktor!.
Definitiv!

Ich bin immer dankbar für Tipps wie man die Qualität der Projekte optimieren kann.
Hast du schon mit Masken gearbeitet?
Hast du schon verschiedene Chunks zusammengesetzt?
 
Ich kenne die erwähnten Software Packete nicht. Aber ich gehe mal davon aus, dass diese Identische Punkte benötigen. Die entweder manuell festgelegt oder automatisch gefunden werden können. Anschließend wird wahrscheinlich eine Bündel Block Ausgleichung durchgeführt.
Je mehr Identische Punkte vorhandne sind und je besser deren geometrische Verteilung ist umso besser können auch die benötigten Parameter geschätzt werden (Innere und Äußere Orientierung).
Daher ist eine hohe Überlappung inerhalb eines Bildpaar von Vorteil (~30%) damit korrespondierende Punklte überhaupt gefunden werden können. Außerdem ist es hilfreich wenn es markante Stellen in den Bildern gibt (hohe Gradienten in X und Y Richtung, keine gleichmäßigen Flächen). Bei sich wiederholenden Mustern (Garagen Tor, Wand)kann es durchaus zu fehlzuordnungen kommen. Darauf sollte also auch geachtet werden.
Eventuell kansst du selber markante Punkte hinzufügen, indem du zum Beispiel auf den Topf ein paar Streifen Crapband oder sonst was klebst, was sich von dem monotonen Topf abhebt.
 
Shaav schrieb:
Welches Tie point limit hast du eingestellt? "0"?
Hast du bei Accuracy "Highest" eingestellt?
Das sind die richtig großen Zeitfresser fürs Alignment.

Tie Limit 40.000 / Accuracy: High (der Qualitätsunterschied ist zu Highest nur minimal, aber dafür die längere Rechenzeit extrem).

Mit Masken habe ich am Anfang experimentiert. Und dabei bestimmt alles Falsch gemacht. :p Also erstmal: Nein, im mom nicht.

Chunks: Nein, habe ich noch nicht probiert. Mein Schwie.Pap hat da so seine Erfahrung mit. Er benutzt dafür aber ein anderes Tool.

Welches Prog. verwendest du um die RAW Bilder deiner Kamera aufzubereiten? Da würde ich mal deinen Rat brauchen.
hc_224.jpg
hc_225.jpg
Ergänzung ()

Mr.Powers schrieb:
Ich kenne die erwähnten Software Packete nicht. Aber ich gehe mal davon aus, dass diese Identische Punkte benötigen. Die entweder manuell festgelegt oder automatisch gefunden werden können. Anschließend wird wahrscheinlich eine Bündel Block Ausgleichung durchgeführt.
Je mehr Identische Punkte vorhandne sind und je besser deren geometrische Verteilung ist umso besser können auch die benötigten Parameter geschätzt werden (Innere und Äußere Orientierung).
Daher ist eine hohe Überlappung inerhalb eines Bildpaar von Vorteil (~30%) damit korrespondierende Punklte überhaupt gefunden werden können. Außerdem ist es hilfreich wenn es markante Stellen in den Bildern gibt (hohe Gradienten in X und Y Richtung, keine gleichmäßigen Flächen). Bei sich wiederholenden Mustern (Garagen Tor, Wand)kann es durchaus zu fehlzuordnungen kommen. Darauf sollte also auch geachtet werden.
Eventuell kansst du selber markante Punkte hinzufügen, indem du zum Beispiel auf den Topf ein paar Streifen Crapband oder sonst was klebst, was sich von dem monotonen Topf abhebt.

Das ist richtig. die Überlappung und die Strukturen der Oberfläche sind essentiell. Ohne dem läuft nichts. Referenzpunkte habe ich auch schon mit markanten Aufklebern gesetzt. Gerade bei eintönigen Flächen kann nur so überhaupt ein brauchbares Ergebnis erzielt werden.

Was noch Probleme macht sind reflektierende und transparente Objekte. Verdammt schwer da was zu berechnen.

Ich hatte bei einem Versuch einen richtig tollen Fehler: Aus einem Teelichthalter mit einer Grundfläche von 4 Ecken wurde ein 5-Eck berechnet.
Das begann schon bei der Berechnung der Kamerapositionen.

hc_208.jpg
hc_206.jpg
 
Beim Depth filterung habe ich "aggressive" eingestellt. Das bringt bei mir bessere Ergebnisse.

key point limit 200.000
Mehr als 140.000 werden oft eh nicht gefunden^^

tie point limit 10.000
Ich habe mal mit tie point = 0 experimentiert. Die sparse pointcloud war zwar sehr detailliert, aber das Endergebnis hat sich dadurch nicht geändert.

Zum Aufbereiten der Fotos nutze ich lightroom. Lichter runter, Tiefen rauf und das Foto als TIFF exportieren.

Nutzt du die Gradial Selection? Ich habe das Gefühl das bringt fast garnichts. Ähnliches gilt für "optimize camera alignment". Vielleicht sind da meine Ansprüche aber einfach nicht hoch genug.
 
Zurück
Oben