Notiz Nikon Z9 Ankündigung: Spiegelloses Flaggschiff mit Hochformatgriff

USB-Kabeljau schrieb:
Aber dann kam ich mit 4000 Fotos aus dem Urlaub und fand es wirklich schwer, einen zügigen RAW-Workflow zu finden.
Dafür, dass du wie ein Berserker fotografierst, kann aber die Kamera nix, sorry. Nur, weil die Kameratechnik mittlerweile „Spray and Pray“ erlaubt, muss man es ja nicht machen. Bei bezahlten Jobs oder wichtigen Shootings mache ich auch lieber ein Foto mehr als eins zu wenig, aber man muss nicht alles im High-FPS-Modus machen. Grade bei Mirrorless nicht mehr, wo man die Belichtung und das genaue Framing inkl. DoF vor dem Auslösen sieht...

Jeder Fotograf, der das nicht seit gestern macht, hat früher oder später seine bevorzugten Looks als Preset aufliegen (egal ob gekauft oder selber erstellt) und nimmt diese als Ausgangspunkt - bei denen man dann noch nach Bedarf anpasst (Belichtung, WB, usw.). Für jedes einzelne Foto eine komplett andere Bearbeitung machen ja die wenigsten, wenn diese einen zeitlichen oder räumlichen Zusammenhang haben.


USB-Kabeljau schrieb:
Nein, gibt es nicht.
Zumindest nicht im Profi/Ambitionierten Bereich.

Meine 6D hatte GPS, hab ich nie verwendet. Nachdem der Empfänger keine unterstützenden Daten zur Verfügung hatte, hat es teilweise Minutenlang gedauert, bis die Location da war. Natürlich indoor keine Chance zumindest auf eine ungefähre Position, zusätzlich war der Empfänger immer aktiv, auch wenn die Kamera aus war - ausser, man deaktiviert das GPS jedes Mal. Dh entweder Usability-Chaos oder miese Akkulaufzeit.

Meine X-T4 holt sich innerhalb von 10-15 Sekunden nach dem Einschalten eine Position vom Handy die Positionsdaten, auch indoor...
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
Ich gebe zu, ich hätte etwas sparsamer fotografieren können.
Am Ende habe ich aber gar nicht mal so viel weggeworfen. Ca. 1000 Fotos blieben über.

Es geht hier ja auch nicht darum, dass jeder einzelne Shot ein artistisch wertvolles Werk zum Veröffentlichen ist, sondern um meine Reise-Erinnerungen/Dokumentation.
(Wobei schon auch einige sehr schöne und vorzeigbare Fotos mit dabei sind.)

Und natürlich habe ich auch ein Profil, dass ich dann erstmal auf alles drauf baller.
Aber wenn ich nun z.B. HEIF statt JPG hätte, würde ich RAW (fast) gar nicht mehr brauchen.



Wegen dem GPS:

Das kann natürlich sein, dass das mit dem Lock zu lange dauert. Hatte ich tatsächlich nicht bedacht.
Eventuell ginge das besser, indem die Kamera auch nen ultra-sparsamen idle Betrieb hätte, wo das GPS dann aktiv bleibt.

Das Problem bei meinem Phone ist allerdings, dass die App in den Schlaf geschickt wird, wenn das Display aus ist.
Ich kann also nicht das Phone in meiner Tasche lassen und automatisch mit der Kamera darauf connecten.

So ist das quasi nicht benutzbar.
Ich hatte schon überlegt, mir nen extra GPS-Logger zu kaufen. Aber das ist dann halt auch wieder ein Gerät mehr, was man ständig irgendwo in der Tasche haben muss.
Und dann halt nachträglich immer am PC noch die Daten übertragen ... nervig.
 
USB-Kabeljau schrieb:
Solche Dinge kann man immer genau so lange nicht, bis man sie dann doch kann.
Denkst du eigentlich auch manchmal über das nach, was du so schreibst?
Lern doch einfach erst mal fliegen, Nach deiner Theorie ist das leicht möglich. Man kann es eben nur solange nicht, bis man es doch kann. Sorry, aber so ein Geschwafel ist für technische Lösungen lächerlich.

Der Sensor muss nur entsprechend designed sein.
Ja, so wie deine Brustmuskulator. Dann kannst du auch fliegen :).

Ich sagte ja, DU hast von der tatsächlichen Technik keine Ahnung, sonst würdest du sowas einfach nicht schreiben.

Ansonsten hätte ich gerne eine Quelle, die erklärt, wieso das technisch nicht möglich (oder zumindest schwierig) sein soll.
Geh einfach etwas lernen. Was bin ich? Deine Lernhilfe?

Auch für den Rest deiner teils abenteuerlichen Behauptungen hätte ich gerne ein paar Quellen.
Sofort nachdem du mir einen konkreten Vorschlag für dein fantasisches Sensor-read-out lieferst.

Deine Ausführungen zu Downsampling sind z.B. kaum nachvollziehbar.
Das wiederum glauib ich dir aufs Wort.

Das ist zu 100% falsch. Die GH5 downsampled z.B. für 4K Video ...
Was die Kamera macht ist downscaling.

Sorry, wir reden aufgrund unterschiedlichen 'Kenntnisstand' zuviel aneinander vorbei. Das ermüdet mich und den Thread vermutlich auch. Erfinde einfach deinen Sensor und werde ein Held :).
 
USB-Kabeljau schrieb:
Auf deinem Phone sind aber nicht die Bilder.
Dazu musst du erst:
1) Kamera einschalten.
2) Durch umständliche Menüs navigieren.
3) WLAN einschalten.
4) App auf Phone starten, die dann auf das WLAN der Kamera verbindet.
5) Umständlich das entsprechende Bild suchen.
6) Importieren
Das könnte in der Theorie einfach sein, ist in der Praxis aber meistens so umständlich und zeitraubend, dass es niemand macht.
Ein mal den Hotspot des Phones zu aktivieren und dieses WLAN dann ein mal in der Kamera einzustellen, wäre deutlich simpler.

Die neuste Generation Sony-Kameras musst du dafür nichtmal einschalten. Du kannst deine Kamera irgendwo liegen lassen und mit dem Handy deine Bilder runterziehen. Die Kamera schält sich dann von alleine an und wieder aus.

Deine anderen Argumente finde ich auch wenig überzeugend. Du scheinst bei der Aktuellen Technik etwas den Anschluss verloren zu haben.

Auch dieses rumgereite auf HDR zeigt ja, dass du dich da von der Smartphone-Werbetrommel einlullen hast lassen und gar nicht verstehst, dass es ein enormer Vorteil sein kann nur ein Bild zu machen, das einen hohen Dynamikumfang hat. Denn nur so kann ich auch die Verschlusszeit kontrollieren.
 
Zuletzt bearbeitet:
Um irgendwelche Buzzwords wie "HDR" und Smartphone-Marketing geht es überhaupt nicht.

Und entsprechend umgesetzt würdest du von der Mehrfachbelichtung nicht mal etwas merken und könntest selbstverständlich ganz normal selbst die Belichtungszeit wählen.

Optimalerweise würde man ab bestimmten Belichtungsdauern einfach einen niedrigeren ISO-Wert zulassen, der dann durch Stacking erreicht wird.
Das wäre dann der neue Standard-Modus.

Ansonsten macht es natürlich auch Sinn, einfach am Ende einer längeren Belichtung einfach noch eine kurze Belichtung hinterher zu schießen, um clippende Highlights zu capturen.

Das alles wird auch kommen.
Nervt nur, dass es so langsam vorwärts geht, weil nicht gezielt darauf hin gearbeitet wird.

Und es gibt keinen Grund, nicht wenigstens das zu erlauben, was mit aktueller Technik schon geht.

Wir reden hier auch nicht von lächerlichen 2 Blenden DR oder so (wie z.B. bei FF vs MFT). Das Ganze ist ein eklatanter Vorteil, der längst Standard sein müsste.
Red z.B. hat in einigen Kameras schon lange sowas drin, und es ist ein Gamechanger.
 
USB-Kabeljau schrieb:
Eventuell ginge das besser, indem die Kamera auch nen ultra-sparsamen idle Betrieb hätte, wo das GPS dann aktiv bleibt.
Ja, nichts anderes hab ich beschrieben. Wenn du die 6D abschaltest, bleibt der GPS-Empfänger aktiv und lutscht dir langsam den Akku leer - weil GPS-Empfänger nunmal ziemliche Stromfresser sind. Effizientere Lösungen wie der GPS-Empfänger im Smartphone benötigen Zugriff aufs Internet, d.h. solang du in deine Kamera keine SIM-Karte einbauen kannst, geht das nicht.

USB-Kabeljau schrieb:
Am Ende habe ich aber gar nicht mal so viel weggeworfen. Ca. 1000 Fotos blieben über.
3.000 Bilder für die Tonne wären umgerechnet auf Kleinbildfilm locker ein kleines Vermögen, und selbst 1000 Bilder "Nettoausbeute" sind ein Wahnsinn. Wie gesagt, dafür, dass du offenbar jedes Blümchen und jeden Stein im Urlaub ablichtest, kann niemand was außer dir ;)

USB-Kabeljau schrieb:
Das Problem bei meinem Phone ist allerdings, dass die App in den Schlaf geschickt wird, wenn das Display aus ist.
Tja, Augen auf beim Smartphonekauf. Bei meiner Kombination aus Kamera und Smartphone funktioniert das tiptop...

USB-Kabeljau schrieb:
Red hat in einigen Kameras z.B. schon lange sowas drin, und es ist ekn Gamechanger.
Und trotzdem dreht mit RED kaum jemand, weil die Leute auf andere Dinge mehr wert legen. Im Imagefilm und Eventproduktionen greifen die Leute meistens zu Blackmagic oder Sony, im Spielfilm auch eher zu Sony und Arri und Arri ist auch in der Hochglanz-Werbeindustrie der Quasistandard.
 
USB-Kabeljau schrieb:
Und entsprechend umgesetzt würdest du von der Mehrfachbelichtung nicht mal etwas merken und könntest selbstverständlich ganz normal selbst die Belichtungszeit wählen.

Optimalerweise würde man ab bestimmten Belichtungsdauern einfach einen niedrigeren ISO-Wert zulassen, der dann durch Stacking erreicht wird.
Das wäre dann der neue Standard-Modus.

Red z.B. hat in einigen Kameras schon lange sowas drin, und es ist ein Gamechanger.

Wie ich schon sagte. Das ist einfach Blödsinn.
Die Verschlusszeit ist wie die Blende ein enorm wichtiges kreatives Mittel. Wer das noch nicht verstanden hat sollte sich da ganz schnell nochmal einarbeiten.

Wie soll denn dieses Feature funktionieren, wenn du bewegte Objekte hast?

Und in wie vielen Szenen wäre das wirklich von Vorteil? 0,1 % der Fälle?


HDR im Film ist ein Marketingag, der mehrere Features vereint, die man auch einfach für sich anbieten könnt: Große Helligkeit, erweiterter Farbraum und variable Gamma-Kurve.
 
USB-Kabeljau schrieb:
Kleiner, leichter, günstiger.
Vor allem das "Kleiner und Leichter" finde ich immer attraktiv.
Was meinst du denn, wie viel leichter und kleiner eine Spiegellose sein würde, wenn man den mechanischen Shutter weglassen würde?

USB-Kabeljau schrieb:
Bei welcher Kamera gibt es denn das DR-Feature, das du meinst?
Sony, Nikon, Canon, Fuji …

USB-Kabeljau schrieb:
Bei Lumix gibt es z.B. iDynamic.
Aber das kann wie gesagt HALOs erzeugen.
Und exakt die selben Algorithmen sind auch in Kameras anderer Hersteller mit drin.
Auf keinen Fall. Zum einen habe ich noch nie Halos gesehen, wenn man es nicht erzwungen hat, zum anderen werden in den Kameras sicherlich keine Middlewares benutzt. Das sind ja keine modularen Systeme, sondern hochspezialisierte Firmwares. Deshalb passiert da auch so wenig, weil das eben so hoch spezialisiert ist, dass man da auch nicht jeden Entwickler raufsetzen kann.

USB-Kabeljau schrieb:
Es ist hell. Du bist bei Basis-ISO und hast kurze Verschlusszeiten. Deine Szene erlaubt aber auch längere Verschlusszeiten.
Statt einer Aufnahme könnten z.B. 4 direkt hintereinander erfolgen und in einem schnell angebundenen Puffer gestackt werden. Wenn dein Basis-ISO z.B. 100 beträgt, würdest du damit auf einen virtuellen ISO von 25 kommen, und hättest entsprechend 2 Stops mehr Dynamik-Umfang.
Das wird ja schon so gemacht. Bei HDR macht die Kamera bspw. 3 oder 5 Bilder hintereinander und macht dann entweder ein JPG draus oder speichert die Dateien als RAW und du kannst dann in Lightroom (oder woanders) dein HDR erstellen, inkl. Noise Reduction.

USB-Kabeljau schrieb:
Nach dem selben Prinzip lassen sich auch Langzeitbelichtungen erzeugen, ohne einen ND zu benötigen.
Jaaaaa. Sony hatte sowas mal. Da haben die dutzende von Bilder gemacht und du hattest dann einen Langzeitbelichtungseffekt. Aber das ist echt räudig. Vielleicht eine ganz nette Spielerei auf Smartphone Niveau, aber nichts geht über eine echte optische Lösung mit ND-Filtern. Du siehst einfach, dass es einzelne Bilder sind. Das ist nicht so weich.

USB-Kabeljau schrieb:
Die kann übrigens auch so Späße wie "Hand Held HiRes". Dabei werden in rascher Folge mehrere Bilder geschossen und dabei leicht der Sensor verschoben. Das zusammen gefügte Bild hat eine höhere Auflösung, als es der Sensor regulär ermöglicht (und weniger Rauschen).
Sony hat auch so einen Modus, wo die Bildqualität verbessert wird. Nicht die Auflösung insgesamt, aber die Details. Das ist aber sehr homöopathisch. Ähnlich wie Compressed vs Uncompressed RAW. Das hat mehr Nach- als Vorteile. Bei dem Bildverbesserungsmodus musst du bspw. über die Sony Imaging Edge Software gehen. Macht keiner.

Und der Handheld HiRes Mode funktioniert ja auch nicht richtig.

USB-Kabeljau schrieb:
Aber dann kam ich mit 4000 Fotos aus dem Urlaub und fand es wirklich schwer, einen zügigen RAW-Workflow zu finden.
Meinst du, das wäre mit JPGs grundlegend anders? Ich hab regelmäßig tausende von Fotos durchzugehen und das langwierige ist das Aussortieren. Da hilft mir JPG gar nicht. Beim Bearbeiten haue ich die Einstellungen einfach über alle Bilder rüber und justiere dann nur noch individuell bei denen nach, die in die engere Auswahl kommen. Da ist sogar RAW einfacher als JPG, weil du ein konsistenteres Ergebnis bekommst.

USB-Kabeljau schrieb:
Es gab ein paar wenige Bilder, bei denen ich auch die maximalen Bildinformationen brauchte ... aber bei solchen wusste ich das eigentlich vorher (das heißt, theoretisch hätte ich den Rest auch JPG schießen können).
Bis dir in der Nachbearbeitung auffällt, dass diese Bild doch ziemlich cool ist. Und dann ärgerst du dich.

USB-Kabeljau schrieb:
Auch an JPGs kann man häufig überraschend viel dran drehen, bevor es sich negativ bemerkbar macht.
Das Problem bei JPG ist, dass sämtliche Nachbearbeitung der Kamera schon fest eingerechnet ist. Wenn dir auffällt, dass dein dein Weißabgleich nicht korrekt war oder nicht zum neuen Look passt, ist es super anstrengend, den in JPGs zu korrigieren. Gleiches gilt für Noise Reduction, Sharpening, Details, Objektivkorrekturen usw.

Am schlimmsten ist ein Workflow mit gemischten Daten. Ich hab jetzt die Pandemie mal genutzt, um durch alten Bilder durchzugehen. Früher war ich auch so, wie du: Alles in JPG und nur die Highlights in RAW. Das ist nur Pain. Es ist super aufwendig, die JPG erst einmal zu normalisieren, um dann mit ihnen arbeiten zu können.

USB-Kabeljau schrieb:
HEIF zum Beispiel. Da ist man nicht auf 8Bit pro Kanal beschränkt und hat allgemein eine bessere Qualität als bei JPG.
Ich weiß auch, dass das in einigen wenigen neuen Kameras schon mit drin ist. Aber sowas müsste doch eigentlich schon seit Jahren Standard sein. Ich hoffe, es wird zumindest bald Standard.
Alternative Bildformate setzen sich immer erst langsam durch. Schau dir mal Web an: JPG2000, WebP … Liegt oft auch an den Lizenzen. Zumindest die neuen Sonys unterstützen ja HEIF. DNG hat sich ja auch nie wirklich durchgesetzt, weil da jeder sein Süppchen kocht. Dabei sind die DNGs von Leica oder Ricoh ziemlich super: Du kannst sie einfach überall öffnen, ohne zu warten, bis deine Kamera endlich mal unterstützt wird.

Ich hatte noch nie ein HEIF-Foto. Im schlimmsten Fall hätte man die gleichen Probleme, wie bei JPG, bloß mehr Latitude.

Btw: Wie kommt's eigentlich, dass du auf der einen Seite viel über Dynamic Range sprichst, auf der anderen Seite über JPG – und M43 nutzt? Das passt IMO nicht zusammen. Moderne FF Sensoren decken einen riesigen Dynamikbereich ab. Multi-Exposure ist schon lange nicht mehr nötig – oder nur in Extremsituationen. Und vielleicht solltest du mal außerhalb von M43 schauen, wenn das Thema für dich so wichtig ist. Denn bezüglich DR ist bei M43 schon lange nichts mehr passiert und ihr müsst tatsächlich über Multi-Exposures gehen. Alle anderen drehen einfach nur einen Regler in Lightroom/C1. Dank Dual Gain ist auch High ISO und DR kein großes Thema mehr.

USB-Kabeljau schrieb:
Deine Ausführungen zu Downsampling sind z.B. kaum nachvollziehbar. Es klingt so, als würdest du behaupten, Downsampling fände in aktuellen Kameras nicht statt.
Ja, ich denke, das wird hier überdramatisiert. Downsampling sollte easy möglich sein. Canon macht das schon seit Jahren. Ich vermute eher, dass es programmier-mäßig nicht trivial ist, weil die Rendering-Pipelines dafür nicht ausgelegt sind. Der Aufwand das zu ändern steht dann einfach nicht im Verhältnis zur Nachfrage. Wer würde das bei 20 und 24 MP schon nutzen? Bei 50 oder 60 MP sieht die Sache vielleicht anders aus. Weiß gar nicht, ob die A7R4 oder A1 sowas nicht schon haben. Aber wer sich eine 60 MP Kamera kauft und dann RAW fotografiert, würde die auf 12 oder 24 MP runter rechnen? Und dann wieder die Situation: Man ist mittendrin und merkt am Ende, dass das doch ganz geil war … Ich würde wahrscheinlich doch wieder in FullRes fotografieren und später downsamplen.

USB-Kabeljau schrieb:
Wegen dem GPS:
Das kann natürlich sein, dass das mit dem Lock zu lange dauert. Hatte ich tatsächlich nicht bedacht.
Eventuell ginge das besser, indem die Kamera auch nen ultra-sparsamen idle Betrieb hätte, wo das GPS dann aktiv bleibt.

Das Problem bei meinem Phone ist allerdings, dass die App in den Schlaf geschickt wird, wenn das Display aus ist.
Ich kann also nicht das Phone in meiner Tasche lassen und automatisch mit der Kamera darauf connecten.

Und dann halt nachträglich immer am PC noch die Daten übertragen ... nervig.
Also meine A77 hatte schon vor 10 Jahren GPS. Meine GoPro 8 hat's heute auch. Das Problem ist, dass die Kamera immer erst etwas braucht, um die exakte Position zu bekommen. Jetzt könnte man immer GPS laufen lassen oder die Kamera nicht aus machen, aber beides würde auf die Akkulaufzeit gehen. Das wäre uncool. Und so richtig convenient ist es dann nicht, wenn nur die Hälfte der Fotos getaggt sind.

Moderne Kameras haben einfach eine Verbindung zum Smartphone und holen sich das Signal von dort und schreiben es direkt in die EXIF rein. Finde ich persönlich aber auch nicht so toll, weil dann immer eine Bluetooth-Verbindung bestehen muss und das geht auch auf den Akku.

Ich lasse immer eine GPS-Tracker App laufen. Die zieht kaum Akku, weil die Sensoren beim Smartphone eh immer an sind. Die App speichert dann am Ende des Tages eine gpx-Datei direkt in Dropbox. Wenn ich dann zu Hause bin, markiere ich alle Fotos in Lightroom, wechsel auf die Karte, wähle die gpx-Datei und sage "Automatisch taggen" … fertig. Ich hab dann auch die Freiheit zu sagen "Jetzt nicht tracken", weil ich keine Fotos mache oder ganz genau weiß, wo ich bin (im Hotel, am Strand). Total easy.

Dass dein Handy bei ausgeschaltetem Display nicht trackt, ist aber ein Bug, bzw. eine Fehleinstellung von dir. Normalerweise sollte das funktionieren. Du kannst Hintergrundaktivitäten für einzelne Apps aktivieren. Und das tut sie dann bei ausgeschaltetem Display oder wenn du eine andere App nutzt. Sobald du die Tracking-Aufzeichnung beendest, trackt der auch nicht weiter.

USB-Kabeljau schrieb:
Ansonsten macht es natürlich auch Sinn, einfach am Ende einer längeren Belichtung einfach noch eine kurze Belichtung hinterher zu schießen, um clippende Highlights zu capturen.
Mit der Mehrfachbelichtung ist immer das Problem, dass sich in deiner Szene nichts ändern darf, sonst kommt es zu unsauberen Artefakten.

Die arbeiten aber gerade an Sensoren, wo nicht mehr der gesamte Sensor mit einmal ausgelesen wird, sondern jeder Pixel einzeln. Damit könntest du dann dunkle Pixel länger belichten und helle kürzer. Alle starten aber zur gleichen Zeit. Das würde dir quasi unendlich viel DR geben. Irgendwann macht's natürlich keinen Sinn und es kommt wieder verstärkt zu Artefakten. Aber immerhin.

M.Ing schrieb:
Ja, nichts anderes hab ich beschrieben. Wenn du die 6D abschaltest, bleibt der GPS-Empfänger aktiv und lutscht dir langsam den Akku leer - weil GPS-Empfänger nunmal ziemliche Stromfresser sind. Effizientere Lösungen wie der GPS-Empfänger im Smartphone benötigen Zugriff aufs Internet, d.h. solang du in deine Kamera keine SIM-Karte einbauen kannst, geht das nicht.
Ich weiß nicht, ob du da nicht was durcheinander bringst. GPS braucht kein Internet und eine SIM-Karte hat nicht zwangsläufig Internet.

Warum es geht: Ich kann im Ausland ohne Roaming GPS tracken. Funktioniert einwandfrei. Ob das auch ohne SIM-Karte funktioniert, weiß ich nicht. Hab ich noch nie getestet. Aber ohne Internet geht's auf jeden Fall. Was man nicht sieht ist die Karte. GPS geht aber trotzdem. Hatte bisher noch keine Tracking-App, die im Ausland (nicht Europa) nicht funktioniert hat.

M.Ing schrieb:
3.000 Bilder für die Tonne wären umgerechnet auf Kleinbildfilm locker ein kleines Vermögen, und selbst 1000 Bilder "Nettoausbeute" sind ein Wahnsinn. Wie gesagt, dafür, dass du offenbar jedes Blümchen und jeden Stein im Urlaub ablichtest, kann niemand was außer dir ;)
Meinst du nicht, dass so eine Aussage komplett dumm ist?

1. Was hat das mit der Diskussion zu tun?
2. Warum soll man nicht 3.000 Fotos machen?
3. Woher weißt du, wie lange sein Urlaub war?
4. Woher weißt du, was er fotografiert hat?
5. Was für ein Problem hast du mit Blümchen- und Stein-Fotos?
6. Warum rechnest du in KB-Film um?

Positiv ist doch mal, dass USB-Kabeljau anscheinend seine Kamera nutzt und sie nicht nur um Regal zu stehen hat. Warum sollte er sonst tausende von Euro ausgeben, wenn er nicht fotografiert?

Und um mal Kontext zu geben: Aus meinem letzten Urlaub kam ich mit 4.500 Fotos zurück. 2 Monate reisen auf den Philippinen. Zwischendurch nicht ein Foto angeguckt oder gelöscht. Keine Steine, keine Blumen. Ich hab's dann in mehreren Stufen auf 800 Fotos runtergelöscht. Die sind alle fantastisch. Gute 100 sind in ein Buch gewandert, der Rest als Reserve für die Zukunft.

Hochzeitsfotografen ballern 3-6.000 Bilder an einem Tag durch. Du kannst halt nichts wiederholen.

Es gibt "Idioten", die stellen sich am Wochenende auf eine Brücker oder Flughafen und fotografieren durchfahrende Züge oder starten und landende Flugzeuge. 500, 1000 Bilder … kein Problem. Finde ich dämlich. Ist aber voll deren Ding. Portrait-Fotografen ballern 500 Bilder in einer Session durch. 500 Bilder mit der gleichen Person, nur dass sich die Hand etwas bewegt oder die Haare anders fallen. Total dumm, meiner Meinung nach. Damit verdienen die aber ihr Geld.

So what? Solange die 3000 Fotos nicht alle in meinem Feed landen, soll jeder machen, was ihn glücklich macht.

Und, ehrlich, KB-Film-Umrechnung? Rechnest du auch deine EC-Karte in Geldsäcke um? Tipp: Er konnte 3000 Fotos schießen, weil es nichts kostet und auch nicht schwerer war.

Anfang der 2000er war ich in China und kam mit 40 KB-Filmen zurück. 1.400 Fotos sind nicht sooo weit weg von heute, wenn man bedenkt, dass damals nach Sonnenuntergang Schluss mit Fotos war und ich auch nicht so viel Zeit hatte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: USB-Kabeljau und leboef
mumpel schrieb:
Ich weiß nicht, ob du da nicht was durcheinander bringst. GPS braucht kein Internet und eine SIM-Karte hat nicht zwangsläufig Internet.
Das ist mir vollkommen klar, aber lass mal einen „nackten“ GPS-Empfänger 3 Wochen ausgeschaltet liegen und dann leg ein Smartphone daneben. Das Handy könnte auch 5 Jahre aus sein und hat ruckzuck wieder einen Fix, der reine Empfänger wird länger brauchen.

mumpel schrieb:
Meinst du nicht, dass so eine Aussage komplett dumm ist?
Nein. Wenn ich keinen Bock drauf hab, mich daheim durch 4.000 Fotos zu ackern, dann wäre der erste Ansatz, weniger Fotos zu machen. Wenn ich jeden Tag 300km pendeln muss und mir dafür einen alten Ami-Pickup mit 20l/100km Spritverbrauch kaufe, ist es auch etwas heuchlerisch, über die Tankrechnungen zu meckern.

Wie du eh sagst, auch bei 4.000 JPGs sitzt man an der Postpro und dem Sortieren.

mumpel schrieb:
Hochzeitsfotografen ballern 3-6.000 Bilder an einem Tag durch. Du kannst halt nichts wiederholen.
Ja, wenns ein bezahlter Job ist, dann ist das halt Teil der Arbeit, den ganzen Datenmüll nachher zu sortieren. Den „Luxus“ hat man als Hobbyfotograf ja gottseidank, dass es „nur“ um einen selber geht. Am liebsten gehe ich mittlerweile mit einer einzigen Festbrennweite weg, kompakter geht nicht mehr.
 
Ich verstehe diese engstirnige "geht nicht", "brauche ich nicht", "mach doch den und den Workaround" Mentalität hier nicht.
Erinnert mich stellenweise stark an die Leute in Foren, die vor ein paar Jahren noch rumgetönt haben, dass sie sich niemals eine Spiegel-lose Kamera kaufen würden.

Nur im Kurzdurchlauf, da es so langsam auch echt anstrengend wird:

1) GPS zieh viel Strom?
Stimmt nicht. Und Internet hat mit GPS auch nichts zu tun.

zandermax schrieb:
Die Verschlusszeit ist wie die Blende ein enorm wichtiges kreatives Mittel. Wer das noch nicht verstanden hat sollte sich da ganz schnell nochmal einarbeiten.
2) Richtig überflüssige und dumme Aussage, nachdem ich bereits erklärte, dass das noch immer möglich wäre.

3) Doch. Es gibt Middleware bei Sony, Nikon, Panasonic, etc.
https://howgreenisyourgarden.wordpress.com/tag/panasonic-i-dynamic/
Die Firma hieß Apical, und deren Software Iridix.
Und diese Einstellung ist KEIN reines Editing der Tonwertkurve und kann Halos verursachen.

4) Nur weil Fake-ND bei Sony vor x Jahren mal nicht so gut war, heißt es nicht, dass es allgemein nicht gut funktionieren kann.
Eine Kamera, die Videos mit 360° Shutter belichten kann, sollte auch in der Lage sein, Fake-Langzeitbelichtung ohne abgehackte Lighttrails zu produzieren.

mumpel schrieb:
Moderne FF Sensoren decken einen riesigen Dynamikbereich ab. Multi-Exposure ist schon lange nicht mehr nötig – oder nur in Extremsituationen.
Nicht wirklich.
FF bietet 2 Blenden mehr DR als MFT. Mag sein, dass es aktuell ein bisschen mehr ist. Ändert sich dann, wenn bei MFT auch neue Sensoren kommen. Es wird immer in diesem Bereich bleiben.

Und von 2 Blenden mehr kann ich mir auch nichts kaufen. Ist für mich annähernd irrelevant.
Reicht für bestimmte Lichtsituationen der Landschafts-Fotografie noch immer bei weitem nicht. Da kommt man auch mit FF nicht um eine Doppelbelichtung herum.
Gibt natürlich sicher auch Fälle, die genau auf der Grenze liegen, aber die scheinen bei mir recht selten zu sein.

5) Zu der Menge an Fotos:
Schon die Darstellung, ich würde mich durch Fotos "ackern" und hätte darauf keine Lust, ist komplett an der Realität vorbei.
Worauf ich keine Lust habe, sind lange Ladezeiten (jedes mal diese paar ms Stocken), oder an jedem Foto ewig dran rum zu doktorn. Die sollten aus der Kamera schon brauchbar heraus kommen. Und mit den von mir beschriebenen Funktionen ginge das besser (werde mir Nikon deshalb auf jeden Fall auch mal näher angucken).

Und mit Film (und komplett manueller Kamera) habe ich schon genau so fotografiert.
Wenn man dann beim 5. mal Afrika endlich die Löwen in freier Wildbahn sieht, knallt man auch schon mal 5 Rollen direkt durch.
Bei Situationsfotografie (Wildlife, Menschen) ist das auch einfach die richtige Methode, wenn man die Wahrscheinlichkeit auf wirklich gute Treffer erhöhen möchte.
 
Zuletzt bearbeitet:
USB-Kabeljau schrieb:
Wir fassen zusammen
Ich muss das nicht - du darfst natürlich, wenns deinem Verständnis hilft.

Du hast keine Ahnung von gar nichts.
Das stimmt. Vor gar nichts eine Ahnung zu haben, überlass ich dir.

Und was du nicht kennst, geht technisch nicht.
Stimmt auch, wenns um 'deinen Wundersensor' geht. Kenn ich nicht, gibts auch nicht. Darfst mich gerne vom Gegenteil überzeugen. Und ich geh auch gleich einen Wette ein, dass das nie passieren wird.

Unterhaltung beendet.
Jo, das sagte ich schon :).
 
M.Ing schrieb:
Das ist mir vollkommen klar, aber lass mal einen „nackten“ GPS-Empfänger 3 Wochen ausgeschaltet liegen und dann leg ein Smartphone daneben. Das Handy könnte auch 5 Jahre aus sein und hat ruckzuck wieder einen Fix, der reine Empfänger wird länger brauchen.
Das glaube ich nicht, dass das so ist. Ob ich jetzt meine Kamera mit GPS 3 Monate aus hatte oder 2 h hatte keine Einfluss auf die Zeit. Und ein Handy braucht ein ein paar Sekunden, ehe sie ein echtes Signal hat (diese blaue Kreis vs dem Punkt).

Aber darum gings bei deiner Aussage ja gar nicht. Du sagtest, der GPS-Empfänger im Smartphone braucht Internet und so lange man keine SIM-Karte hat gibt's entweder kein schnelles, effizientes GPS oder GPS allgemein (war nicht ganz klar). Aber GPS im Smarphone braucht kein Internet.

Vielleicht meinst du, dass Smartphones WLAN nutzen, um eine Position zu ermitteln, wenn kein GPS möglich ist oder zur Unterstützung, um ein exakteren Standpunkt zu ermitteln. Sie benutzen aber das WLAN nicht für Daten, sondern versuchen nur WLAN-Stationen zu finden, deren Standort sie bereits kennen.

M.Ing schrieb:
Nein. Wenn ich keinen Bock drauf hab, mich daheim durch 4.000 Fotos zu ackern, dann wäre der erste Ansatz, weniger Fotos zu machen.
Da hast du recht. Nur wie du es formuliert hast, da schaltet man schon ab. Da brauchst du dich nicht wundern, wenn deine Gespräche eskalieren und es nicht mehr um den Inhalt geht.

USB-Kabeljau schrieb:
Ich verstehe diese engstirnige "geht nicht", "brauche ich nicht", "mach doch den und den Workaround" Mentalität hier nicht.
Naja … Man kann sich entweder aufregen, alles schlecht reden und nicht weiter kommen. Oder man versucht mal das Problem auf andere Weise zu lösen. Manchmal ist der Workaround gar nicht so schlecht oder sogar besser.

USB-Kabeljau schrieb:
1) GPS zieh viel Strom?
Stimmt nicht. Und Internet hat mit GPS auch nichts zu tun.
GPS zieht schon ordentlich Strom. Aber in modernen Kameras sind standardmäßig Dinge aktiviert, die noch mehr Strom ziehen. Warum sollte man GPS dann nicht einfach trotzdem anbieten und den Kunden entscheiden lassen, ob er's nutzt und weniger Akkulaufzeit OK ist?

USB-Kabeljau schrieb:
3) Doch. Es gibt Middleware bei Sony, Nikon, Panasonic, etc.
https://howgreenisyourgarden.wordpress.com/tag/panasonic-i-dynamic/
Die Firma hieß Apical, und deren Software Iridix.
Und diese Einstellung ist KEIN reines Editing der Tonwertkurve und kann Halos verursachen.
Der Artikel ist von 2006 und bezog sich auf die ersten DSLRs mit DRO. Die Seite vom Anbieter ist auch tot. Ich hab bei Sony noch kein DRO gesehen, was Halos erzeugt. Ich frag mich auch, wie das gehen soll. DRO hellt die Schatten auf und dunkelt die Licht ab. Aber nicht durch mehrere Bilder, wie bei HDR, sondern mit einem. Letztendlich macht eine Tonwertkurve ziemlich das gleich (OK, Kontrastverstärkung geht mit DRO nicht). Was ich mir vorstellen kann, sind harte Abstufungen (bspw. im Himmel), wenn man's übertreibt. Aber Halos sind ja helle Glows um ein dunkles Objekt herum. Das bekommt man, wenn man den Clarity-Schieberegler ganz nach rechts ballerst, weil Klarheit den lokalen Kontrast verstärkt: Da wo hell und dunkel aufeinander treffen wird in einem bestimmten Bereich der Kontrast verstärkt. Clarity hat, soweit ich weiß, nur Fuji in-camera. DRO dürfte daher gar keine Halos erzeugen, weil es ja genau umgekehrt arbeitet: zu helle Bereiche werden dunkler und zu dunkle Bereiche werden heller. Seie denn, dieses iDynamic von Panni macht noch was anderes. Ich persönlich mache um alles einen großen Bogen, was mit i-irgendwas beginnt ;-)

USB-Kabeljau schrieb:
Eine Kamera, die Videos mit 360° Shutter belichten kann, sollte auch in der Lage sein, Fake-Langzeitbelichtung ohne abgehackte Lighttrails zu produzieren.
Ja, mag sein. Aber bei einer Langzeitbelichtung verschwimmen ja die bewegten Objekte wegen der langen Belichtungszeit. Bei sehr kurzen Belichtungszeiten hast du einfach scharfe Konturen. Wenn du die dann übereinander blendest, bekommst du das nicht weich genug. Zumal die Lösung a) ein 20 € Filter ist und b) in den Filmkameras bereits eingebaut ist.

USB-Kabeljau schrieb:
FF bietet 2 Blenden mehr DR als MFT. Mag sein, dass es aktuell ein bisschen mehr ist. Ändert sich dann, wenn bei MFT auch neue Sensoren kommen. Es wird immer in diesem Bereich bleiben.
Wenn! Ich glaube, ihr wartet ja schon 5 Jahre drauf und mittlerweile hat Panasonic ja auch FF entdeckt. Egal … wird schon.

Aber ich glaube, du unterschätzt 2 Blendenstufen. Ich fotografiere immer mit available light. Ich brauchte noch nie ein HDR um realistische Bilder zu machen. Wenn du natürlich aus einem dunklen Raum ins direkte Sonnenlicht fotografieren willst und beides taghell sein soll, dann musst du eben HDR benutzen. Wenn der Raum aber realistisch dunkel und oder draußen realistisch überbelichtet sein darf, geht auch das.

Ich kenne aber viele M43-User, die stacken. Ich sehe auch ständig Fotos von Canon-Usern, wo die Highlights komplett kaputt sind. Und ich selbst weiß, dass die RAWs meiner FF noch mal ordentlich mehr Headroom haben, als meine APS-C. Und das sind gemessene 0,5 Blendenstufen (laut PhotonsToPhotons). Das macht aber einen Riesenunterschied in der Praxis.

USB-Kabeljau schrieb:
Worauf ich keine Lust habe, sind lange Ladezeiten (jedes mal diese paar ms Stocken), oder an jedem Foto ewig dran rum zu doktorn. Die sollten aus der Kamera schon brauchbar heraus kommen.
Also bei mir ist alles brauchbar. Aber OK …

Sag mal, welche Software benutzt du? Und welche Hardware?
 
mumpel schrieb:
Der Artikel ist von 2006 und bezog sich auf die ersten DSLRs mit DRO. Die Seite vom Anbieter ist auch tot. Ich hab bei Sony noch kein DRO gesehen, was Halos erzeugt. Ich frag mich auch, wie das gehen soll. DRO hellt die Schatten auf und dunkelt die Licht ab. Aber nicht durch mehrere Bilder, wie bei HDR, sondern mit einem. Letztendlich macht eine Tonwertkurve ziemlich das gleich (OK, Kontrastverstärkung geht mit DRO nicht). Was ich mir vorstellen kann, sind harte Abstufungen (bspw. im Himmel), wenn man's übertreibt. Aber Halos sind ja helle Glows um ein dunkles Objekt herum.
Ich hatte dazu damals auch noch mehr gelesen. Das war jetzt halt der Artikel, den ich beim Googlen gefunden habe.
Wenn ich mich recht entsinne, verwenden die Kameras heute noch die selben Algorithmen.

Und das Glowing kommt daher, dass eben lokal aufgehellt wird. Dabei kommen bestimmte Radien zum Einsatz, wo dann sanft übergeblendet wird.
Das Ganze funktioniert recht gut und fällt daher meistens nicht auf. Aber in einigen Szenen ist es dann doch sehr deutlich und macht natürlich brutal das Bild kaputt.

Wenn du das testen willst, fotografiere am besten aus einem Zimmer durch's Fenster nach draußen, wenn es dort richtig hell ist. An der Wand um's Fenster solltest du dann die Lichthöfe sehen können.


mumpel schrieb:
Aber bei einer Langzeitbelichtung verschwimmen ja die bewegten Objekte wegen der langen Belichtungszeit. Bei sehr kurzen Belichtungszeiten hast du einfach scharfe Konturen. Wenn du die dann übereinander blendest, bekommst du das nicht weich genug.
Doch.
Wenn eine Belichtung da anfängt, wo die andere aufhört, sollte das Ergebnis identisch sein.

Filter schrauben kostet Zeit. Und um flexibel zu sein, braucht man mehrere Stärken.
Außerdem habe ich mitunter schlechtes über 20€ Filter gehört. Aber falls du da ne Empfehlung hast, nehme ich die dankend an.


Wegen RAW:
SilkyPix und RAWTherapee am PC (i5-4670K@4,2GHz - alles SSD)
Lightroom_CC aufm Phone/Tablet (Snapdragon 845 aufm Phone)
 
mumpel schrieb:
Du sagtest, der GPS-Empfänger im Smartphone braucht Internet und so lange man keine SIM-Karte hat gibt's entweder kein schnelles, effizientes GPS oder GPS allgemein (war nicht ganz klar). Aber GPS im Smarphone braucht kein Internet.

Wenn du willst, dass du innerhalb von wenigen Sekunden einen Fix hast, auch in schwierigem Gelände, gänzlich unbekannten Positionen oder nach langem Nichtgebrauch, braucht das Smartphone zusätzliche Daten, wie z.B. die ungefähren Positionen der Mobilfunkmasten, die in der Nähe stehen, oder eben die ungefähren Positionen der WLAN-Hotspots, die gerade empfangen werden - und die kann das Handy natürlich nicht herzaubern, sondern muss sie von irgendwo holen, insbesondere, wenn du z.B. gerade in Frankfurt in den Flieger gehüpft bist und kurze Zeit später in Los Angeles aussteigst.

Natürlich kommt auch der GPS-Empfänger im Handy auch gänzlich ohne Internetverbindung und Hilfsdaten aus, ist dann aber genauso schnarchlangsam wie die Empfänger in Geräten, die ebenfalls ohne zusätzliche Daten auskommen (müssen).
 
USB-Kabeljau schrieb:
Wenn du das testen willst, fotografiere am besten aus einem Zimmer durch's Fenster nach draußen, wenn es dort richtig hell ist. An der Wand um's Fenster solltest du dann die Lichthöfe sehen können.
Gut, testen wir's: Freihand aus'm Fenster, SOOC, JPG, alles auf Auto …

_DSC3368.JPG

DRO aus

_DSC3369.JPG

DRO Auto

_DSC3370.JPG

DRO Level 1

_DSC3371.JPG

DRO Level 2

_DSC3372.JPG

DRO Level 3

_DSC3373.JPG

DRO Level 4

_DSC3374.JPG

DRO Level 5 (max)

Also ich sehe da nichts. Kann sein, dass der bei Panasonic einfach zu stark ist.

Und man sieht auch, was ich meine: Ich brauch kein HDR. Level 5 sieht mir schon etwas unnatürlich/bearbeitet aus. Irgendwo zwischen 3 und 4 passt für mich. Das scheint auch die Auto-Einstellung zu sein.

USB-Kabeljau schrieb:
Wenn eine Belichtung da anfängt, wo die andere aufhört, sollte das Ergebnis identisch sein.
Das würde bedeuten, wenn ich mit 1/500 s belichte (und wir einen Sensor haben, der in 0 Sekunden ausgelesen werden könnte), dass du 500 Bilder pro Sekunde brauchst. Korrekt?

USB-Kabeljau schrieb:
Filter schrauben kostet Zeit. Und um flexibel zu sein, braucht man mehrere Stärken.
Stichwort: Variabler ND-Filter. Und wenn der schon in der Kamera ist, musst du auch nichts schrauben.

USB-Kabeljau schrieb:
Außerdem habe ich mitunter schlechtes über 20€ Filter gehört. Aber falls du da ne Empfehlung hast, nehme ich die dankend an.
Die Neewer-Sets sollen gar nicht mal so schlecht sein. Da bekommst du 4 ND Filter für 17,50 €. Ich hab nur einen leichten (2 Blenden) von Hoya, damit ich im prallen Sonnenlicht noch mit offener Blende fotografieren kann.

USB-Kabeljau schrieb:
Wegen RAW:
SilkyPix und RAWTherapee am PC (i5-4670K@4,2GHz - alles SSD)
Gut, aber die beiden sind dafür bekannt, dass sie extrem langsam sind. Hast du schon mal Lightroom, Capture One oder DxO probiert?

Viele sind ja von Lightroom wegen Abo, Geschwindigkeit und Workflow zu Capture One gewechselt. DxO soll auch super schnell sein und hat wieder einen ganz anderen Workflow, mehr Stand-Alone.

Meine Fotomaschine ist ein uralter i7-3770K, auch alles SSDs und eine GTX 1650. Ich nutze nur Lightroom. Das unterstützt auch voll die GPU und rendert mittlerweile fast alles darauf. Ich hab kein Problem mit der Geschwindigkeit und mein Workflow ist seit Jahren ausschließlich RAW-only. Das einzige, wo Lightroom langsam ist, ist beim Exportieren. Aber das ist ja eh am Ende und so oft und viel exportiere ich nun auch wieder nicht, dass mich das groß stören würde. Und ob nun JPG oder RAW ist total egal, weil Lightroom eh angepasste Vorschauen im Hintergrund rendert.

Bei Capture One gefällt mir die Oberfläche gar nicht und außerdem ist es zu teuer (18 € mtl. oder 170 € jährlich oder 230 € Einmalkauf – nur für Sony Kameras; Lightroom ist 12 € mtl.). DxO sieht nett aus, hat kein Abo-Modell (auch kein Fake-Einmalkauf wie C1) und mit 130 € einmalig auch günstig, bietet mir aber auch nichts, was ich unbedingt brauche. Würde ich von Lightroom weg wollen/müssen, würde ich zuerst DxO testen.
 

Anhänge

  • _DSC3369.JPG
    _DSC3369.JPG
    971,1 KB · Aufrufe: 215
  • _DSC3370.JPG
    _DSC3370.JPG
    892,8 KB · Aufrufe: 216
  • _DSC3371.JPG
    _DSC3371.JPG
    905,2 KB · Aufrufe: 224
  • _DSC3372.JPG
    _DSC3372.JPG
    931,9 KB · Aufrufe: 220
  • _DSC3373.JPG
    _DSC3373.JPG
    950,1 KB · Aufrufe: 256
Da hast du jetzt aber auch ein Foto gemacht, bei dem es natürlich schwer ist, sowas zu erkennen.

Es geht darum, dass du neben dem Fenster (eben da, wo es dunkel ist und nachträglich aufgehellt wird) wenige Details und eine große homogene Fläche (Wand) hast, an der man die Aufhellung sieht.
Am besten, wenn son Steg im Fenster senkrecht auf dieser Fläche steht.

Meine GH5 steht derzeit in nem Livestreaming-Setup und ich bin etwas faul, die da jetzt abzubauen.
Ansonsten mache ich eventuell später mal ein Beispiel, wo man's auf jeden Fall sieht.

mumpel schrieb:
Das würde bedeuten, wenn ich mit 1/500 s belichte (und wir einen Sensor haben, der in 0 Sekunden ausgelesen werden könnte), dass du 500 Bilder pro Sekunde brauchst. Korrekt?
Also wenn du 1/500 belichten musst, weil es bei Base-ISO sonst überbelichtet wäre und auf eine Sekunde kommen möchtest, ist das korrekt.

Und das geht mit aktuellen Sensoren natürlich nicht.
Deshalb sind diese VirtualND-Features derzeit auch begrenzt.
Nützlich sind sie in manchen Situationen trotzdem.



Wegen RAW:
Ich hatte auch mal Affinity angetestet, weil das noch recht günstig ist, aber das ist nix für RAW-Entwicklung.
Eventuell kaufe ich irgendwann mal was anderes. Aber wie gesagt:
Für die meisten Fotos reicht mir JPG aus. Ich fände es daher gut, wenn man was Profile angeht, mehr Möglichkeiten hätte (wie ja scheinbar bei Nikon).

Mit JPG (oder Video) kann man halt auch wieder höhere Framerates feuern, was bei Wildlife häufig wichtiger ist als der volle Dynamik-Umfang einer RAW.

Hast du mal fliegende Bienen fotografiert?
Das ist echt nicht leicht, die auf Makro-Distanz scharf zu bekommen, im Frame zu halten und dann noch ne schöne "Pose" zu erwischen.
Das würde ich z.B. nie in RAW versuchen. Der Puffer wäre zu schnell voll, und die Kamera kann auch keine 30/60fps dabei.
 
USB-Kabeljau schrieb:
Da hast du jetzt aber auch ein Foto gemacht, bei dem es natürlich schwer ist, sowas zu erkennen.
Also wenn man sich dafür anstrengen muss, dass es nicht funktioniert, ist doch alles gut :-)

Wir haben wir Flächen und Details … irgendwas müsste passieren. Tut's aber nicht und auf tausenden anderen Bildern auch nicht. Der Sony-Algorithmus ist halt einfach nicht so aggressiv. Selbst wenn es draußen heller wäre und drinnen dunkler, dann würde er einfach selbst in der stärksten Stufe das Bild nicht ausgleichen können. Da soll ja auch kein Bild rauskommen, was scheiße aussieht.

USB-Kabeljau schrieb:
Ansonsten mache ich eventuell später mal ein Beispiel, wo man's auf jeden Fall sieht.
Na mach mal!

USB-Kabeljau schrieb:
Und das geht mit aktuellen Sensoren natürlich nicht.
Deshalb sind diese VirtualND-Features derzeit auch begrenzt.
Nützlich sind sie in manchen Situationen trotzdem.
Naja, aber darum geht's ja. Diese Funktion gibt es. Ist halt Kacke, weil man die Konturen sieht. Lösung: Direkt hintereinander Fotos machen, damit die nahtlos ineinander gehen. 1/500s sind unrealistisch. Aber selbst der schnellste Sensor schafft unter optimalsten Bedingungen (richtige Objektiv bspw.) nur 30 FPS. Das ist 1/30s. Die musst du erst mal erreichen können. Wenn du soweit runter kommst, dann gibt's ab 1/15s schon natürliche Bewegungsunschärfe, die man auch mit IBIS noch bequem halten kann.

Lass einfach den Quatsch mit der App, warte nicht auf so einen Sensor, sondern hol dir einfach einen ND-Filter oder warte bis es dunkler ist und nutzen dann IBIS. Olympus kann doch 7s hand-held, oder?

USB-Kabeljau schrieb:
Eventuell kaufe ich irgendwann mal was anderes. Aber wie gesagt:
Für die meisten Fotos reicht mir JPG aus.
Aber schau mal! Alle deine Probleme liegen an deinem Setup. Entweder du machst dir das bewusst und hältst die Klappe (Ich meckere ja auch nicht rum, dass meine RX1 einen Scheiß AF hat. Is' halt so. Weiß ich. Macht trotzdem einzigartige Bilder und ich hab mir ein paar Tricks erarbeitet, wie ich den AF nutzen kann). Oder du fängst an, dein Setup zu ändern und damit deine Probleme zu lösen.

Hol dir einfach eine Tracking-App für's Handy, die Testversion von Lightroom, ein Einstiegs-ND-Filterset … das bekommst du alles für kein Geld. Für den Rest brauchst du wohl einen Systemwechsel und das kostet immer.

USB-Kabeljau schrieb:
Mit JPG (oder Video) kann man halt auch wieder höhere Framerates feuern, was bei Wildlife häufig wichtiger ist als der volle Dynamik-Umfang einer RAW.
Also bei Sony hat hat RAW oder JPG keinen Einfluss auf die Burstrate. Nur der Buffer ist dann schneller voll. Ob du nun aber 200 RAWs oder 300 JPGs mit einmal durchziehst, ist wohl in der Praxis egal. Dann lieber den besseren Bearbeitungsspielraum haben.
 
mumpel schrieb:
Naja, aber darum geht's ja. Diese Funktion gibt es. Ist halt Kacke, weil man die Konturen sieht. Lösung: Direkt hintereinander Fotos machen, damit die nahtlos ineinander gehen. 1/500s sind unrealistisch. Aber selbst der schnellste Sensor schafft unter optimalsten Bedingungen (richtige Objektiv bspw.) nur 30 FPS.
Das mit dem Sensor stimmt schon mal nicht.
Bei der GH5 sind es 60fps. Full Sensor Readout.
Das Objektiv spielt keine Rolle.

Und so eine Funktion ist eben nicht "kacke", sondern eine sinnvolle und kostengünstige Erweiterung dessen, was die Kamera dann kann.

mumpel schrieb:
Aber schau mal! Alle deine Probleme liegen an deinem Setup. Entweder du machst dir das bewusst und hältst die Klappe
Aber sonst geht's noch, ja?
 
@USB-Kabeljau: fotografierst du regelmäßig mit einer aktuell VF-Kamera?

Ich komm bei deinem Problem echt nicht mit. Ich kenne wirklich kaum eine Situation wo mein Dynamikumfang nicht gereicht hätte um ein Bild sinvoll hinzubekommen. Ich sehe in HDR wirklich null bis sehr wenig Nutzen...
 
  • Gefällt mir
Reaktionen: leboef
Zurück
Oben