News iPhone 11 (Pro): Deep-Fusion-Fotos kommen mit der nächsten iOS-13-Beta

Hoffentlich haben sie mit 13.2 endlich die ganzen bugs abgestellt... auf den iPhone geht es, aber am iPad Pro ist es ziemlich mies bei mir.
 
Cool Master schrieb:
Solange ich nicht richtige Brennweiten habe wird meine 6D noch lange bei mir bleiben, da mein iPhone mir einfach kein 70-300 oder 70-200 geben kann. Das Fake-Bokeh ist zwar nett aber man sieht halt sofort dass es "digital" ist und nicht optisch. Das 11 Pro Max ist auf jeden Fall ein Schritt in die richtige Richtung aber DSLRs werden denke ich höchstens von Mirrorless Geräten abgelöst werden.
ich seh das ähnlich.. wobei Mirrorless meines erachtens die Spiegeln jetzt schon abgelöst haben, weil die Vorteile insgesamt überwiegend. Zumindest wurden die Kompaktkameras von den Smartphones abgelöst
 
cool! gerade installiert. Danke Apple für die tolle Unterstützung und den vielen Updates :)
 
douron schrieb:
wobei Mirrorless meines erachtens die Spiegeln jetzt schon abgelöst haben

In einigen Bereichen stimme ich dir zu aber pauschal kann man das nicht sagen.
Ergänzung ()

-Slayer- schrieb:
Ich sehe irgendwie keine Unterschiede.

Dann probiere mal ein Bild mit Wolle oder anderen Texturen die ähnlich aussehen, da sollte es etwas bringen.
 
  • Gefällt mir
Reaktionen: -Slayer-
nlr schrieb:
Artikel-Update: Apple stellt Deep Fusion ab sofort mit dem Update auf iOS 13.2 für jedermann zur Verfügung. Parallel dazu sind iPadOS 13.2 und tvOS 13.2 veröffentlicht worden.

Wirklich alle?
 
Kurzer Reminder, an alle, die Deep Fusion auch nutzen wollen:
In den Kamera Optionen muss die Funktion "Kompositionen" aus gestellt werden.

Man kann nach der Aufnahme kontrollieren, ob Deep Fusion verwendet wurde indem man nach der Betätigung des Auslöse Button schnell auf das geschossene Bild tippt, damit es in voller Größe angezeigt wird. Nun genau auf das Bild schauen. Es sollte sich nach ~1 Sekunde kurz minimal bewegen. Diese minimale Bewegung entseht, weil die Vorschau durch das im A13 berechnete Bild (Deep Fusion) ersetzt wird.
Triggern lässt sich Deep Fusion mit sehr hoher Wahrscheinlichkeit in Szenen, die gerade noch hell genug sind, dass Night Mode nicht aktiviert wird.
 
  • Gefällt mir
Reaktionen: Snowi und tidus1979
Ist das nicht das was die Pixel Phones schon seit Jahren machen?
 
Foxel schrieb:
Ist das nicht das was die Pixel Phones schon seit Jahren machen?

Essentially anytime you go to take a photo, the camera is capturing multiple images. Again, Smart HDR does something similar. The iPhone takes a reference photo that's meant to stop motion blur as much as possible. Next, it combines three standard exposures and one long exposure into a single "synthetic long" photo. Deep Fusion then breaks down the reference image and synthetic long photo into multiple regions identifying skies, walls, textures and fine details (like hair). Next, the software does a pixel-by-pixel analysis of the two photos -- that's 24 million pixels in total. The results of that analysis are used to determine which pixels to use and optimize in building a final image.
Quelle
Ob Pixel Phones das "seit Jahren" schon genau so machen sei jetzt mal dahin gestellt.

Aber manche Telefone bearbeiten Bilder automatisch nach. Wenn du das meinst.

@-Slayer-
Ich hab das in verschiedenen Youtubevideos zur iOS Beta 13.2 gesehen. Auf Webseiten kann man es z.b hier, hier oder hier nachlesen. Leider gibt keine der Webseiten Quellen an. Evtl haben die es einfach ausprobiert. Kann aber auch sein, dass mit der finalen Version von iOS 13.2 nicht mehr notwendig ist.
 
  • Gefällt mir
Reaktionen: gartenriese und -Slayer-
Bin mal gespannt was da bei rumkommt. Eigentlich sollte man auch alle Linsen zeitgleich nutzen um maximalen Schärfe zu erhalten. Es könnten so langsam auch mal mehr als 12 MP sein... Find ich etwas knapp.
 
@Krautmaster
Deepfusion bringt schon etwas. Wenn man ganz genau hinschaut und rein zoomt.

Wegen den 12MPx: Gibt schon viele Android Handys mit dem Samsung Isocell Bright GW1 Sensor. Der hat 64 Megapixel. Aber irgendwie sind die Bilder nicht wirklich schärfer als Bilder von 12 oder 16 Megapixel Sensoren.

Ich schau mir viele Reviews zu mittelpreisigen Android Samrtphones an. Da haben schon manche diesen 64 Megapixel Sensor.
Je mehr Reviews man sieht, um so mehr weiß ich es zu schätzen, wie wichtig Software in Verbindung mit Hardware ist.
All diese Android Phones haben auf dem Papier bessere technische Daten im Fotobereich als das iPhone, patzen aber an vielen Stellen einfach. Da ist mal der Dynamikumfang mieserabel, die Bildstabilisierung in Videos unbrauchbar oder einfach mal gar nicht vorhaden. Hin und wieder sind bei den Handys mit mehrern Linsen dann eine davon brauchbar, die anderen beiden fallen deutlich ab... irgendwas ist halt immer ^^.
 
  • Gefällt mir
Reaktionen: Krautmaster
Gefällt mir das Ergebnis vom Video.
Ergänzung ()

Weiß jemand wie groß der Sensor bei den iPhone ist und wie es da beim Pixel 4 aussieht? Rein von den Linsen her könnte man annehmen dass der Apfel den größeren Sensor verbaut hat.
 
Zuletzt bearbeitet:
Cool Master schrieb:
In einigen Bereichen stimme ich dir zu aber pauschal kann man das nicht sagen.
ja wahrscheinlich, aber Gerüchten zufolge wird es z.B. keine 7D Mark III geben, keinen Nachfolger der 5DS/R. Nächstes Jahr sind in Tokyo die olympischen Sommerspiele, da wird Canon und Nikon seine Profikameras vorstellen.
Ich denke, dass noch die in der Entwicklung beinahe abgeschlossenen DSLRs rauskommen. Dann wird es wohl, glaube ich, Schluss sein. Denn es dauert etwa 3-5 Jahre um eine Kamera zu entwickeln. Und wenn man die Absatzmärkte anschaut, glaube ich kaum, dass sich sowas noch zukünftig finanziell rentieren wird.

Außerdem wird KI ein immer größeres Thema werden, deren Bedeutung bei DSLR quasi gar nicht vorhanden ist, während bei Spiegellosen umso mehr.
 
Thomaswww schrieb:
Kurzer Reminder, an alle, die Deep Fusion auch nutzen wollen:
In den Kamera Optionen muss die Funktion "Kompositionen" aus gestellt werden.

Man kann nach der Aufnahme kontrollieren, ob Deep Fusion verwendet wurde indem man nach der Betätigung des Auslöse Button schnell auf das geschossene Bild tippt, damit es in voller Größe angezeigt wird.
Nun genau auf das Bild schauen. Es sollte sich nach ~1 Sekunde kurz minimal bewegen.
Diese minimale Bewegung entseht, weil die Vorschau durch das im A13 berechnete Bild (Deep Fusion) ersetzt wird.
Triggern lässt sich Deep Fusion mit sehr hoher Wahrscheinlichkeit in Szenen,
die gerade noch hell genug sind, dass Night Mode nicht aktiviert wird.


Dies passiert auch wenn "Kompositionen" aktiviert ist, also eine richtige Kontrollmöglichkeit
oder Einstellmöglichkeit gibt es (leider) nicht.

Hier mal ein Video zu Deep Fusion
 
Zuletzt bearbeitet:
Cool Master schrieb:
So sieht es aus! Mit dem Nacht-Modus kann man am 11 Pro bis zu 10 Sekunden per Hand belichte. Das will ich mal sehen wie man das mit einer DSLR oder DSLM hin bekommt.
Da war ich bei meinem p30pro auch sehr angetan von. Nichts mit wackelige Stütze basteln und ferngesteuert auslösen. Nene, einfach Handy raus, nachtmodus ( wobei der nicht mal aktiviert werden muss) und drauf halten. Heraus kommt ein halbwegs scharfes Bild mit halbwegs wenig rauschen. Würde man das so mit einer DSLR versuchen, naja..

Überhaupt scheinen viele vergessen zu haben dass solch Sachen wie AI ja nur die Werkzeuge sind, mit der wir uns kreativ entfalten können. Eine moderne DSLR pfuscht einem ja auch ins Bild, sonst wären die unterscheide zwischen den Herstellern ja auch viel kleiner. Jeder versucht es dem Nutzer möglichst einfach sein Wunschfoto zu ermöglichen, und da läuft dermaßen viel interne Bildbearbeitung (intelligente cropkorrektur , autofokus etc).

Ein "wahres" Handwerk gibt es einfach nicht. Der Mensch macht was mit Hilfe von Werkzeugen, wie diese nun aussehen ist irrelevant.
Es sind immer die, die auf den alten Tools gelernt haben und sich jetzt ärgern/Angst haben dass dieses erarbeitete Können obsolet wird, weil es jetzt was anderes gibt. Immer dasselbe, Geschichte wiederholt sich, Branchenübergreifend.
Ergänzung ()

Thomaswww schrieb:
@Krautmaster
Deepfusion bringt schon etwas. Wenn man ganz genau hinschaut und rein zoomt.

Wegen den 12MPx: Gibt schon viele Android Handys mit dem Samsung Isocell Bright GW1 Sensor. Der hat 64 Megapixel. Aber irgendwie sind die Bilder nicht wirklich schärfer als Bilder von 12 oder 16 Megapixel Sensoren.

Ich schau mir viele Reviews zu mittelpreisigen Android Samrtphones an. Da haben schon manche diesen 64 Megapixel Sensor.
Je mehr Reviews man sieht, um so mehr weiß ich es zu schätzen, wie wichtig Software in Verbindung mit Hardware ist.
All diese Android Phones haben auf dem Papier bessere technische Daten im Fotobereich als das iPhone, patzen aber an vielen Stellen einfach. Da ist mal der Dynamikumfang mieserabel, die Bildstabilisierung in Videos unbrauchbar oder einfach mal gar nicht vorhaden. Hin und wieder sind bei den Handys mit mehrern Linsen dann eine davon brauchbar, die anderen beiden fallen deutlich ab... irgendwas ist halt immer ^^.
Das stimmt
Wo Licht ist, ist auch viel Schatten. Aber Apple hat doch jetzt erst zum ersten mal nach dem iPhone 4 mit dem 11er Pro mehr oder weniger zu den Androids aufgeschlossen. Vorher waren sie in den neutraleren Tests (ganz sicher kann man sich da nie sein) aber eher gutes Mittelfeld statt Speerspitze was Kameras angeht. Jetzt scheinen sie aber ein rundes Paket abgeliefert zu haben, was sich nicht vor den Samsungs und Huaweis verstecken muss. Abgesehen vom Preis, aber das ist eine andere Geschichte
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: getexact, Cool Master und Magellan
Deep fusion iOS 13.2
DB034518-A571-4C79-8421-07BFB86C37B1.jpeg


Ohne Deep Fusion
1572335245841.jpeg
 
Zuletzt bearbeitet:
Night Sight hatte Google's Android schon Ende 2018. Auch hier wurde mehrere Sekunden lang belichtet, im Sinne der Aufnahme von vielen Einzelbildern, danach per KI eine automatische Sortierung der Bilder hinsichtlich Qualität/Details/wenig Motion Blur/etc. vorgenommen und darüber hinaus dann noch ein automatisches Stacking der besten Bilder, mit dem Resultat hervorragender Nachtbilder. Jetzt hat das Apple, ein Jahr später, also auch.

Wenn da die Begeisterung hier im Forum ausbleibt, ist das doch nicht weiter erstaunlich. Selbst bei fast absoluter Dunkelheit erhält man mit Night Sight recht erstaunliche Resultate. Schön wenn Apple das jetzt auch kann.

https://www.theverge.com/2018/10/25/18021944/google-night-sight-pixel-3-camera-samples

Einige gute Beispiele hier zu finden im Link. Und ein Bild für den direkten Eindruck: Das konnte Google vor einem Jahr. Für solche Aufnahmen benötigte man vor nicht all zu vielen Jahren ein Stativ und eine gute DSLR:
Pixel3-NightSight-RizalBridge-1180px.jpeg
 
Taube Nuss schrieb:
Dies passiert auch wenn "Kompositionen" aktiviert ist, also eine richtige Kontrollmöglichkeit
oder Einstellmöglichkeit gibt es (leider) nicht.

Sicher? HIER steht zB., dass die Fotoaufnahme außerhalb des Rahmens zwingend deaktiviert sein muss, damit Deep Fusion funktioniert...
 
Zurück
Oben