News iPhone 11 (Pro): Deep-Fusion-Fotos kommen mit der nächsten iOS-13-Beta

Doch, man kann es vergleichen @DJMadMax
Bei der Option mit allen 2-3 Linsen gleichzeitig ein Foto zu machen, ist DeepFusion nicht angeschaltet (ich gehe davon aus, dass Kamera-Apps von Dritten (Halide z.B.) eine Art DeepFusion-Schalter einbauen). Es wird also schon bald auch Vergleichsfotos geben und danach kann man entscheiden, ob das jetzt bahnbrechend toll ist, oder nur Marketinggeschwätz.
 
  • Gefällt mir
Reaktionen: DJMadMax
Oder man macht mittels Stativ jetzt ein Bild bzw. Bilder, haut die Beta drauf bewegt während des updates das Gerät nicht und macht danach noch mal ein Bild bzw. Bilder. Ich denke aber, dass auch die Photo-App so ein Schalter bekommen wird.
 
Cool Master schrieb:
Mit dem Nacht-Modus kann man am 11 Pro bis zu 10 Sekunden per Hand belichte. Das will ich mal sehen wie man das mit einer DSLR oder DSLM hin bekommt.

Ich gehe stark davon aus, dass solche Features bei professionellen Kameras ebenso Einzug halten. Klar kann man da schon immer ein Stativ verwenden, aber wenn man es in manchen Situationen nicht mitschleppen muss ist das für manchen ein Kaufargument.
Und wenn man bewegte Motive hat, hilft eben nur lichtstarke Hardware. Zumindest solange die KI nicht in der Lage ist, das Bild komplett neu zusammen zu setzen.
 
  • Gefällt mir
Reaktionen: Cool Master
SirVarun schrieb:
Mal gespannt wann die echten Spiegelreflex Kompaktkameras überflüssig werden, kann keine Jahrzehnte mehr dauern ...

Ich hab den Satz mal für Dich gefixt ;)

Die Antwort ist Nein. Spiegelreflex/spiegellose Kameras werden nicht von Smartphones ersetzt werden, genauso wenig wie Spielekonsolen und Tablets den PC ersetzen werden. Es geht dabei nicht nur um die Kameras, sondern um das ganze System. Eine Kamera kann für verschiedenste Anwendungsbereiche optimiert werden mit eine ganzen Reihe von Objektiven, während ein Smartphone nur ein paar wenige Anwendungsbereiche unterstützt und diese nur halbherzig durch Berechnung.

Mit dem richtigen Objektiv kann man in kilometerweiter Entfernung ein Objekt fotografieren oder auch den Flügelschlags eines Insekts, wenn man das denn möchte. Probier das mal mit einem iPhone. Schon allein der Sucher ist dem eines iPhones um WELTEN überlegen, geschweige denn kann man einen 400mm Zoom auf ein iPhone schrauben. Physik bleibt Physik. Die kann man nicht durch einen Prozessor einfach simulieren oder gar austricksen. Das wird also NIE vollständig gehen.

Im Massenkonsumentenbereich haben die Smartphones hingegen schon lange die Kompaktkameras ersetzt. Der Markt ist eingebrochen. Da müssen wir also keine Jahrzehnte mehr warten.
 
  • Gefällt mir
Reaktionen: iWeaPonZ, SVΞN und public_agent
Wir kriegen ein update das bei “mittleren lichtverhältnissen„ bessere fotos machen soll. UMSONST. Die reaktion von 3/4 der deutschen foren mitglieder: nörgeln.

leute, ich schmeis mich echt weg...
 
  • Gefällt mir
Reaktionen: Whoracle, tidus1979, andi_sco und 9 andere
@tomasvittek

Ist doch leider normal geworden. Vor allem viele verstehen es nicht mal und nörgeln trotzdem. Klar muss sich zeigen was es kann aber Apple wird wohl kaum etwas heraus bringen wenn es nicht wirklich etwas bringt.

Ich bin sehr gespannt drauf vor allem hats mir das "denoise" angetan welches die Funktion mitbringen soll.
 
  • Gefällt mir
Reaktionen: Snowi, Acrylium und new Account()
Cool Master schrieb:
So sieht es aus! Mit dem Nacht-Modus kann man am 11 Pro bis zu 10 Sekunden per Hand belichte. Das will ich mal sehen wie man das mit einer DSLR oder DSLM hin bekommt.
Einfach mal aus dem Automatikmodus und in den Manuellen gehen. Ich kann bei meiner nicht mehr ganz taufrischen Canon 30D bis 30Sekunden oder gar manuell per Fernauslöser die Belichtung steuern (bulb).
 
@Rawday

Lese noch mal genau nach was ich geschrieben habe... Ich hab ne 6D und die halte ich ganz bestimmt nicht 10 Sekunden so still, dass da am Ende ein brauchbares Bild heraus kommt.
 
  • Gefällt mir
Reaktionen: Acrylium
Da steht nur "per Hand belichten", nicht "10s in der Hand halten und Belichten" ;).
Solange mir Apple keine Bilder von den ominösen 10s Nachtbildern liefertglaube ich das erstmal nicht.
 
Zuletzt bearbeitet von einem Moderator: (Fullqoute des direkten Vorposter entfernt)
nlr - respektive Apple schrieb:
Deep Fusion funktioniert ausschließlich auf dem neuen iPhone 11 und iPhone 11 Pro (Max) mit Apples A13-Bionic-Prozessor. Ältere Smartphones sind außen vor.

Jaja, genauso wie die Filmaufnahme-Funktion auf dem 3G(S) damals. Die dank der pösen Hacker, via Jailbreak und wie von Wunderhand, technisch auf einmal doch funktionierte. ;)
 
Buttercreme schrieb:
Mich auch nicht. Interessant wäre ein Beispielbild ohne den ganzen Schnick Schnack gewesen. Eventuell holt man ja ziemlich viel raus ohne das man es jetzt direkt sehen würde.

Da müsste man sich wohl an die Custom-Rom-Maker bei Android wenden.

Die könnten theoretisch auf Software-Binaries verzichten und die Sensoren möglichst direkt ansprechen, wurde früher sogar getan, sah absolut grauenhaft aus.

Dann könnte man einen Vergleich Basic -> Standard vom Hersteller -> Google Algorithmus machen.

Das Ergebnis ist absehbar, Letzteres wurde ja schon öfter verglichen, die Software macht heutzutage den Unterschied.
 
Auf Youtube gibt es die ersten Videos mit der IOS 13.2 Beta und Deep Fusion.

Dafür, dass die KI die zusätzlichen Details errechnet finde ich das Ergebnis schon gut.

Gerade weil man dafür keine neue Hardware braucht sondern es reine Software ist.
Somit besteht auch noch die Möglichkeit, Deep Fusion im Laufe der Monate und Jahre immer weiter zu verbessern.

Ich finde es einfach technisch faszinierend, wie Apple mittels sehr gut angepasster Software versucht das Beste aus der Hardware raus zu holen.
Darüber hinaus kann man sich sicher sein, mit seinem iPhone 11 die nächste 4 Jahre weiter Funktions- und Sicherheitsupdates zu bekommen.

Die Bilder der 12Mpix iPhone 11 Kamera sind jetzt schon schärfer, als die der Android 48Mpix Kameras. Was machen die Hersteller der Android Telefone?
"Neuer Sensor mir 108MPix angekündigt"

Wie früher, als man Kunden mit hohen P.M.P.O. Watt Angaben bei Musikanlagen gelockt hat. Oder unausgeglichene Aldi PCs mit super hohen Gigahertz CPUs und schwacher GPU als "GAMER PC" verkauft wurden.
 
Hohe Mpix hat nichts mit Bildqualität gemeinsam. Ist schon seit Jahren so. Genau so wie PMPO.
Wichtig sind die Sensorgröße und Qualität sowie das Objektiv.

Ich bin gespannt. Mal sehen was raus kommt.

10sek aus der Hand berichten. Wers nivht glaubt, soll man ein Pixel 3 oder Huawei p30 in die Hand nehmen. Das klappt tatsächlich.
 
Wie gesagt 10 Sek per Hand ist kein Problem, was ich bis jetzt aber herausgefunden habe ist, im relativen Makro Bereich ist es mitm iPhone etwas unscharf, kann aber auch an meiner Tastatur liegen. Werde es die Tage mal in der Stadt probieren, wenn das Wetter mitspielt.
 
Cool Master schrieb:
...
im relativen Makro Bereich ist es mitm iPhone etwas unscharf
...

Da werden einige Handys Defizite haben
 
Kann sein, ich dachte es lag am Motiv (Corsair Tastatur). Kann aber auch wirklich am Sensor liegen habe ich noch nicht genauer beobachtet.
 
Artikel-Update: Apple stellt Deep Fusion ab sofort mit dem Update auf iOS 13.2 für jedermann zur Verfügung. Parallel dazu sind iPadOS 13.2 und tvOS 13.2 veröffentlicht worden.
 
Schade, dass diese Funktion nicht parallel mit RAW funktioniert (siehe Changelog Halide).

RAW halte ich aber immer für das sehr viel wertvollere Foto, wenn ich mich entscheiden müsste. Wobei ich dennoch daran interessiert wäre, was das iPhone aus dem Motiv "macht".
 
Zurück
Oben