Notiz „Far Out“: Apple lädt zum September-Event für das iPhone 14

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
12.926
  • Gefällt mir
Reaktionen: Gizzmow, BorstiNumberOne, Col. Jessep und 2 andere
Astronomische Preise :p
 
  • Gefällt mir
Reaktionen: Rockhound, Kappa, Natrax und 92 andere
Eventuell ein Astrofotographie Modus wie beim Google Pixel?
Das war zumindest für mich DER Kaufgrund und die Bilder mit dem 5 Minuten Stacken sind der hammer!
Wäre cool wenn Apple auch sowas bieten würde.

Ansonsten bin ich eher gespannt auf neue iPads.
Bitte 11" Mini IPS Display und >60 Hz
 
  • Gefällt mir
Reaktionen: BorstiNumberOne, Zockmock, Mr Peanutbutter und eine weitere Person
boncha schrieb:
Eventuell ein Astrofotographie Modus wie beim Google Pixel?
Das war zumindest für mich DER Kaufgrund und die Bilder mit dem 5 Minuten Stacken sind der hammer!
Wäre cool wenn Apple auch sowas bieten würde.

Ansonsten bin ich eher gespannt auf neue iPads.
Bitte 11" Mini IPS Display und >60 Hz

Wäre möglich. Apple hat in den letzten Jahren sehr viel in den Nachtmodus investiert. So kann das iPhone bis zu 30 Sekunden lang belichten, wenn man ein stativ verwendet (mit drittanbieter Apps geht natürlich noch viel mehr - schon immer) und 10 Sekunden freihand.
Das Geniale am 10 sekunden freihand Modus ist, dass man nicht verwackeln kann und die Aufnahme trotzdem aussieht, wie langezeitbelichtet (weil um Welten mehr Details sichtbar und für die Verhältnisse extrem rauscharm)

Ich frag mich immernoch, wie das möglich ist (normalerweise wird ne Aufnahme mit länger als 1/2 sec Belichtung sofort unscharf, wenn man die Hand nur minimal bewegt), aber es funktioniert.
 
boncha schrieb:
Eventuell ein Astrofotographie Modus wie beim Google Pixel?
Das war zumindest für mich DER Kaufgrund und die Bilder mit dem 5 Minuten Stacken sind der hammer!
Rein interessehalber und ernst gemeint. Was will man da fotografieren? Die Brennweite eines Handys langt nicht mal für die Andromeda Galaxie und die ist riesig und so hell, sogar mit bloßem Auge zu sehen.

W0dan schrieb:
Das Geniale am 10 sekunden freihand Modus ist, dass man nicht verwackeln kann und die Aufnahme trotzdem aussieht, wie langezeitbelichtet (weil um Welten mehr Details sichtbar und für die Verhältnisse extrem rauscharm)

Ich frag mich immernoch, wie das möglich ist (normalerweise wird ne Aufnahme mit länger als 1/2 sec Belichtung sofort unscharf, wenn man die Hand nur minimal bewegt), aber es funktioniert.
Ich tippe auf folgendes. Man macht einfach ein 10 Sekunden Video, das wird digital stabilisiert, also permanent gecropt um die Bildmitte in der Sensormitte zu halten. Dann werden die Aufnahmen ganz simpel ausgerichtet und gestacked. Keine Hexerei und keine Raketenwissenschaft. Nur macht das jetzt ein Algorithmus den sie KI nennen und verkaufen es als das Überfeature.
In Photoshop sieht der Workflow dafür wie folgt aus:
  • Fotos als Ebene laden
  • Ebenen ausrichten (lassen)
  • in Smart Objekt konvertieren
  • Stapelmodus Median
Man kann die RAW vorher in Lightroom anpassen und das gestapelte Bild in Photoshop weiter verfeinern.
Mehr Arbeit, aber auch mehr Spaß und berechtigter Stolz, wenn das Ergebnis gefällt.
Wie verhält sich das wenn während dieser 10 Sekunden Aufnahme Menschen durchs Motiv laufen, oder das Motiv Menschen sind, die sich bewegen? Sind die dann auch noch scharf abgebildet?
Das wäre dann wirklich etwas ganz besonderes.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Phesis, amorosa, Swiffer25 und 5 andere
Meine Vermutung ist, dass es die neue Kamera mit einer höheren Auflösung betrifft und insbesondere auch eine neue (Space) Zoom Kamera, wie man sie schon seit längerem in Android Geräten hat.
 
  • Gefällt mir
Reaktionen: qappVI
Bisher hatten die Namen der Events immer sehr wenig mit dem eigentlichen Event zu tun. :D

Mit "Far Out" könnte auch die Leistung des Chips gemeint sein.
 
Schön wäre es, wenn sie auch etwas über den neuen Mac Mini mit M2 verkünden würden.
 
  • Gefällt mir
Reaktionen: KuroSamurai117 und WaLn
Dr. MaRV schrieb:
Ich tippe auf folgendes. Man macht einfach ein 10 Sekunden Video, das wird digital stabilisiert, also permanent gecropt um die Bildmitte in der Sensormitte zu halten. Dann werden die Aufnahmen ganz simpel ausgerichtet und gestacked. Keine Hexerei und keine Raketenwissenschaft. Nur macht das jetzt ein Algorithmus den sie KI nennen und verkaufen es als das Überfeature.
In Photoshop sieht der Workflow dafür wie folgt aus:
  • Fotos als Ebene laden
  • Ebenen ausrichten (lassen)
  • in Smart Objekt konvertieren
  • Stapelmodus Median

Die Stacking Methode ist mir bekannt, dadurch kann man aber nur rauschen reduzieren, aber nicht die Belichtung so stark erhöhen. Bei der Langezeitbelichtung werden ja Details sichtbar, die vorher schon längst im schwarz untergegangen sind bzw. komplett geclippt sind.


Letztendlich wird es wohl der OIS sein, der hier die meiste Arbeit macht. Das erklärt für mich aber immernoch nicht, warum man während der Belichtung kurz stark verwackeln kann und die Aufnahme trotzdem scharf ist. Das muss heißen, es werden doch mehrere Aufnahmen gemacht (die unscharfen verworfen), was sich aber mit der Tatsache beißt, dass bei steigender Belichtungsdauer mehr Details sichtbar werden. Mehr Details gewinnt man ja nur durch andauernde physische Belichtung und so ne Aufnahme ist halt eigentlich hinüber, wenn einmal verwackelt, beim iPhone aber nicht.

Ach was weiß ich, ich kanns mir nicht erschließen... Irgendwo fehlt mir wahrscheinlich noch ein entscheidender Punkt beim Funktionsverständnis des Sensors.

Aber gut, irgendwas müssen sie ja anders/besonders machen, sonst hätte es die Funktion ja schon früher gegeben oder drittanbieter Apps hätten solche Funktionen auch schon angeboten. Aber da war bisher bei der Langzeitbelichtung eben auch die prämisse: einmal verwackelt und die Aufnahme ist unscharf.

Was mich dabei aber interessieren würde: Haben andere Hersteller das auch? Also eine verwacklungsrobuste Langzeitbelichtung?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Nellsoon und w33werner
Erwartet wird selbstverständlich die Vorstellung des neuen iPhone 14.
Wir sind erst bei 14? Ich hielts zuerst für nen Typo; hab mittlerweile echt den Überblick verloren. :evillol:

Dr. MaRV schrieb:
Mehr Arbeit, aber auch mehr Spaß und berechtigter Stolz, wenn das Ergebnis gefällt.
Naja, aber halt nur wenn die ganze Kiste einem auch tatsächlich Spaß macht. Ob es nun 5 Minuten gebraucht oder 2 Stunden gedauert hat, ist so ziemlich allen anderen Nutzern egal, solange die Qualität vergleichbar ist. Smartphone-Bilder werden am Ende ja hauptsächlich auf anderen Smartphones konsumiert.
 
Ich nutze iPhone und iPad, aber welche mediale Aufmerksamkeit Apple immer bekommt für die Ankündigung so einer Vorstellung wird mir von Jahr zu Jahr schleierhafter.

Apple, einst Trendsetter, läuft nur noch hinterher und die Neuerungen sind 🥱 ganz nett. Was für mich Apple immer noch zur ersten Wahl macht ist vor allem der lange Support (geschrieben vom iPhone 8+ inkl. aktuellsten iOS).

Wobei vermutlich das Produkt Smartphone einfach ausentwickelt ist.
 
  • Gefällt mir
Reaktionen: Alphacrypt, Kommando, axi und 2 andere
W0dan schrieb:
… prämisse: einmal verwackelt und die Aufnahme ist unscharf.
ana, du kannst ja beides kombinieren… quasi eine Unschärfeerkkenung inkl. Wegwerfen des „Fotos“ (=kurzen Clips). Dann hast du letztendlich viele Fotos, die du miteinander verrechnen kannst, automatisch - der aussortierten, und bekommst dadurch ein tolles Ergebnis.
Ich gebe dir recht, wenn das noch mit (temporären) Objekten funktioniert, sind damit wieder mehr Hui-Dinge für den Normalo erreichbar
 
W0dan schrieb:
Die Stacking Methode ist mir bekannt, dadurch kann man aber nur rauschen reduzieren, aber nicht die Belichtung so stark erhöhen. Bei der Langezeitbelichtung werden ja Details sichtbar, die vorher schon längst im schwarz untergegangen sind bzw. komplett geclippt sind.
Eben nicht, genau deshalb wird gestacked, man entfernt damit nicht nur Rauschen, Hotpixel und tote Pixel, sondern addiert auch die vorhandenen Informationen, um zu einem besseren Gesamtergebnis zu kommen.
Verwackelte Einzelbilder der Videoaufnahme werden verworfen.
Das ist bei den Live Fotos auch schon so gewesen. Es wird ein kurzer Clip aufgenommen und dann ein Schlüsselfoto ausgewählt (macht die Software), dass ist dann das Foto, welches du in der Galerie siehst.
Du kannst nachträglich selbst das Schlüsselfoto auswählen und da sind dann auch unscharfe Bilder bei, die Logischerweise nicht als Schlüsselfoto von der Software ausgewählt wurden.

Bright0001 schrieb:
Naja, aber halt nur wenn die ganze Kiste einem auch tatsächlich Spaß macht. Ob es nun 5 Minuten gebraucht oder 2 Stunden gedauert hat, ist so ziemlich allen anderen Nutzern egal, solange die Qualität vergleichbar ist. Smartphone-Bilder werden am Ende ja hauptsächlich auf anderen Smartphones konsumiert.
Wenn man mit dem Smartphone Astrofotografie betreibt kann es doch allenfalls nur eine Aufnahme vom Nachthimmel sein? Ich würde es noch nicht mal Panorama nennen. Mit Astro hat das recht wenig zu tun. Es fehlt einfach Brennweite und die Möglichkeit Schmalbandfilter zu benutzen, was bei den Brennweiten von Telefonen aber wieder obsolet wäre.
 
Dr. MaRV schrieb:
Wenn man mit dem Smartphone Astrofotografie betreibt kann es doch allenfalls nur eine Aufnahme vom Nachthimmel sein? Ich würde es noch nicht mal Panorama nennen. Mit Astro hat das recht wenig zu tun. Es fehlt einfach Brennweite und die Möglichkeit Schmalbandfilter zu benutzen, was bei den Brennweiten von Telefonen aber wieder obsolet wäre.
Apple sollte mal den Rückstand bei normalen Fotos gegenüber dem Google Pixel 6 aufholen und danach können wir meinetwegen über Astrofotografie schreiben. Ich selbst hab ein normales Iphone 13 und möchte aufs 14 Pro wechseln, wenn die Fotoqualität dementsprechend ist. Der Rest interessiert mich nicht mehr. Akku, Geschwindigkeit, Software , Display alles Top nur bei Fotos zeigt halt ein anderer Hersteller das da noch Luft nach oben ist.
 
  • Gefällt mir
Reaktionen: Alphacrypt und Leereiyuu
Ich freue mich auf jeden Fall wieder auf die Präsentation. Man kann sagen was man will, aber die sind einfach super gut gemacht und für Technik-Interessierte natürlich immer sehenswert :)
 
  • Gefällt mir
Reaktionen: Unioner86
ohne witze, noch nie hat mich in 13 jahren ein iphone so kalt gelassen wie dieses jahr
Ergänzung ()

Dermitlinux schrieb:
Schön wäre es, wenn sie auch etwas über den neuen Mac Mini mit M2 verkünden würden.
mit sicherheit nicht, das event gilt wieder ganz dem iphone und the best we ever made, bla bla blupp
 
iWeaPonZ schrieb:
Ich freue mich auf jeden Fall wieder auf die Präsentation. Man kann sagen was man will, aber die sind einfach super gut gemacht und für Technik-Interessierte natürlich immer sehenswert :)
Na gerade für Technik-Interessierte sind diese Hochglanzveranstaltungen von Apple eigentlich nicht wirklich interessant. Außer vielen PR-"Buzzwords" und "Hyper Hyper totally new crazy awesome" kommt doch nichts bei rum. Technische Interna lässt man gerne weg, wenn diese nicht ins Bild passen.

Die Vorstellungen sind gut gemacht keine Frage aber das betrifft eigentlich nur die Optik.
 
  • Gefällt mir
Reaktionen: Alphacrypt, 9t3ndo, Kommando und eine weitere Person
Zurück
Oben