News iOS 15: Das iPhone wird zum Kino, Hausschlüssel und Ausweis

SavageSkull schrieb:
wenn ich das Iphone an einen Windows PC stecke.
Geht doch? Also zumindest den Kamera Ordner damit man die Bilder auf den PC ziehen kann. Ab dem Punkt ist es dann wohl auch im Apples Sinne, dass die Bilder in die Cloud wandern, wenn sie da nicht eh schon liegen und dann greift man eben über iCloud auf die Bilder zu. Ohne iCloud ist es aber in der Tat mehr als eingeschränkt mit den Bildern zu hantieren.

Ich bin noch neu im Apple-Kosmos und bin zum Entschluss gekommen, meine Fotos in die Cloud auszulagern. Zuvor mit Android hatte ich mir selbst die Mühe gemacht alles auf den Geräten lokal zu regeln inklusive kleinem Sicherungskonzept. Sehr viel Aufwand. Zwischen den lokalen Sicherungen hatte ich die Bilder in ein kleines Nextcloud Konto geladen, damit da nichts verloren geht.

Hätte den Schritt mit Google Drive/One natürlich auch gehen können, aber iCloud ist allein schon beim iPhone-Backup meilenweit voraus. Das hab ich beim Androiden deaktiviert und mich auch an der Stelle viel selbst drum gekümmert.

Lange Rede kurzer Sinn: Apple hat schon bedacht, dass iPhones auch an Windows-PCs gesteckt werden und das kann auch gut funktionieren, wenn man es so macht, wie Apple es möchte.
 
Pille schrieb:
Laut Sparkasse wird sich dadran auch nichts ändern.
Der Start der App wird absichtlich blockiert und ist kein Fehler.
Man wird keine Version für eine Beta Version von iOS bringen weil es angeblich zu riskant sei.
In jeder 14er Beta lief die App doch auch einwandfrei. Da war es wohl nicht riskant? :D
 
Grundgütiger schrieb:
Im Automatic Modus, Portrait Modus, öfters Fehlfokus und fehlende „Auflösung“. Bei RAW kann ich ja mehr bearbeiten.
Komisch. Bei mir geht das am selben HandyTyp astrein. Evtl. ein defekt bei dir ?
Bei RAM muss man fast immer bearbeiten, so man will. Für Normalos kann man den Modus aus stellen.
 
Ich lese hier eindeutig zuviel "pro iOS15".

Macht sich hier kaum einer Sorgen um deren Schritte zur unbegründeten (Online-)Durchsuchung direkt auf iOS-Geräten und demnächst wohl auch auf deren PCs? Cover wie das des Albums "Nevermind" von Nirvana sind damit bald wohl auch ein Grund für mögliche andere Schritte, die darauf folgen.
 
  • Gefällt mir
Reaktionen: Karl Napp
@Mega-Bryte

Das dachte ich mir auch schon. Während auf anderen Seiten die Foren qualmen wegen CSAM und der Backdoor, bleibt es hier erstaunlich ruhig.
Ich persönlich bin echt extrem enttäuscht. Die sollen ihre Scans mal in der iCloud machen und nicht lokal auf dem Gerät. (Soweit Ich weiß werden die Scans auch durchgeführt, auch wenn iCloud deaktiviert ist. Es erfolgt dann nur keine Meldung an Apple.) Wer weiß, auf was Apple zukünftig noch scannen wird. Mit so etwas lassen sich umfangreiche Nutzerprofile anfertigen.
Ich belese mich zumindest aktuell schon bzgl. GrapheneOS und CalyxOS und hoffe, dass diese auch für das Pixel 6 Pro veröffentlicht werden. Aktuell noch nichts entschieden, aber Apple hat mit dem Schritt echt jedes Vertrauen verspielt.
 
  • Gefällt mir
Reaktionen: sumpfhuhn und Karl Napp
Devo47 schrieb:
Ach ja, was ist mit den teuren Android Geräten? warum sollte man da keinen Langzeit-Support erwarten? Typischer Apple hater xD
Erwarten schon aber wirklich brauchen? Wenn es danach geht dürfte ja nix altes mehr laufen bei den Androiden. Ist aber nicht so. Es ist egal ob man Updates bekommt, außer man hofft das sein Phone mit dem nächsten Update rund läuft. Nicht ohne Grund braucht iOS so viele Bugfixes nach einer Final.
 
  • Gefällt mir
Reaktionen: Devo47
tidus1979 schrieb:
@Mega-Bryte @paxtn

Macht doch einen eigenen Thread dazu auf. Ich finde es gut, dass dieser Thread zu den Features von iOS15 nicht dafür gekapert wird.
Die von mir aufgelistete Durchsuchung ist doch auch ein "Feature" von iOS15!!!! Damit paßt es sehr wohl in diesen Thread!
 
  • Gefällt mir
Reaktionen: Karl Napp
Mega-Bryte schrieb:
Ich lese hier eindeutig zuviel "pro iOS15".

Macht sich hier kaum einer Sorgen um deren Schritte zur unbegründeten (Online-)Durchsuchung direkt auf iOS-Geräten und demnächst wohl auch auf deren PCs? Cover wie das des Albums "Nevermind" von Nirvana sind damit bald wohl auch ein Grund für mögliche andere Schritte, die darauf folgen.

Du hast CSAM doch gar nicht verstanden. Sonst käme nicht dein alberner Vergleich mit dem Nirvana Album. CSAM gleicht Hashwerte aus diversen Kinderporno-Datanbanken gegen Bilder ab, die in die iCloud geladen werden sollen.
Das Nirvana Album ist keines davon, genauso wenig wie eventuelle private Fotos der eigenen Kinder.
 
iOS/iPadOS 15 Beta 8 ist draußen.
Das iPhone lädt es grad herunter.
 
  • Gefällt mir
Reaktionen: knoxxi und Model
DekWizArt schrieb:
Du hast CSAM doch gar nicht verstanden. Sonst käme nicht dein alberner Vergleich mit dem Nirvana Album. CSAM gleicht Hashwerte aus diversen Kinderporno-Datanbanken gegen Bilder ab, die in die iCloud geladen werden sollen.
Das Nirvana Album ist keines davon, genauso wenig wie eventuelle private Fotos der eigenen Kinder.
Und woher weiß der Algorithmus, wie meine Kinder aussehen und welche nicht meine sind?

Der Vergleich mit dem Nirvana-Album stammt übrigens aus dem Netz und ist leider nicht auf meinem Mist gewachsen!
 
Komische Frage - ich versuche die Frage vorsichtig und vor allem korrekt zu beantworten.
Der "Algorithmus" unterscheidet hier nicht - wenn die Hashes der Bilder in der Kinderporno-Datenbank drinnen ist, schlägt das System Alarm.

Das der Vergleich mit dem Nirvana-Album aus dem Internet ist, macht den Vergleich nicht richtiger.
 
Mega-Bryte schrieb:
Und woher weiß der Algorithmus, wie meine Kinder aussehen und welche nicht meine sind?
Also ich will mal stark für dich hoffen, dass deine Kinder nicht in einer Datenbank voller Kinderpornos gelistet sind.
 
  • Gefällt mir
Reaktionen: getexact
Wenn auf Basis von Hashes gesucht wird, die bekannt sind, wie erkennt das System dann die neuen Bilder, die es finden soll?

Bezüglich Nirvana, nimm es wie ein Mann und mach nicht mich für das Cover verantwortlich. Es steht sinnbildlich für etwas, das in Zukunft eine weitergehende Durchsuchung und Meldung an Behörden erlaubt, wenn ich deren Vorgehen richtig interpretiere! Schließlich wird ja Apple dann zum Denunzianten und meldet ein mögliches Vergehen. Schön waren die Zeiten, als man noch von der Unschuldsvermutung ausging und nicht überall den dummen Satz hörte: "Wer nichts zu verbergen hat, muß nichts fürchten!"

Ich will es mal mit Volker Pispers ausdrücken: (sinngemäß, aus dem Programm "Bis Neulich")
Alkoholmißbrauch, also wird Alkohol verboten,
Drogenmißbrauch, Drogen werden verboten.
In letzter Zeit liest man immer wieder über Kindsmißbrauch ... o_O

Aber jetzt wo die Büchse der Pandora geöffnet scheint, wird die Onlinedurchsuchung sich ausbreiten wie eine Plage und wenn dann die Kriterien immer weiter angezogen werden, wonach man als böse gilt, was eigentlich mal als harmlos galt, werden sich hoffentlich alle daran erinnern, wie es zu Zeiten der geschlossenen Büchse war. Ich für meinen Teil würde solche Büchsen lieber zu lassen und nicht jedes bißchen Freiheit der Sicherheit opfern wollen. So sicher bekommt man das Leben nicht hin, dazu sind die Menschen gesellschaftlich nicht weit genug fortgeschritten und so sicher kann man nicht leben wollen, dass damit nicht auch Erinnerungen an schlimme Zeiten aufleben ... Überwachungsstaat.

Wehret den Anfängen!
Ergänzung ()

Tommy Hewitt schrieb:
Also ich will mal stark für dich hoffen, dass deine Kinder nicht in einer Datenbank voller Kinderpornos gelistet sind.
Diese Anspielung ist dumm.
 
Du hast eindeutig das System nicht verstanden. Bekannte Kinderpornografie, die im Netz kursiert, wird in eine Datenbank aufgenommen. Der Algorithmus gleicht die Hash-Werte eines Bildes mit den bekannten Pornografischen Inhalten der Datenbank ab. Gibt es einen Treffer, kriegst du einen Strike. Hast du XX Strikes, dann wird eine Person bei Apple die markierten Bilder sichten und schauen, ob es sich um einen Fehler handelt oder du tatsächlich Kinderpornografie in der iCloud hast. Je nachdem werden dann die Behörden verständigt.

Aber hier werden keine eigenen Kinderbilder und ein Albumfoto dazu führen, dass dieses System anschlägt.

Und mal ganz ehrlich, seit Jahren geht man gegen diese Menschen vor und trotzdem scheint es immer mehr dieser Menschen zu geben. Ich begrüße zu jederzeit weitere Maßnahmen um solchen Leuten an den Kragen zu gehen.

Wer da jetzt mit Datenschutz-Keule kommt, sollte einfach auf ein Smartphone verzichten.
 
  • Gefällt mir
Reaktionen: getexact
aldaric schrieb:
Du hast eindeutig das System nicht verstanden.
Ich vermute, dass genau das das Problem für die vielen Aufschreie ist. Das hätte Apple halt auch DAU Kompatibel kommunizieren sollen, dann wäre das ganze ggf. auch nicht so eskaliert.
Btw gehe ich auch davon aus, dass kaum jemand weiß, dass jegliche URL aufrufe als hashes zu google übertragen werden um auf malware zu prüfen. Zumindest bei Chrome und Firefox ist das by default aktiv.
 
Mega-Bryte schrieb:
Diese Anspielung ist dumm.
Dein ganzer vorhergegangener Beitrag ist gelinde gesagt "dumm", weil du immer noch konsequent ignorierst, wie das System arbeitet.

Es wurde dir bereits mehrfach erklärt und dennoch kommst du weiter mit Nevermind und deinen Kindern.
 
  • Gefällt mir
Reaktionen: getexact
aldaric schrieb:
Aber hier werden keine eigenen Kinderbilder und ein Albumfoto dazu führen, dass dieses System anschlägt.

Das würde ich nicht zu laut sagen.....

https://github.com/AsuharietYgvar/AppleNeuralHash2ONNX/issues/1#issue-973388387

Wie man sehen kann, kommt bei beiden Bildern genau das gleiche raus. Bekommt man nun also seine Hände an die CSAM Datenbank ist es sehr einfach Bilder zu fälschen und Leuten unterzuschieben. Auf dem Gerät werden nicht nur die "Fotos" gescannt sondern das gesamte OS ergo auch der Speicher in Safari und anderen Apps.

Klar Apple hat schon darauf geantwortet und sie sagen, dass sie ein Schutz gegen Kollisionen haben aber das glaube ich nicht, nachdem sowohl in den USA als auch der EU das ganze (erstmal) eingestellt wurde.
 
Zurück
Oben