iphone-ticker.de — Alles zum iPhone. Seit 2007. 41 213 Artikel

Erweiterung für das Vision-Framework

iOS 26 erkennt ob euer Kameraobjektiv verschmutzt ist

Artikel auf Mastodon teilen.
32 Kommentare 32

Zu den zahlreichen kleinen Neuerungen, auf die Apple im Rahmen der Ankündigung von iOS 26 nicht näher eingegangen ist, gehört auch eine Funktion namens „Lens Cleaning Hints“.

Apple greift dabei auf Funktionen aus dem Bereich maschinelles Lernen zurück, um Verschmutzungen auf der Kameralinse zu erkennen. Die Software kann den Benutzer dann auf diesen Umstand hinweisen und ist dabei auch in der Lage, den Grad der Verschmutzung der Kamera auf einer Skala von 0,1 bis 1 zu bestimmen.

Lens Smudge

Beispielbilder: Apple

Die Analyse erfolgt unter Verwendung von maschinellen Lernfunktionen lokal auf dem iPhone. Dabei werden im Hintergrund mehrere vom Nutzer aufgenommene Bilder verglichen, um beispielsweise Schlieren auf der Linse zu erkennen, die durch eine ungewollte Berührung mit den Fingern entstanden sind.

Meldung ab bestimmtem Schwellwert

Die Möglichkeit zur Erkennung von Verschmutzungen auf der Kameralinse wurde in Apples Vision-Framework integriert und steht auf diesem Weg allen Entwicklern zur Verfügung, die ihre Apps um eine solche Funktion erweitern wollen.

Beispielsweise kann eine Kamera-App ihren Nutzer auf dieser Basis dazu anweisen, die Objektive zu reinigen, bevor man damit neue Bilder aufnimmt. Dabei entscheidet der Entwickler nicht nur ob, sondern auch wann eine solche Meldung angezeigt wird. Der Hinweis lässt sich mit einem bestimmten Grad der Verschmutzung verbinden. Dabei muss sich der Entwickler dafür entscheiden, ob er lieber einen sehr frühen Hinweis anzeigen will und damit verbunden die Gefahr von Falschmeldungen akzeptiert oder den Nutzer erst dann warnen will, wenn die Objektive definitiv verschmutzt und die Bildqualität bereits massiv nachgelassen hat.

Apps können auch Bildästhetik und -qualität abfragen

Das Vision-Framework von Apple steht Entwicklern seit mehreren Jahren zur Verfügung und bietet die Möglichkeit, auf interessante Funktionen im Zusammenhang mit der Fotos-App und der Nutzung der Kamera zuzugreifen. Beispielsweise kann man damit auch vorhandene Bilder auf ihre Ästhetik oder die Qualität von darauf abgebildeten Gesichtern untersuchen, was sich Anwendungen wie PhotoSort zunutze machen.

13. Juni 2025 um 12:18 Uhr von chris Fehler gefunden?


    Zum Absenden des Formulars muss Google reCAPTCHA geladen werden.
    Google reCAPTCHA Datenschutzerklärung

    Google reCAPTCHA laden

    32 Kommentare bisher. Dieser Unterhaltung fehlt Deine Stimme.
  • Interessante Linsenoberfläche. Dürften sehr altertümliche Bilder werden.

  • Endlich! Das ist echt eine super Funktion!! Wie oft muss ich immer wieder um neue Bilder fragen weil die Fotos ohne vorheriger Reinigung der Linse einfach gemacht wurden. Hoff die Sensibilität kann man auch einstellen! :D

  • Sowas erkennt man spätestens wenn man ein Foto machen will, ob die Linse verdreckt ist. Das Telefon wird so smart, dass der Mensch immer dümmer wird zu erkennen, wenn was dreckig ist

  • wenn es das iPhone erkennt, sehe ich es doch auch selbst.
    Solange ich es dann selbst sauber machen muss, ändert sich aus meiner Sicht nichts. Aber vielleicht sehe ich es falsch und es ist ein unglaublicher Mehrwert für den Fotografen.

  • Finde ich auch super. Wie oft schicken einem Leute Fotos wo man denkt die hätten gerade die Linse eingecremt :D

  • Mitdenken wird wohl offenkundig nicht mehr großgeschrieben.
    Es versteht sich doch eigentlich von selbst: wenn ich ein Foto schieße, vorher alle Begleitumstände für das beste Bildergebnis abzuchecken. Und da gehört auch ggf. eine Reinigung der Linsen zu.
    Vielleicht werde ich einfach zu alt für so etwas…

    • Gehe im Leben nie davon aus, das etwas für dich selbstverständliches, es auch für andere ist.

    • Es ist genau andersherum. Die Leute achten nicht auf die Linse und knipsen drauf los.
      Es ist schier erstaunlich wie viel das iPhone diverse Verschmutzungen ausgleichen kann.
      Ich habe schon bei so mancher iPhone Linse gedacht, damit kann kein Foto mehr gemacht werden und dennoch war ein vorher und nachher Vergleich weit weniger Dramatisch, wie ich mir das vorgestellt habe.
      So ein eingebauter Hinweis wird dabei auch nicht viel verändern, aber auf jeden Fall ist er sinnvoll. Bin gespannt wie oft er angezeigt wird.

    • Wer weiß woher dieser Feature Request kommt. Apple hat sich mit Braille beschäftigt, wer weiß. Vielleicht ist da irgendwann mal aufgefallen das Menschen mit schlechten Augen zwar durchaus Fotos machen können aber eben solche Details übersehen. Die Geräte werden immer inklusiver.

  • Das funktioniert aber doch gar nicht?
    Hab meine Linse heftig betatscht und das einzige was kam, war Akkustand niedrig.

  • Dieses Jahr haben sie sich echt an allen Ecken bei Samsung, Google und Co bedient :D

  • Bestes Feature für meine Mutter, vlt macht sie dann auch mal wieder Bilder die nicht aussehen wie eine Traumsequenz in einem französischen Arthouse Film.

  • Also auf dem iPhone 14 pro Max geht das nicht. Menüpunkt wird mir nicht angeboten.

  • Für die alten Säcke unter uns: wenn die Aufnahmen wie bei Bilitis aussehen, Linse säubern. :-D

  • bei meiner nikon f3 ( vielleicht weiß noch jemand was das ist )
    gibt es auch keine anzeige für verschmutzte linse !

  • Redet mit. Seid nett zueinander!

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

    ifun.de ist das dienstälteste europäische Onlineportal rund um Apples Lifestyle-Produkte.
    Wir informieren täglich über Aktuelles und Interessantes aus der Welt rund um iPhone, iPad, Mac und sonstige Dinge, die uns gefallen.
    Insgesamt haben wir 41213 Artikel in den vergangenen 6496 Tagen veröffentlicht. Und es werden täglich mehr.
    ifun.de — Love it or leave it   ·   Copyright © 2025 aketo GmbH   ·   Impressum   ·   Cookie Einstellungen   ·   Datenschutz   ·   Safari-Push aketo GmbH Powered by SysEleven