{"id":258217,"date":"2025-06-13T12:18:34","date_gmt":"2025-06-13T10:18:34","guid":{"rendered":"https:\/\/www.iphone-ticker.de\/?p=258217"},"modified":"2025-06-23T18:27:31","modified_gmt":"2025-06-23T16:27:31","slug":"ios-26-erkennt-ob-euer-kameraobjektiv-verschmutzt-ist","status":"publish","type":"post","link":"https:\/\/www.iphone-ticker.de\/ios-26-erkennt-ob-euer-kameraobjektiv-verschmutzt-ist-258217\/","title":{"rendered":"iOS 26 erkennt ob euer Kameraobjektiv verschmutzt ist"},"content":{"rendered":"<p>Zu den zahlreichen kleinen Neuerungen, auf die Apple im Rahmen der Ank\u00fcndigung von iOS 26 nicht n\u00e4her eingegangen ist, geh\u00f6rt auch eine Funktion namens \u201eLens Cleaning Hints\u201c.<\/p>\n<p>Apple greift dabei auf Funktionen aus dem Bereich maschinelles Lernen zur\u00fcck, um Verschmutzungen auf der Kameralinse zu erkennen. Die Software kann den Benutzer dann auf diesen Umstand hinweisen und ist dabei auch in der Lage, den Grad der Verschmutzung der Kamera auf einer Skala von 0,1 bis 1 zu bestimmen.<\/p>\n<p><a href=\"https:\/\/images.iphone-ticker.de\/wp-content\/uploads\/2025\/06\/lens-smudge.jpg\"><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/images.iphone-ticker.de\/wp-content\/uploads\/2025\/06\/lens-smudge-700x440.jpg\" alt=\"Lens Smudge\" width=\"700\" height=\"440\" class=\"alignnone size-large wp-image-258220\" srcset=\"https:\/\/images.iphone-ticker.de\/wp-content\/uploads\/2025\/06\/lens-smudge-700x440.jpg 700w, https:\/\/images.iphone-ticker.de\/wp-content\/uploads\/2025\/06\/lens-smudge-500x314.jpg 500w, https:\/\/images.iphone-ticker.de\/wp-content\/uploads\/2025\/06\/lens-smudge.jpg 1400w\" sizes=\"auto, (max-width: 700px) 100vw, 700px\" \/><\/a><\/p>\n<h6>Beispielbilder: Apple<\/h6>\n<p>Die Analyse erfolgt unter Verwendung von maschinellen Lernfunktionen lokal auf dem iPhone. Dabei werden im Hintergrund mehrere vom Nutzer aufgenommene Bilder verglichen, um beispielsweise Schlieren auf der Linse zu erkennen, die durch eine ungewollte Ber\u00fchrung mit den Fingern entstanden sind.<\/p>\n<h2>Meldung ab bestimmtem Schwellwert<\/h2>\n<p>Die M\u00f6glichkeit zur Erkennung von Verschmutzungen auf der Kameralinse wurde in Apples Vision-Framework integriert und steht auf diesem Weg allen Entwicklern zur Verf\u00fcgung, die ihre Apps um eine solche Funktion erweitern wollen.<\/p>\n<p>Beispielsweise kann eine Kamera-App ihren Nutzer auf dieser Basis dazu anweisen, die Objektive zu reinigen, bevor man damit neue Bilder aufnimmt. Dabei entscheidet der Entwickler nicht nur ob, sondern auch wann eine solche Meldung angezeigt wird. Der Hinweis l\u00e4sst sich mit einem bestimmten Grad der Verschmutzung verbinden. Dabei muss sich der Entwickler daf\u00fcr entscheiden, ob er lieber einen sehr fr\u00fchen Hinweis anzeigen will und damit verbunden die Gefahr von Falschmeldungen akzeptiert oder den Nutzer erst dann warnen will, wenn die Objektive definitiv verschmutzt und die Bildqualit\u00e4t bereits massiv nachgelassen hat.<\/p>\n<h2>Apps k\u00f6nnen auch Bild\u00e4sthetik und -qualit\u00e4t abfragen<\/h2>\n<p>Das Vision-Framework von Apple steht Entwicklern seit mehreren Jahren zur Verf\u00fcgung und bietet die M\u00f6glichkeit, auf interessante Funktionen im Zusammenhang mit der Fotos-App und der Nutzung der Kamera zuzugreifen. Beispielsweise kann man damit auch vorhandene Bilder auf ihre \u00c4sthetik oder die Qualit\u00e4t von darauf abgebildeten Gesichtern untersuchen, was sich Anwendungen wie <a href=\"https:\/\/www.ifun.de\/photosort-sortiert-eure-fotos-nach-groesse-und-qualitaet-247432\/\" title=\"PhotoSort sortiert eure Fotos nach Gr\u00f6\u00dfe und Qualit\u00e4t\">PhotoSort<\/a> zunutze machen.<img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/vg01.met.vgwort.de\/na\/4aa96894969f4a319c3d0e396ece19d7\" width=\"1\" height=\"1\" no-lazy class=\"tracking\"><\/p>\n","protected":false},"excerpt":{"rendered":"<a href=\"https:\/\/www.iphone-ticker.de\/ios-26-erkennt-ob-euer-kameraobjektiv-verschmutzt-ist-258217\/\"><img width=\"150\" height=\"150\" src=\"https:\/\/images.iphone-ticker.de\/wp-content\/uploads\/2025\/06\/lens-smudge-150x150.jpg\" class=\"alignright tfe wp-post-image\" alt=\"Lens Smudge\" decoding=\"async\" loading=\"lazy\" \/><\/a><p>Zu den zahlreichen kleinen Neuerungen, auf die Apple im Rahmen der Ank\u00fcndigung von iOS 26 nicht n\u00e4her eingegangen ist, geh\u00f6rt auch eine Funktion namens \u201eLens Cleaning Hints\u201c. Apple greift dabei auf Funktionen aus dem Bereich maschinelles Lernen zur\u00fcck, um Verschmutzungen auf der Kameralinse zu erkennen. Die Software kann den Benutzer dann auf diesen Umstand hinweisen [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":258220,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[88,1975],"tags":[139,7140],"class_list":["post-258217","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-entwickler","category-feature","tag-kamera","tag-neu-in-ios-26"],"aioseo_notices":[],"subheadline":["Erweiterung f\u00fcr das Vision-Framework"],"featured_image":["https:\/\/images.iphone-ticker.de\/wp-content\/uploads\/2025\/06\/lens-smudge-feature.jpg"],"rest_api_enabler":{"subheadline":"Erweiterung f\u00fcr das Vision-Framework","featured_image":"https:\/\/images.iphone-ticker.de\/wp-content\/uploads\/2025\/06\/lens-smudge-feature.jpg"},"_links":{"self":[{"href":"https:\/\/www.iphone-ticker.de\/apiv2\/wp\/v2\/posts\/258217","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.iphone-ticker.de\/apiv2\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.iphone-ticker.de\/apiv2\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.iphone-ticker.de\/apiv2\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.iphone-ticker.de\/apiv2\/wp\/v2\/comments?post=258217"}],"version-history":[{"count":2,"href":"https:\/\/www.iphone-ticker.de\/apiv2\/wp\/v2\/posts\/258217\/revisions"}],"predecessor-version":[{"id":258222,"href":"https:\/\/www.iphone-ticker.de\/apiv2\/wp\/v2\/posts\/258217\/revisions\/258222"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.iphone-ticker.de\/apiv2\/wp\/v2\/media\/258220"}],"wp:attachment":[{"href":"https:\/\/www.iphone-ticker.de\/apiv2\/wp\/v2\/media?parent=258217"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.iphone-ticker.de\/apiv2\/wp\/v2\/categories?post=258217"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.iphone-ticker.de\/apiv2\/wp\/v2\/tags?post=258217"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}