{"id":127395,"date":"2018-06-14T18:26:01","date_gmt":"2018-06-14T16:26:01","guid":{"rendered":"https:\/\/www.iphone-ticker.de\/?p=127395"},"modified":"2018-06-14T18:28:57","modified_gmt":"2018-06-14T16:28:57","slug":"arkit-2-apple-baut-gesichts-tracking-massiv-aus","status":"publish","type":"post","link":"https:\/\/www.iphone-ticker.de\/arkit-2-apple-baut-gesichts-tracking-massiv-aus-127395\/","title":{"rendered":"ARKit 2: Apple baut Gesichts-Tracking massiv aus"},"content":{"rendered":"<p>Schon zu seinem Deb\u00fct in iOS 11 verf\u00fcgte Apples Augmented Reality-Framework ARKit \u00fcber umfangreiche Gesichts-Tracking-Funktionen. Sind die iPhone-Sensoren beim Einsatz entsprechender Apps scharf geschaltet, erkennt ARKit schon jetzt ganze 50 Gesichtseigenschaften, aus denen sich Gesichtsausdr\u00fccke extrapolieren lassen. Ist das linke Auge ge\u00f6ffnet? Ist der rechte Mundwinkel angezogen? <\/p>\n<p><a href=\"https:\/\/images.iphone-ticker.de\/wp-content\/uploads\/2018\/06\/arkit-gesichtsausdruck.gif\"><img decoding=\"async\" src=\"https:\/\/images.iphone-ticker.de\/wp-content\/uploads\/2018\/06\/arkit-gesichtsausdruck.gif\" alt=\"Arkit Gesichtsausdruck\" width=\"500\" class=\"aligncenter size-full wp-image-127397\" \/><\/a><\/p>\n<p>Funktionen die Apple zuletzt Kritik <a href=\"https:\/\/www.iphone-ticker.de\/duestere-werbe-dystopie-snowden-kritisiert-gesichtserkennung-119669\/\">von Snowden eingehandelt<\/a> und daf\u00fcr gesorgt haben, dass Entwickler jetzt eine zus\u00e4tzliche Datenschutz-Erkl\u00e4rung <a href=\"https:\/\/www.iphone-ticker.de\/gesichtsdaten-entwickler-muessen-datenschutz-erklaerungen-nachreichen-119783\/\">zeichnen m\u00fcssen<\/a>.<\/p>\n<p>Nur selten im Einsatz, wird das von ARKit bereitgestellte Gesichts-Tracking etwa vorausgesetzt um den Einsatz der im vergangenen Jahre demonstrierten Snapchat-Masken zu erm\u00f6glichen. Nur durch die von Apple bereitgestellte, genaue Erfassung des Gesichtes und die beinahe latenzfreie Verfolgung der Muskelbewegungen lassen sich die Snapchat-Masken und Animoji-Charaktere \u00fcberhaupt ordentlich animieren. <\/p>\n<p>Zusammen mit iOS 12 wird Apple im Herbst ARKit 2 ausliefern und die Gesichts-Tracking-Kapazit\u00e4ten dann erneut ausbauen. <\/p>\n<h2>Augen- und Zungenerkennung <\/h2>\n<p>Neben der auf der WWDC-B\u00fchne besprochenen Zungen-Erkennung wird ARKit 2 in iOS 12 erstmals das Tracking der aktuellen Blickrichtung unterst\u00fctzen. Sowohl die von beiden Augen im Verbund als auch die Einzel-Blickrichtungen f\u00fcr das rechte und das linke Auge. <\/p>\n<p>Daten, die Entwickler anschlie\u00dfend sowohl zur Animation von eigenen Emojis oder Masken nutzen k\u00f6nnen, die sich aber auch zur App-Steuerung einsetzen lassen. Wie k\u00f6nnten in unserer neuen App etwa die Favoriten-Funktion aktivieren, sobald eine herausgestreckte Zunge erkannt wird (was wir nicht vorhaben). <\/p>\n<blockquote class=\"twitter-tweet\" data-lang=\"de\">\n<p lang=\"en\" dir=\"ltr\">Control your iPhone with your eyes. Just look at a button to select it and blink to press. Powered by ARKit 2. <a href=\"https:\/\/twitter.com\/hashtag\/ARKit?src=hash&amp;ref_src=twsrc%5Etfw\">#ARKit<\/a> <a href=\"https:\/\/twitter.com\/hashtag\/ARKit2?src=hash&amp;ref_src=twsrc%5Etfw\">#ARKit2<\/a> <a href=\"https:\/\/twitter.com\/hashtag\/WWDC?src=hash&amp;ref_src=twsrc%5Etfw\">#WWDC<\/a> <a href=\"https:\/\/twitter.com\/hashtag\/iOS?src=hash&amp;ref_src=twsrc%5Etfw\">#iOS<\/a> <a href=\"https:\/\/t.co\/ow8TwEkC8J\">pic.twitter.com\/ow8TwEkC8J<\/a><\/p>\n<p>&mdash; Matt Moss (@thefuturematt) <a href=\"https:\/\/twitter.com\/thefuturematt\/status\/1004821303486906369?ref_src=twsrc%5Etfw\">7. Juni 2018<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<p>Der Entwickler Matt Moss zeigt die Nutzung der neuen ARKit-Feature im eingebetteten <a href=\"https:\/\/twitter.com\/thefuturematt\/status\/1004821303486906369\">Tweet<\/a> &#8211; der Bau einer komplett von den Augen des Anwenders gesteuerten App, ist mit ARKit 2 jetzt ohne Weiteres m\u00f6glich. Apple selbst erkl\u00e4rt die neuen Funktionen im <a href=\"https:\/\/developer.apple.com\/videos\/play\/wwdc2018\/602\">WWDC-Vortrag 602<\/a> &#8222;What\u2019s New in ARKit 2&#8220;.<\/p>\n","protected":false},"excerpt":{"rendered":"<a href=\"https:\/\/www.iphone-ticker.de\/arkit-2-apple-baut-gesichts-tracking-massiv-aus-127395\/\"><img width=\"150\" height=\"150\" src=\"https:\/\/images.iphone-ticker.de\/wp-content\/uploads\/2018\/06\/arkit-gesichtsausdruck-150x150.gif\" class=\"alignright tfe wp-post-image\" alt=\"Arkit Gesichtsausdruck\" decoding=\"async\" loading=\"lazy\" \/><\/a><p>Schon zu seinem Deb\u00fct in iOS 11 verf\u00fcgte Apples Augmented Reality-Framework ARKit \u00fcber umfangreiche Gesichts-Tracking-Funktionen. Sind die iPhone-Sensoren beim Einsatz entsprechender Apps scharf geschaltet, erkennt ARKit schon jetzt ganze 50 Gesichtseigenschaften, aus denen sich Gesichtsausdr\u00fccke extrapolieren lassen. Ist das linke Auge ge\u00f6ffnet? Ist der rechte Mundwinkel angezogen? Funktionen die Apple zuletzt Kritik von Snowden eingehandelt [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":127397,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[639],"tags":[3964,4230,4364],"class_list":["post-127395","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ios","tag-arkit","tag-ios-12","tag-neu-in-ios-12"],"aioseo_notices":[],"subheadline":["Augen-, Blick- und Zungenerkennung"],"featured_image":["https:\/\/images.iphone-ticker.de\/wp-content\/uploads\/2017\/10\/face-id.jpg"],"rest_api_enabler":{"subheadline":"Augen-, Blick- und Zungenerkennung","featured_image":"https:\/\/images.iphone-ticker.de\/wp-content\/uploads\/2017\/10\/face-id.jpg"},"_links":{"self":[{"href":"https:\/\/www.iphone-ticker.de\/apiv2\/wp\/v2\/posts\/127395","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.iphone-ticker.de\/apiv2\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.iphone-ticker.de\/apiv2\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.iphone-ticker.de\/apiv2\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.iphone-ticker.de\/apiv2\/wp\/v2\/comments?post=127395"}],"version-history":[{"count":3,"href":"https:\/\/www.iphone-ticker.de\/apiv2\/wp\/v2\/posts\/127395\/revisions"}],"predecessor-version":[{"id":127399,"href":"https:\/\/www.iphone-ticker.de\/apiv2\/wp\/v2\/posts\/127395\/revisions\/127399"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.iphone-ticker.de\/apiv2\/wp\/v2\/media\/127397"}],"wp:attachment":[{"href":"https:\/\/www.iphone-ticker.de\/apiv2\/wp\/v2\/media?parent=127395"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.iphone-ticker.de\/apiv2\/wp\/v2\/categories?post=127395"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.iphone-ticker.de\/apiv2\/wp\/v2\/tags?post=127395"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}