Vorerst nur englischsprachig
Google Lens: Die Pixel-Funktion kommt auf das iPhone
Der Suchmaschinen-Betreiber Google wird seine intelligente Foto-Auswertung, die als Alleinstellungsmerkmal der Pixel-Smartphones im November 2017 lancierte Funktion „Google Lens“ demnächst auch auf anderen Android-Telefonen und auf dem iPhone anbieten.
Google Lens startete als Erweiterung für Googles Siri-Konkurrenz, den sogenannten Google Assistent, und kombinierte mehrere Foto-Funktionen, die durch maschinelles Lernen und intelligente Bildauswertung deutlich bessere Ergebnisse liefern sollten, als die bereits am Markt verfügbaren Produkte.
So kann Google Lens nach Informationen in bereis aufgenommenen Motiven suchen, Visitenkarten Scannen, Internetadressen folgen, Telefonnummern wählen oder Navigationsziele eingeben.
Google Lens versteht sich zudem auf das Erkennen von Barcodes und QR-Codes, soll beim Entdecken neuer Umgebungen zur Hand gehen indem Sehenswürdigkeiten identifiziert und historische Infos automatisiert abgerufen werden und kann abfotografierte Filmposter, Bücher und Kunstwerke um ausführliche Infos zum Maler und Autor bzw. um einen Film-Trailer ergänzen.
Funktionen, die fortan auch auf dem iPhone über Googles offizielle Fotos-App abrufbar sein sollen:
Mit Google Lens kann eure Smartphone-Kamera helfen, die Welt um euch herum besser zu verstehen. In den kommenden Wochen erweitern wir daher die Verfügbarkeit der Preview-Version. Mit Google Lens in Google Fotos könnt ihr mehr Informationen über die Inhalte eurer Fotos erhalten. Google Lens steht für alle Nutzer der englischsprachigen Version von Google Fotos mit der neuesten Version der App auf Android und iOS zur Verfügung. In den kommenden Wochen können Nutzer der englischsprachigen Version auf kompatiblen Geräten ebenfalls das kamerabasierte Google Lens im Google Assistant erleben. Schon bald werden wir weitere Geräte unterstützen.