Bilderkennung in Echtzeit 14.05.2018, 16:06 Uhr

Google Lens soll künftig bei der Websuche helfen

Künftig soll die Google Lens den Nutzer bei der Websuche unterstützen. Die Technologie erkennt mithilfe der Smartphone-Kamera Objekte und Texte in Echtzeit und durchsucht das Netz nach Informationen dazu.
(Quelle: tanuha2001 / shutterstock.com)
Google will die Smartphone-Kamera verstärkt zu einer Suchmaschine für die reale Welt machen. "Wir betrachten die Kamera als den neuen Browser, der die Umgebung mit einer smarten Schicht von Informationen versieht", sagte Google-Managerin Aparna Chennapragada am Rande der Entwicklerkonferenz Google I/O.
In Echtzeit erkennt die Technologie Objekte und durchsucht das Web nach weiterführenden Informationen dazu.
Quelle: Google
Menschen nutzten die Smartphone-Kamera bereits für alles mögliche vom Abfotografieren von Rechnungen bis hin zu Fotos von Anziehsachen oder Büchern, die man sich später vielleicht kaufen will. "Es ist ein fundamentaler Wandel im Umgang mit Computern - anstelle zu versuchen, sich in Worten auszudrücken, lässt man direkt Bilder sprechen." Die heutigen Abläufe dabei seien aber nicht so effizient, wie sie sein sollten, die Fotos verstaubten oft in den Geräten. "Was ist das für ein cooles Auto? Wo genau bin ich gerade?" - solche Fragen werde das Telefon direkt beantworten können, sagte Google-Manager Clay Bavor.

Weiterentwicklung der Google Lens

Der Internet-Konzern kündigte auf der Entwicklerkonferenz die Weiterentwicklung der Funktion Google Lens an, die zusätzliche Informationen ins Kamerabild auf dem Bildschirm einblendet. Sie ist jetzt auf etlichen Android-Smartphones verfügbar, kann Text erfassen und erkennt zum Beispiel Hunderassen oder kann Rezensionen zu Büchern anzeigen. Ausserdem können die Google-Karten auf die Kamera zurückgreifen, um den genauen Standort des Nutzers anhand der umliegenden Gebäude zu ermitteln.
Google habe zunächst einige sehr konkrete Anwendungen herausgesucht, um die Funktion zu etablieren, sagte Chennapragada. Eine Herausforderung dabei sei, wirklich relevante Informationen einzublenden. "Es ist nicht wirklich hilfreich, wenn man die Kamera auf etwas richtet und die Software sagt: Es ist eine Wasserflasche." Google löse dieses Problem so, dass zunächst verschiedene spezialisierte Programme ihr Wissen über den Inhalt eines Bildes beitragen - und dann ein übergeordnetes System entscheide, was davon für den Nutzer im Kontext der Situation wichtig sei, sagte Bavor.




Das könnte Sie auch interessieren