Tech-News-Technologie

Google I/O 2019: AR-Suchergebnisse, Google Lens bekommt neue Funktionen

Google hat angekündigt, neue Funktionen im Google Lens zusammen mit Augmented-Reality-basierten Suchergebnissen über die Google-Suche einzuführen.

google objektiv, google suche, google ar, erweiterte realität, ar-suchergebnis, google ar-suche, google-augmented-reality-suchergebnisse, google linsenübersetzungen, google linse neue funktionen, google linse scannen text, linsentext lesenGoogle hat auf der Google I/O neue Funktionen für die Google-Suche und Google Lens angekündigt. (Bildquelle: Google)

Auf der Google I/O-Entwicklerkonferenz kündigte das Unternehmen an, 3D- und Augmented Reality (AR)-Erlebnisse in die Suchergebnisse einzubringen. Es kündigte auch neue Funktionen für die Lens-Funktion an, die das Übersetzen von Text in Echtzeit und das Anzeigen beliebter Gerichte aus der Speisekarte eines Restaurants umfasst.

Google sagt, dass neue Funktionen in der Suche und Google Lens die Kamera, Computer Vision und Augmented Reality verwenden, um Informationen über die physische Umgebung zu legen. Durch die Einbeziehung von AR in die Google-Suche können Benutzer die 3D-Objekte direkt von der Suche aus in der physischen Welt anzeigen und platzieren, wodurch ein Gefühl für Maßstab und Detail entsteht. Es ermöglicht auch die Interaktion mit den 3D-Modellen von Artikeln, die Sie über das Internet kaufen möchten.

Wenn Benutzer beispielsweise nach einem Tier suchen, gibt es direkt im Knowledge Panel eine Option, um es in 3D und AR anzuzeigen. Google sagt, dass es mit Partnern wie NASA, New Balance, Samsung, Target, Visible Body, Volvo, Wayfair und anderen zusammenarbeitet, um ihre eigenen Inhalte in der Suche anzuzeigen. Die neue AR-Funktion in der Google-Suche wird noch in diesem Monat eingeführt.



In seinem Blogbeitrag sagt Google, dass es Lens weiterentwickelt, um visuellere Antworten auf visuelle Fragen zu geben. Wenn eine Person beispielsweise die Speisekarte eines Restaurants mit Google Lens scannt, wird hervorgehoben, welche Gerichte beliebt sind – direkt auf der physischen Speisekarte. Wenn Sie auf ein Gericht tippen, können Sie sehen, wie es tatsächlich aussieht und was die Leute dazu sagen.

Lesen Sie auch | Google I/O 2019: Nest Hub Max mit 10-Zoll-Display, integrierter Kamera vorgestellt

Eine weitere neue Funktion in Google Lens ist die Spracherkennung und -übersetzung in Echtzeit. Wenn eine Person die Kamera auf Text richtet, erkennt Lens automatisch die Sprache und überlagert die Übersetzung direkt über die Originalwörter. Es wird in der Lage sein, mehr als 100 Sprachen zu erkennen und zu übersetzen. Benutzer können auch lernen, wie man ein Gericht zubereitet, wenn sie die Linse darauf richten.

Darüber hinaus hat Google angekündigt, dass das Objektiv auch Text vorlesen kann, den Sie durch die Kamera scannen. Die Funktion wird zuerst in Google Go eingeführt, der Such-App für das Betriebssystem Android Go. Das Objektiv in Google Go ist nach Angaben des Unternehmens etwas mehr als 100 KB groß und funktioniert mit Telefonen, die weniger als 50 US-Dollar kosten. Laut Google soll diese Funktion von mehr Menschen genutzt werden, die gerade erst mit ihrem ersten Smartphone beginnen und Texte in anderen Sprachen lesen möchten.