Google har i dag lanceret en ny funktion i AI-tjenesten Gemini, som gør det muligt at bruge telefonens kamera og skærm til at tale direkte med AI’en. Funktionen er tilgængelig på Android-telefoner.
Med den nye funktion kan brugeren pege telefonens kamera mod et objekt og stille spørgsmål direkte. Det kan for eksempel være hjælp til et tilstoppet afløb, valg af tøj eller identifikation af problemer med stueplanter.
Funktionen er en del af Gemini Live og kan findes som en knap ved siden af søgefeltet i app’en. Brugeren kan føre samtaler i realtid med AI’en baseret på det, kameraet viser, eller det, der vises på telefonskærmen.
Kamerafunktionen kan bruges til meget mere end husholdningsproblemer. Den kan også give forslag til mad baseret på rester i køleskabet eller anbefale en restaurant i nærheden baseret på brugerens placering.
Gratis for udvalgte enheder
Funktionen er gratis og tilgængelig på Googles Pixel 9-telefoner og Samsung S25-enheder. Andre Android-brugere skal have et Gemini Advanced-abonnement. iOS-brugere har endnu ikke adgang til funktionen.