AI’er vil google ting for dig, svare på spørgsmål om dine emails, opdatere din adresse hos alle tjenesterne, når du flytter, arrangere dine rejser og madplaner, og foretage dataanalyser for dig i Google Sheets.
Google afholder i dag og i morgen deres udviklerkonference, Google I/O. Det betyder nyheder på især to fronter, der begge begynder med A: AI og Android.
Når det gælder AI-delen har Google afsløret, at Gemini Advanced nu er klar på dansk, hvilket omfatter et slags svar på OpenAIs individualiserede GPT’er, som Google kalder Gems. Der bliver også mulighed for at spørge direkte i Google Photos, hvor du f.eks. kan stille spørgsmål som hvordan dit barns svømmeevner har udviklet sig over tid. Det kan du læse mere om i vores nyhed fra tidligere på dagen.
Men disse nyheder skøjter kun på tværs af overfladen, når det gælder Googles nyheder for AI generelt, Gemini specifikt, og hvad der er på vej.
Googles nye hovedfokus er helt klart AI-agenter. Under hele åbningskeynoten blev der løbende refereret til at disse agenter, der i princippet er virtuelle robotter, der arbejder for dig. Hvor en ”assistent” hjælper dig med at gøre ting, handler en ”agent” på dine vegne – akkurat som ude i virkeligheden.
Til denne brug har Google skabt Gemini 1.5 Flash, en version af Gemini, der er hurtig nok til at føre en fornuftig samtale. Men den kan også udføre en række agent-opgaver baseret på en enkelt prompt. Som eksempel nævnte Google at den kan automatisk opdatere din adresse på tværs af en række tjenester og websites, hvis du flytter. Eller hvis du vil returnere en vare, du har købt på nettet, kan den finde kvitteringen i din email, udfylde en returblanket og bestille en kurér til at afhente varen.
”Dine briller ligger på skrivebordet”
For at bringe den slags agentiske aktiviteter længere ind i fremtiden har Google skabt Project Astra, der er en universel AI-agent der skal kunne bruges til at både gøre ting for dig og hjælpe dig i dagligdagen. Google fremviste en ret imponerende demo-video af Project Astra, hvor agenten kan holde en meget menneskelig samtale gående, selv om den bliver afbrudt (ligesom OpenAIs nye GPT-4o-model, som vi skev om i går).
Men derudover kan Project Astra-agenten også gnidningsløst identificere og forklare ting baseret på hvad du peger dit smartphonekamera i retning af, også når det er ting, der kræver at den ræsonnerer over, hvad den ser. Det måske mest brugbare er, at den ved at analysere, hvad den ser, kan minde dig om, hvor du f.eks. har lagt dine briller. Google viste i øvrigt, hvordan det virker i smartbriller med indbygget kamera.
Den nye fokus på agenter kan også findes i Googles kerneforretning, nemlig søgning. Her bliver Gemini nu endnu tættere integreret. Den opsummerings-funktion, som Googles betatestere nu har haft adgang til i nogle måneder, bliver nu rullet ud til alle i USA og til det meste af resten af verden, hvor Google er aktiv, inden året er omme.
Funktionen er ret praktisk. Ud over at levere en opsummering af fakta fra de mest populære søgeresultater, organiserer Gemini også søgeresultaterne i nyttige kategorier med billeder, videoer med mere. Det agentiske består i at du ved at spørge i søgefeltet kan lade Gemini planlægge alt fra rejser til ugens madlavning i stedet for at skulle gennemtrevle alle søgeresultaterne selv.
Søg med dit eget sprog (eller video) i stedet for keywords
Den overordnede pointe er at Google nu klart forstår, at folk hellere vil stille det spørgsmål, de søger information om, end rent faktisk at søge informationen i håb om at få svar. Folk vil hellere bruge deres naturlige sprog end keywords. Som Google selv siger det, vil folk fremover lade ”google do the googling”. Det inkluderer også at stille spørgsmål med stemmen over en video, du optager med smartphonekameraet, såsom hvordan du f.eks. reparerer et eller andet.
Gemini bliver nu også for alvor integreret i Googles Workspace-apps, mere end hvad der blev lovet på I/O sidste år. Det betyder, at alle nu får adgang til det såkaldte Smart Panel, der huser AI-funktionerne i Docs, Sheets, m.v.
Derudover kan du stille spørgsmål til din Gmail i stedet for at søge efter en email med information. Hvis du f.eks. gerne vil vide, hvad booking-koden på din flyreservation er, eller hvornår dørene åbner til den koncert, du skal til, kan du bare spørge Gmail i dit eget sprog, hvorefter den svarer direkte.
På samme måde kan du bede Gemini gennemsøge din Gmail for kvitteringer, putte dem alle i en særlig folder, og oprette et regneark med dem alle i – alt sammen i en enkelt prompt, som Gemini så selv bryder ned i separate opgaver. Den vil så komme op og spørge, om du vil have at den tilføjer alle kommende kvitteringer automatisk.
Virtuelt holdmedlem
Smart Reply forstår nu også kontekst bedre og kan give dig forskellige svarmuligheder baseret på længere email-tråde. Og endelig kan Gemini foretage data-analyse for dig Google Sheets, noget der ikke har fungeret ret godt indtil videre. Nogle af disse funktioner kommer allerede i denne måned til betatesterne, mens andre først dukker op til september.
Google kiggede også frem til 2025, hvor de forventer at lancere en virtuel, Gemini-baseret AI-”teammate”, der kan lære af alle interaktionerne af menneskerne på holdet og så agere som et slags robot-holdmedlem, der kan udføre opgaver på vegne af de andre på holdet.
Det skal også nævnes, at Google har nye kreative, generative AI-modeller klar. Der er for eksempel Imagen 3, der skal tage konkurrencen op med de nyeste DALL-E-modeller fra OpenAI og Stable Diffusion 3. Der er en Musik-AI, der blandt andet via YouTube giver mulighed for at autogenerere musik. Og endelig er der en ny video-model, Veo, som Donald Glover har testet i et projekt, og som skal konkurrere med Sora fra OpenAI.
De fleste af disse mange nye funktioner bliver også tilgængelig på mobilen i form af Gemini-app’en.