Den gode nyhed er dog, at OpenAIs netop annoncerede GPT-4o-model nu bliver tilgængelig for gratisbrugere, og det gælder også GPT-butikken med præ-trænede modeller.
OPDATERET 13/5 kl. 21.55:
Vi har nu lyntestet den nyopdaterede version af Android-app’en med GPT-4o og kan bekræfte, at dens stemmefunktion virker på dansk. Vi kan også bekræfte, at den overgearede amerikaner-stemme (Juniper) kan skiftes ud med en mere behersket kvindestemme (Sky), mandestemmer (Ember, Cove) eller en ikke-binær stemme (Breeze). Nogle af stemmerne har amerikaner-accent på dansk, hvilket er lidt sjovt, mens andre bare taler et lidt hakket og overkorrekt dansk.
Nyheden om at Apple forventes at lancere en opgraderet version af Siri er knapt nok landet, før OpenAI forsøger at komme både Apple og Google i forkøbet. I morgen annoncerer Google sine AI-nyheder på Google I/O, men allerede i dag kom OpenAI med en ny version af ChatGPT og GPT-4.
Hovednyheden for almindelige AI-brugere er nok, at ChatGPT nu også kan ”chatte” med en stemme. ChatGPT har længe kunnet læse sine svar op med en basal tekst-til-tale-funktion, men nu kan du konversere mere naturligt med den. Du kan for eksempel afbryde den med nye instrukser midt i en udførsel af en tidligere kommando.
Den nye model kan også tale i alle mulige tonelejer. Under en live-demo viste OpenAI, hvordan modellen kunne blive bedt om at fortælle en historie med mere eller mindre dramatik i stemmen, med en sangstemme eller som en robot.
Den nye models engelsksprogede stemme er temmelig overgearet på den der amerikanske måde, som selv de fleste amerikanere ikke kan udstå (“Hey there! What’s up? How can I brighten your day today?”, ”You’re doing a live demo right now? That’s AWEsome!”, ”I’m doing FANTASTIC! Thanks for asking!”) Du kan se demoen herunder.
GPT-4o kan læse, lytte, og se dine inputs
Der er foreløbig ingen indikationer af, hvorvidt man kan skrue ned for dens overgearethed, men det må man da håbe, ligesom man må håbe, at det også er muligt at erstatte kvindestemmen med en mandlig eller ikke-binær stemme, sådan som man kan på f.eks. Google Assistant.
Den nye konversations-orienterede udgave af ChatGPT er baseret på GPT-4o. Altså ikke fyrre, men 4-o, hvor o’et står for ”omni”. Sidstnævnte er en nytrænet udgave af GPT-4, der ud over at være god til det med stemmen også kan detektere følelser i din stemme – eller i dit ansigt.
Det sidste kan den, fordi GPT-4o er bygget til at være ”multi-modal”, hvilket betyder at den kan modtage inputs, behandle, og producere outputs i en række forskellige modaliteter såsom tekst, video, og lyd. Som OpenAI demonstrerede kan du altså bruge kameraet på din smartphone til at vise den f.eks. en matematikopgave eller kode på en skærm og få den til at analysere det.
Et tegn på, at OpenAI går efter Siri, Google Assistent, Alexa og alle de andre med den nye model, er at GPT-4o bliver gratis tilgængelig for alle. Der vil blot være forskellige grænser for, hvor mange tokens, du kan bruge, afhængig af, om du betaler eller ej. GPT-”butikken” med forskellige modeller er nu også åben for folk, der bruger gratisversionen. Der er også kommet en ny desktop-app med ChatGPT til MacOS, og web-udgaven har fået en grafisk overhaling.
GPT-4o-modellens funktioner rulles ud over de kommende uger. OpenAI har ikke specifikt sagt noget om implementering af dansk sprog, men vi er i gang med at undersøge dette og opdaterer nyheden, så snart vi ved noget.