Apples bud på en AI-stemmeløsning handler om at hjælpe folk med nedsat talefunktion, men kan sikkert også bruges til meget andet.
Siden den generative AI-bølge startede for alvor sidste år, har der været en hel del gang i at træne AI’er til at tale med levende personers stemmer. Det er mest gået op i sjov og ballade, som f.eks. at bruge rapperen Drakes stemme på andre folks rap-tracks. I et enkelt tilfælde er det blevet til et populært hit, hvor Drakes og the Weekends stemmer blev brugt via AI.
Men der er naturligvis også en mere praktisk anvendelsesform til denne teknologi. Og den har Apple slået kløerne i. Apple vil nemlig give iPhone muligheden for at tale på vegne af brugeren med vedkommendes egen stemme.
Der er et væld af situationer, hvor dette kan være nyttigt, men ikke overraskende er teknologien tiltænkt folk med diverse former for handicap. Især folk med nedsat talefunktion vil finde teknologien nyttig, hvad enten der er tale om mennesker med kognitiv funktionsnedsættelse, folk med mere fysiske skader, eller noget helt tredje.
Det kan for eksempel være svært for stammere at begynde telefonsamtaler, fordi personen i den anden ende ikke nødvendigvis er klar over, at opkalderen er stammer. En AI, der lyder præcis som ejeren af iPhonen, kan hjælpe med at overkomme denne akavede situation.
Du skriver, iPhone taler
Måske det mest interessante ved den nye funktion rent teknisk er at det kun tager 15 minutter at træne AI’en til at lyde som iPhonens ejer. Brugeren skal simpelthen blot læse en række sætninger og ord op fra skærmen i et kvarters tid, og så er AI’en angiveligt klar. Dermed kan f.eks. en stammer tage sig god tid til at få træningsordene til at lande, og så bruge funktionen efterfølgende.
Vi skriver ’angiveligt’, fordi vi stadig skal vente lidt endnu på at ’Personal Voice’, som funktionen hedder, lander på iPhone. Apple har bekræftet denne og andre funktioner som en del af en funktionspakke, der bl.a. giver assistance til kognitivt udfordrede brugere. Apple skriver, at pakken kommer ”senere i år”, så der er nok en god chance for at den dukker op i iOS 17, og vi ser pakken officielt præsenteret på WWDC.
Samlet set gør den kognitive assistancepakke tingene meget simplere at bruge ved at destillere brugerfladen ned til kernefunktionerne. Det ligner faktisk noget, folk uden kognitive vanskeligheder også fint kan bruge, hvis de kan lide simpelhed i brugerinterfaces. På samme måde vil mange af de andre funktioner formentlig blive fundet nyttige af folk uden handicap.
Live Voice er f.eks. en meget simpel tekst-til-tale-funktion, der blot læser op, hvad du skriver. Men det vigtige er implementeringen, for funktionen virker både i almindelige telefonopkald og på FaceTime. Og Personal Voice er naturligvis integreret med Live Voice, så brugeren kan bruge sin egen stemme med det, der bliver tastet ind.
En fjerde og temmelig smart funktion hjælper folk, der er blinde eller har dårligt syn. Ved blot at pege iPhonen i retning af en ting, kan iPhonen sige højt, hvad tingen er. Den kan også læse tekst på tingen op, og dermed kan en person uden synssans f.eks. bruge en mikrobølgeovn eller læse skilte ude i verden.