Apple har i en nyhed givet en forsmag på en række nye funktioner, der skal øge tilgængeligheden på iPhones, for brugere med kognitive handicaps. Især én funktion har i den sammenhæng fået særlig opmærksomhed. Den kommende funktion gør nemlig din iPhone i stand til at lære din stemme og derved tale som dig, efter blot 15 minutters træning.
Funktionen er henvendt til personer, som har risiko for at miste evnen til at tale. Eksempelvis grundet en ALS-diagnose (amyotrofisk lateral sklerose). Inden sygdommen måtte være fremskreden, så det påvirker brugerens stemme, vil det således være muligt at lære en iPhone din stemmeprofil. Derfra kan man via tekst-til-tale kommunikere med omverdenen, som vil høre den AI-skabte version af brugeren.
Apple kalder funktionen ‘Personal Voice’ – Personlig Stemme. Via tilfældige sætninger, som skal læses højt, vil brugerens stemme blive genskabt lokalt på enheden via machine learning .
Læringen foregår på 15 minutter. Foto: Apple Funktionen integrerer med en anden ny funktion, nemlig ‘Live Speech’. Den funktion gør det muligt at bruge tekst-til-tale under telefonkald, FaceTime eller personlige samtaler. Og i stedet for Siri-stemmen, så kan man altså få Live Speech til at benytte en computergenereret version af egen stemme.
Tekst-til-tale integrerer med ‘Personal Voice’-funktionen. Foto: Apple Nyhederne tæller adskillige yderligere tiltag , der skal gøre det lettere at være iPhone-bruger med et kognitivt handicap. De nye funktioner vil med størst sandsynlighed være en del af iOS 17, som formodentlig præsenteres i efteråret.