På utviklerkonferansen WWDC presenterte Apple de nye funksjonene til sine operativsystemer for mobil, nettbrett og data. Men en time ut i åpningstalen hadde de fortsatt ikke sagt ordet de har vært så nøye med å unngå det siste året: «AI»
Noe som ikke har gått ubemerket forbi hos verken analytikere, presse eller brukere. I mellomtiden har Microsofts Copilot gjort store fremskritt takket være OpenAI og deres ChatGPT, Google har fått fart i Gemini, og erkefienden Samsung har lansert sin Galaxy AI med praktiske mobilfunksjoner. Men hva er det Apple har på gang, har alle lurt på. Jobber de med noe revolusjonerende som vil overkjøre konkurrentene, eller har de rett og slett gått glipp av noe?
Så steg Tim Cook endelig opp på scenen og presenterte Apple Intelligence. For selvfølgelig må Apple ha sitt eget begrep for å få det til å høres ut som noe helt unikt.
Så hva var det egentlig Apple hadde å vise frem?
For det første kan Siri endelig brukes til noe. Nå forstår den hva du sier og evner faktisk til å utrette noe fornuftig.
Her har Apple en stor fordel ettersom operativsystemet har tilgang til all din personlige informasjon, meldingene dine, e-postene dine, kalenderen din og bildene dine. Derfor kan systemet også gjøre nyttige ting, som å forstå at det er samme person som har sendt en melding og en e-post, og finne informasjonen du leter etter. Eller forstå sammenhengen mellom personer, tider og steder i kalenderen. Dette er en killer-app som konkurrentene aldri vil kunne matche, med mindre du slipper dem inn på telefonen din og lar informasjonen lastes opp på nettet. Et mareritt for personvernet.
Det de derimot legger vekt på, er funksjoner som hjelper til med å skrive. Det vil si å kunne korrekturlese, omformulere, endre tonen i teksten, oppsummere tekst eller produsere punktlister til presentasjoner. Men det er jo akkurat det konkurrentene har gjort en stund nå, så det føltes neppe revolusjonerende. Det samme med persongjenkjenning i bilder og fotoredigeringsfunksjoner som har eksistert lenge i Google Foto.
Og så går det helt av sporet. «KI kan hjelpe deg med å lage emojier.» Hva? Hvem ba om det? Nå kan den også generere bilder, men det føles som en blek kopi av konkurrenter som ImageFX.
Og så fikk vi endelig vite hva det mye omtalte samarbeidet med ChatGPT egentlig handlet om. Ville det bli en «Siri powered by OpenAI»? Nei, i stedet ble det en tjeneste som Siri henviser til når du stiller spørsmål som den ikke kan svare på. Med andre ord det motsatte av noe integrert og Steve Jobs’ beskrivelse av Apples designfilosofi «It just works». Det føles ikke som Apple, men i stedet som noe som er teipet sammen med gaffateip uken før presentasjonen.
For øvrig også det motsatte av hva mannebarnet Elon Musk har begynt å gaule om. Følg med i timen lille gutt, kanskje du lærer noe.
Apple sender på ingen måte din personlige informasjon til ChatGPT. Det er derfor de er tvunget til å stille spørsmålet «Vil du at jeg skal spørre ChatGPT om det?». Slik at de kan holde løftet sitt om at når du bruker et Apple-produkt, bryr de seg om personvernet ditt.
Så hvordan vil Apple løse dette? De må selvfølgelig ha sin egen private skyløsning med språkmodeller. Noe de i presentasjonen faktisk fortalte i forbifarten at de har. Private Cloud Compute brukes når spørsmålet ditt er for komplisert til å kunne besvares på enheten din.
Men de må gjøre som konkurrentene og trene den på all informasjon på nettet, slik at den kan svare på hva som helst. Men det er tydeligvis så langt unna at de har måttet lappe det sammen med ChatGPT enn så lenge.
Nå har riktignok ikke Apple Intelligence blitt lansert ennå.
Den kommer «senere i år». Så kanskje vi ikke skal dømme dem for hardt før vi faktisk kan teste det selv. Men de har ikke akkurat slått ut konkurrentene.