Apple Intelligence är ett system förartificiell intelligens utvecklat avApple Inc. Systemet bygger på en kombination av lokal bearbetning på enheten och serverbaserad bearbetning. Det presenterades den 10 juni 2024 under Apples utvecklarkonferensWWDC, samtidigt som operativsystemen iOS 18, iPadOS 18 och macOS Sequoia introducerades. Apple Intelligence är en inbyggd funktion i dessa.Tjänsten är gratis för alla användare med enheter som har stöd för funktionen.
Den första versionen blev tillgänglig för utvecklare och beta-testare den 29 juli 2024, påamerikansk engelska, som en del av betaversionerna för utvecklare av iOS 18.1, macOS 15.1 och iPadOS 18.1. Delar av funktionerna släpptes den 28 oktober 2024, och med kontinuerlig lansering planerad under 2025.[1][2] Den 11 december 2024 fick engelska versioner anpassade för Storbritannien, Irland, Australien, Kanada, Nya Zeeland och Sydafrika stöd för Apple Intelligence.[3][4] Den 31 mars 2025 utökades språkutbudet ytterligare i samband med lanseringen av iOS 18.4, macOS 15.4 och iPadOS 18.4. Då tillkom stöd för engelska för Indien och Singapore, samtförenklad kinesiska,franska,tyska,italienska,japanska,koreanska,portugisiska,spanska ochvietnamesiska.[5][6] Vid samma tidpunkt blev Apple Intelligence även tillgängligt i helaEuropeiska unionen.[7][8] Dessutom fick Apples headsetApple Vision Pro stöd för tekniken, men än så länge är det endast tillgängligt på amerikansk engelska för just den enheten.[9]
Apple Intelligence består av två delar: en modell som körs direkt på enheten, och en molnbaserad modell som körs på servrar – huvudsakligen medApple Silicon-hårdvara. Båda modellerna bygger på en generell basmodell, tillsammans med flera så kallade adaptermodeller som är specialiserade på specifika uppgifter. Dessa kan innefatta textsammanfattning eller justering av tonläge.[10]
Enligt en utvärdering som Apples avdelning för maskininlärning har gjort, presterade grundmodellen för lokal körning bättre än eller lika bra som jämförbara små modeller frånMistral AI,Microsoft ochGoogle. Den serverbaserade grundmodellen presterade bättre änOpenAI:sGPT-3 och nådde ungefär samma nivå somGPT-4.[11]
Apples molnmodeller körs på enPrivate Cloud Compute-modell, som är utvecklad med starkt fokus på användarens integritet och fullständig kryptering från början till slut. Till skillnad från andra generativa AI-tjänster, som ChatGPT som använder tredjepartsservrar, körs Apple Intelligence uteslutande på Apples egna servrar med specialbyggdApple Silicon-hårdvara, skapad för att möjliggöratotalsträckskryptering. Systemet har också utformats så att programvaran som körs på dessa servrar ska vara identisk med den som kan verifieras av oberoende forskare. Om en Apple-enhet upptäcker att serverns programvara inte stämmer överens med den verifierbara versionen, vägrar enheten att ansluta till servern.[12]
Apple Intelligence innehåller skrivverktyg som drivs av stora språkmodeller (LLM). Med dessa verktyg kan markerad text rättas, skrivas om eller göras mer vänlig, kortfattad eller professionell – liknande de AI-baserade skrivfunktionerna iGrammarly. Skrivverktygen kan även användas för att skapa sammanfattningar, lyfta fram nyckelpunkter samt generera tabeller och listor utifrån en artikel eller annan text. I iOS 18.2 och macOS 15.2 fick skrivverktygen en inbyggd ChatGPT-integration via funktionernaCompose ochDescribe your change. Funktionen har kopierats avXiaomi, och ett PC-program medöppen källkod erbjuder liknande funktionalitet förWindows,Linux och äldre Mac-datorer.[13]
Ett exempel på en bild genererad med appen Image Playground, en del av Apple Intelligence.
Apple Intelligence kan användas för att skapa bilder direkt på enheten med hjälp av appen Image Playground. På liknande sätt som OpenAI:sDALL-E kan den generera bilder med hjälp av AI, där användaren skriver in fraser eller beskrivningar för att skapa en bild i olika anpassningsbara stilar, såsom Animering och Skiss.[14] kan användare nå Image Playground påiPad,MacOS ochiPhone genom verktyget Image Wand, som finns i Apple Pencils verktygspalett. Grova skisser gjorda med Apple Pencil kan omvandlas till bilder.[15]
Ett exempel på en genmoji skapad med Apple Intelligence
Med hjälp av Apple Intelligences text-till-bild-modeller kan användare skapa egna bilder som kallas ”Genmoji” genom att skriva in beskrivningar.[16] Användare kan också välja ut personer på foton och skapa Genmoji-bilder som liknar dem.[17] Precis som vanligaemojier kan Genmojier användas direkt i textmeddelanden, som reaktioner (tapbacks), som klistermärken och genom att delas i Meddelanden eller i appar från tredje part – antingen som inbäddade meddelanden eller som klistermärken.[18][19]
Apples virtuella assistentSiri har tack vare Apple Intelligence uppdaterats med nya förbättrade funktioner. Den senaste versionen har ett uppdaterat användargränssnitt, bättre förståelse för naturligt språk och möjlighet att interagera via text. Det går att skriva till Siri genom att dubbeltrycka på hemfältet utan att först aktivera funktionen i inställningarna förHjälpmedel, eller genom att dubbelklicka på kommandotangenten på macOS.
I en kommande uppdatering[när?] förväntas Apple Intelligence även ge Siri förmågan att använda personlig kontext från aktiviteter på enheten för att besvara frågor.[20]
Apple Intelligence lägger till en funktion som kallasPrioriterade meddelanden i appenMail. Den visar brådskande mejl, till exempel inbjudningar för samma dag eller boardingkort, tillsammans med AI-genererade sammanfattningar av mejlets innehåll.[20] Mail-appen får också förmågan att automatiskt sortera inkommande mejl i kategoriernaPrimärt,Transaktioner,Uppdateringar ochErbjudanden, beroende på vad mejlet handlar om. Enligt Apple sker hela sorteringen direkt på enheten.[21]
Apples appBilder innehåller en funktion för att skapa personliga minnesfilmer samt förbättrade sökmöjligheter. Användaren kan beskriva en berättelse, och med hjälp av Apple Intelligence väljer appen ut passande bilder, videoklipp och musik.
Med verktyget ”Rensa upp” i Bilder-appen kan man också ta bort störande objekt från bilder. Apple Intelligence identifierar föremål i bakgrunden och låter användaren ta bort dem med ett tryck, en penselrörelse eller genom att ringa in dem. Materialet organiseras sedan till en film med en berättande struktur baserad på igenkända teman.
Användaren kan dessutom söka efter specifika bilder eller videor med hjälp av beskrivningar eller nyckelord. Apple Intelligence kan även hitta särskilda ögonblick i längre videoklipp.[22]
Med hjälp av funktionenNotissammanfattning kan Apple Intelligence sammanfatta aviseringar från meddelandeappar och grupper av aviseringar från andra appar, så att användaren slipper läsa igenom stora mängder notiser.[23] Ett nytt fokusläge introduceras som tystar aviseringar som bedöms vara oviktiga, samtidigt som viktiga aviseringar släpps igenom.[24]
På iPhone 16 och iPhone 16 Pro (eller senare modeller) kan användare hålla nedKamerakontroll-knappen för att ta en bild av ett föremål, som sedan kan skickas tillChatGPT eller eftersökas viaGoogle. Bilden som tas sparas inte på enheten, och enligt Apple har de inte heller tillgång till bilden.[25] Funktionen är tänkt att hjälpa användare att snabbt få mer information om saker de ser.[26] Med början i iOS 18.4 blev samma funktion även tillgänglig på iPhone 15 Pro, iPhone 15 Pro Max och iPhone 16e, antingen via snabbknappen eller genomKontrollcenter.[27][28]
ChatGPT integrerat i Siri, Apples virtuella assistent
Som ett resultat av Apples samarbete medOpenAI innehåller Apple Intelligence även en systemomfattande integration medChatGPT. Det innebär att Siri kan avgöra när vissa mer komplexa användarförfrågningar ska skickas vidare till ChatGPT. Denna integration drivs avGPT-4o.[20] ChatGPT-integrationen är som standardvalbar, och användaren får en förfrågan innan någon data eller några bilder skickas till ChatGPT:s servrar.[29] När förfrågningar skickas till OpenAI döljs även användarens IP-adress.[30]
Att använda ChatGPT-funktionerna är gratis för alla användare och kräver ingen inloggning. Däremot får man bara ett begränsat antal GPT-4o-förfrågningar, och därefter växlar systemet över till en mindre kraftfull GPT-modell. Användare med ett betalt ChatGPT-abonnemang kan logga in för att få tillgång till fler förfrågningar med GPT-4o och ytterligare funktioner direkt i hela systemet. Apple har också meddelat att man i framtiden planerar att integrera fler AI-modeller, till exempelGoogle Gemini.[31]
Apple började implementera funktioner för artificiell intelligens i sina produkter redan 2011, dåprogramvaran Siri lanserades tillsammans mediPhone 4S.[32] Under åren efter lanseringen arbetade Apple aktivt för att hålla sina AI-satsningar hemliga. Enligt Trevor Darrell, professor vidUniversity of California, Berkeley, avskräckte denna sekretess många doktorander från att söka sig till företaget.[33] År 2015 började Apple bygga ut sitt AI-team, och man öppnade upp sin verksamhet genom att publicera fler vetenskapliga artiklar och gå med i forskningsnätverk inom AI-industrin.[34][35] Enligt uppgifter köpte Apple fler AI-bolag mellan 2016 och 2020.[36] I samband med lanseringen aviPhone 8 ochIPhone X år 2017 introducerade Apple processorn A11 Bionic som innehöll företagets första specialdesignadeNeural Engine för att snabba upp vanliga uppgifter inom maskininlärning.[37] Trots dessa investeringar fick Siri kritik, både från teknikrecensenter och internt inom Apple, för att ligga efter andra AI-assistenter på marknaden.[38][39]
Den snabba utvecklingen inomgenerativ AI och lanseringen av ChatGPT i slutet av 2022 ska ha överraskat Apples ledning och tvingat företaget att omprioritera och satsa mer intensivt på AI.[40][41] I en intervju medGood Morning America sade Apples vdTim Cook att generativ AI har ”stor potential”, men också vissa risker, och att Apple “följer ChatGPT noggrant”. I juli 2023 rapporterades det att Apple utvecklade en stor intern språkmodell (LLM), med kodnamnet Ajax.[40] I oktober 2023 kom uppgifter om att Apple låg i fas med att släppa nya generativa AI-funktioner i sina operativsystem under 2024, inklusive en kraftigt omarbetad version av Siri.[41] Under en resultatsredovisning i februari 2024 uppgav Tim Cook att företaget lade ner ”enormt mycket tid och ansträngningar” på AI-funktioner som skulle presenteras senare samma år.[42]
Alla Mac-datorer och iPad-modeller med ett Apple-siliconchip i M-serien har stöd för Apple Intelligence när de kör macOS 15.1 respektive iPadOS 18.1 eller senare.[55] Även iPhone- och iPad-enheter med A17 Pro-chip eller nyare stöds från och med iOS 18.1. Apple uppger att den mindre kraftfulla Neural Engine i äldre chip saknar kapacitet för Apple Intelligence[55][56] Analytikern Ming-Chi Kuo menar dessutom attram-kraven för den lokala AI-modellen hindrar Apple Intelligence från att köras på äldre iPhone-modeller.[57] Den 31 mars 2025 infördes Apple Intelligence också påApple Vision Pro i och med lanseringen av visionOS 2.4.[58]
Apple Intelligence kan inte användas på Mac-datorer om operativsystemet är startat från en extern hårddisk. Det finns dock sätt att kringgå denna begränsning.[59]
Apple Intelligence fick blandade recensioner vid lanseringen.[60][61] Allison Johnson frånThe Verge kallade lanseringen ”en besvikelse” men lyfte fram att vissa funktioner, som sammanfattning av aviseringar i bedömningen ”något mer lovande”.[62]
I december 2024 skickadeBBC in ett klagomål till Apple angående funktionen för notissammanfattningar, efter att den felaktigt hade påstått attBBC:s nyhetsapp rapporterat attLuigi Mangione – som nyligen gripits efterskjutningen av UnitedHealthcares VD Brian Thompson – hade tagit sitt liv.[63] I januari 2025 följde BBC upp med fler exempel på felaktiga sammanfattningar av deras artiklar. Bland annat påstods det attLuke Littler hade vunnit världsmästerskapet i dart (PDC World Darts Championship) flera timmar innan finalen ens hade spelats – även om han sedermera vann. En annan notis hävdade att ”den brasilianske tennisspelaren”Rafael Nadal hade kommit ut som homosexuell, trots att Nadal är spanjor och artikeln i själva verket handlade om den brasilianska spelaren João Lucas Reis da Silva.[64]
Som svar på kritiken förklarade en talesperson för Apple att alla funktioner i Apple Intelligence fortfarande befann sig i betafas och att de förbättrades löpande. Användare uppmuntrades att skicka in återkoppling om sammanfattningarna gav oväntade resultat.[65] I den betaversion av iOS 18.3 som släpptes därefter inaktiverades funktionen för notissammanfattningar för alla nyhetsappar, och ett förtydligande lades till i appenInställningar med varningen att sammanfattningar ”kan innehålla fel”.[66][67]
Rättegång om försenad lansering av Apple Intelligence
Den 19 mars 2025 lämnades en federal stämning in till distriktsdomstolen iSan Jose i Kalifornien, med anklagelser om falsk marknadsföring och oschysst konkurrens i samband med den försenade lanseringen av vissa funktioner i Apple Intelligence. I stämningen hävdades att Apples reklam för Apple Intelligence ”genomsyrade internet, tv och andra medier för att skapa en tydlig och rimlig förväntan hos konsumenterna om att dessa omvälvande funktioner skulle vara tillgängliga vid lanseringen av iPhone.”
Stämningen fortsatte: ”Detta skapade ett marknadsintresse utan motstycke – till och med för Apple – vilket företaget var fullt medvetet om, som en del av dess pågående strategi att övertala konsumenter att uppgradera till högt pris och särskilja sig från konkurrenter som anses leda AI-kapplöpningen.”[68] I stämningsansökan hävdas att ”Apple vilselett miljontals konsumenter att köpa nya telefoner de inte behövde, baserat på funktioner som inte existerar, i strid med flera lagar om falsk marknadsföring och konsumentskydd.” Stämningen beskrev också Apples ”genomträngande marknadsföringskampanj” som ”byggd på en lögn”.[69]