Apple sta per portare la sua Apple Intelligence in Italia con l’aggiornamento a iOS 18.4, e apre la strada a nuove funzioni basate sull’intelligenza artificiale pensate per migliorare l’esperienza d’uso dei dispositivi Apple. Si tratta di un sistema di “intelligenza personale” integrato in iPhone, iPad e Mac, progettato per aiutare gli utenti nelle attività quotidiane in modo proattivo e nel pieno rispetto della privacy. Nelle prossime righe analizziamo cosa implica l’arrivo di Apple Intelligence per gli utenti italiani, con focus sulle persone cieche e ipovedenti (utilizzatori di VoiceOver e Zoom). Vedremo quali nuove funzionalità di accessibilità offre, come influiscono sull’uso quotidiano e faremo esempi pratici di utilizzo. Daremo anche uno sguardo ai vantaggi che queste innovazioni possono portare ad altre disabilità.
cos’è Apple Intelligence e dove è disponibile?
Apple Intelligence (che avevamo introdotto sul blog proprio il giorno del suo annuncio, in questo articolo) è la visione di Apple per l’intelligenza artificiale integrata nei suoi sistemi operativi, volta a rendere i dispositivi più intelligenti e contestuali senza sacrificare la privacy dell’utente. Non è un’app separata, bensì un insieme di funzionalità e servizi diffusi tra le app e nelle funzioni di sistema. Grazie a modelli di machine learning avanzati (in parte eseguiti direttamente sul dispositivo e in parte su cloud privato Apple), Apple Intelligence offre suggerimenti proattivi, sintesi di informazioni, generazione di contenuti e un assistente vocale Siri molto migliorato. In pratica, mira a far diventare “magiche” le attività di tutti i giorni sul dispositivo, in grado di anticipare bisogni e semplificare operazioni complesse.
L’arrivo di iOS 18 ha introdotto Apple Intelligence in forma beta e in lingua inglese su un numero limitato di dispositivi. Con iOS 18.4, Apple Intelligence espande il supporto linguistico all’italiano e sbarca in Italia e in tutta l’Unione Europea, dopo un periodo di adeguamento alle normative locali. Le stesse funzionalità diventano disponibili anche su iPadOS 18.4 e macOS 15.4 (nome in codice “Sequoia”), e garantiscono un’esperienza omogenea su iPhone, iPad e Mac. Da aprile 2025, anche gli utenti italiani potranno sfruttare Apple Intelligence sui propri dispositivi aggiornati. Ci sono però alcuni requisiti hardware: Apple Intelligence richiede iPhone di ultima generazione (iPhone 15 Pro, 15 Pro Max o la linea iPhone 16) oppure iPad con chip A17 Pro/M1 o successivi, o ancora un Mac con chip Apple Silicon (M1 o successivi). È necessaria una lingua supportata (l’italiano è incluso nell’aggiornamento di aprile) e occorre circa 7 GB di spazio libero per scaricare i modelli di AI.
Dal punto di vista normativo, Apple ha lavorato per rendere Apple Intelligence conforme al Digital Markets Act europeo, con enfasi su misure di privacy come l’elaborazione on-device e l’anonimizzazione dei dati su cloud privato. Ciò ha causato il debutto in UE con qualche mese di ritardo rispetto agli USA, ma garantisce agli utenti europei (e italiani) un servizio allineato alle stringenti regole sulla protezione dei dati.Apple Intelligence è ora disponibile in iOS 18.4 beta nel nostro Paese su iPhone, iPad e Mac compatibili, pronto a trasformare l’esperienza d’uso quotidiana – soprattutto per chi beneficia di funzioni assistive, come vedremo nel dettaglio.
Scrittura semplificata e contenuti a portata di orecchio
Una delle aree in cui Apple Intelligence incide di più è la gestione intelligente dei testi, con ovvi benefici per chi ha disabilità visive. Grazie ai nuovi Strumenti di scrittura integrati, l’iPhone può ora correggere, riscrivere o riassumere automaticamente i testi in quasi qualsiasi applicazione. Ad esempio, se un utente sta componendo una email o un messaggio, può chiedere al sistema di controllare ortografia e grammatica o addirittura di riformulare il testo per renderlo più chiaro e adatto al contesto. Prima queste operazioni erano possibili soltanto con chat gpt, claude, gemini o altre AI, tramite le loro app o dal browser, o in app dedicate con AI integrata. Per una persona ipovedente che fatica a rileggere attentamente lunghi paragrafi su uno schermo, questa funzione aiuta molto: basta un tap per applicare tutte le correzioni suggerite o migliorare il tono di quanto scritto, così da ridurre gli errori senza lo sforzo della lettura ravvicinata. Chi utilizza VoiceOver può usufruire di queste correzioni automatiche e ascolta la versione ottimizzata del testo, risparmia tempo e fatica nell’individuare manualmente refusi o costruzioni poco chiare.
Ancora più rivoluzionaria per chi è cieco o ha poca visione è la capacità di Apple Intelligence di riassumere contenuti complessi in forma breve e comprensibile. Ora in Mail e Messaggi troviamo pulsanti dedicati per ottenere un riassunto di una lunga email o di una conversazione testuale. Invece delle prime righe generiche, l’app Mail mostra nell’anteprima una sintesi dell’intero messaggio, così l’utente può farsi un’idea immediata del contenuto senza aprirlo. Con VoiceOver, ciò permette di ascoltare un breve riepilogo invece di dover scorrere l’intera email parola per parola. È facile intuire il beneficio: un utente cieco riceve magari una lunga comunicazione di lavoro – invece di doverla ascoltare per intero per capire di cosa tratta, può affidarsi al riassunto generato dall’AI e capire subito se è urgente o cosa chiede il mittente. Se il riassunto rivela che è un’email di scarso interesse, si può ignorarla; se mette in luce punti chiave importanti, l’utente saprà di dover approfondire. È una prioritizzazione intelligente dei contenuti che aiuta a ridurre il carico cognitivo e di attenzione per gli utenti con disabilità visiva. Anche in una chat di gruppo molto attiva, Apple Intelligence permette di ottenere “il succo” della discussione persino se ci si è persi dozzine di messaggi nel frattempo. Basterà un gesto (o un comando vocale a Siri) per chiedere un riepilogo, e il sistema restituirà i punti salienti della conversazione tra i partecipanti. Così una persona cieca non deve riascoltare decine di notifiche di messaggi, ma ottiene le informazioni principali per restare nel flusso della conversazione.
Un’altra novità importante è la trascrizione automatica con sintesi integrata. In iOS 18, nelle app come Note è possibile registrare audio (ad esempio una lezione, una riunione o una telefonata) e ottenere sia la trascrizione scritta completa sia un riassunto dei punti chiave. La trascrizione usa algoritmi standard di riconoscimento vocale, ma la generazione del riassunto da quella trascrizione è compito di Apple Intelligence. Per un utente con disabilità visiva, ciò permette di registrare un meeting senza dover prendere appunti manuali e poi, in un secondo momento, farsi leggere da VoiceOver una sintesi dell’incontro. Se qualcosa sfugge durante l’ascolto in diretta, il riepilogo generato dall’AI aiuterà a cogliere i concetti principali. Allo stesso modo, chi è sordo o ha problemi uditivi può trarre vantaggio dalla trascrizione e dal riassunto per seguire conversazioni telefoniche o presentazioni orali: pur non sentendo, avrà un testo riassuntivo da leggere. Vediamo quindi come una funzionalità nata per comodità generale si traduce in un performante strumento di accessibilità multi-sensoriale, utile in maniera trasversale.
Da ricordare, l’introduzione della modalità “Riduci Interruzioni” (Reduce Interruptions) come nuovo filtro di Modalità di concentrazione. Questa funzione – resa possibile dall’AI – può filtrare notifiche e avvisi e mostra solo quelli davvero importanti e ritarda o raggruppa quelli meno rilevanti. Per chi utilizza uno screen reader, ridurre il numero di notifiche non essenziali comporta meno distrazioni vocali durante la giornata. Invece di sentire il telefono leggere ogni singolo avviso (che potrebbe essere ad esempio una newsletter o una notifica poco urgente), l’utente riceverà solo le notifiche considerate prioritarie o eventualmente una notifica riassuntiva cumulativa. Apple Intelligence classifica le notifiche e identifica quali potrebbero richiedere attenzione immediata (ad esempio messaggi dai contatti preferiti, promemoria in scadenza, email urgenti) e quali possono attendere. Per un ipovedente che magari si affida a Zoom o ad alto contrasto per leggere le notifiche, trovarne meno e più mirate sullo schermo rende l’interazione più efficiente. La schermata di blocco diventa meno ingombra: iOS 18.1 e successivi riuniscono notifiche multiple da Mail o Messaggi in un’unica vista sommaria, dove ad esempio viene mostrato un riassunto delle email ricevute direttamente sul lock screen. Con un rapido sguardo (per chi ha residuo visivo) o un rapido ascolto con VoiceOver, si può decidere se sbloccare il telefono per approfondire o meno. Sul fronte di scrittura e lettura, Apple Intelligence aiuta a trasformare la valanga di testo in informazione essenziale, da fruire con meno sforzo visivo.
(Da notare: oltre alle novità direttamente legate ad Apple Intelligence, iOS 18 ha portato miglioramenti a VoiceOver e Zoom stessi. Ad esempio, sono state aggiunte nuove voci per VoiceOver e la possibilità di regolarne il volume in modo personalizzato, ed è ora possibile personalizzare le scorciatoie da tastiera su Mac. Per chi usa Zoom (lo zoom del display), la funzionalità Lente di ingrandimento ora offre una Modalità Lettura dedicata, utile per inquadrare testi stampati e visualizzarli sullo schermo con caratteri grandi e facilmente leggibili. Sugli iPhone di ultima generazione dotati di tasto Azione, è possibile assegnare a quest’ultimo l’avvio rapido della Modalità Rilevamento in Magnifier, così da identificare immediatamente oggetti, persone o testi nell’ambiente.
Assistente vocale potenziato e controllo del dispositivo tramite Siri
Apple Intelligence apre anche una nuova era per Siri, l’assistente vocale, che diventa finalmente molto più abile nel comprendere linguaggio naturale e contesto personale. Ciò ha risvolti importanti per gli utenti ciechi e ipovedenti, che spesso fanno largo affidamento sui comandi vocali per usare l’iPhone senza dover guardare lo schermo. In iOS 18.4, Siri è più “intelligente” che mai: può gestire conversazioni con continuità di contesto, riconoscere riferimenti impliciti e anche interagire con ciò che appare sul display in modo più consapevole.
Cosa significa in pratica? Siri ora mantiene il contesto tra una richiesta e l’altra. Se l’utente pone una domanda e poi fa una seconda domanda riferendosi a “quello” o “lei” senza ripetere il soggetto, Siri capisce a cosa ci si riferisce. Ad esempio, un utente chiede: “Che tempo fa oggi a Milano?” e subito dopo: “E domani?”, Siri interpreterà che la seconda domanda riguarda il meteo a Milano per il giorno successivo. Questa possibilità di dialogare in modo più naturale evita all’utente di dover formulare ogni richiesta in modo artificioso e completo; si può “chiacchierare” con Siri quasi come con una persona, e l’interazione diventa molto più fluida.
Siri tollera meglio esitazioni e correzioni a voce: se l’utente si impappina o cambia frase a metà, l’assistente saprà gestire la cosa senza interrompersi o azzerare l’ascolto. Questo è utile non solo a chiunque, ma in modo speciale a persone con disturbi del linguaggio o con pronuncia non perfetta (pensiamo a chi ha avuto un ictus o ha patologie che influenzano la parola): Siri riesce a seguirli e capirli meglio. A tal proposito, Apple ha lavorato su una funzione chiamata “Ascolta discorsi atipici” che sfrutta l’apprendimento automatico per adattarsi a modalità di parlato non standard, aiuta chi ha difficoltà di eloquio a farsi comprendere dall’assistente vocale. Si tratta di un’evoluzione che ha il potenziale di migliorare il riconoscimento vocale per milioni di persone con linguaggio atipico. Anche questo rientra nell’ombrello di Apple Intelligence e mostra come l’AI possa rendere Siri più inclusivo.
Ma un cambiamento ancora più rilevante per gli utenti con disabilità visiva è la nuova capacità di Siri di essere consapevole di ciò che è visualizzato sullo schermo. Con i prossimi aggiornamenti (iOS 18.4 in primis), Apple prevede di attivare funzioni per cui Siri potrà rispondere in base al contenuto attivo sull’iPhone. In pratica, l’assistente saprà “leggere” o interpretare la schermata corrente e agire di conseguenza. Immaginiamo uno scenario comune: sullo schermo c’è una foto aperta nell’app Foto, oppure una pagina web, o una finestra di un’app non perfettamente accessibile. L’utente potrà chiedere a Siri ad esempio “Descrivimi questa immagine” o “Che opzioni vedo in questa pagina?”, e Apple Intelligence gli permetterà di fornire una risposta pertinente esaminando gli elementi visualizzati. È un enorme passo avanti per l’accessibilità: una persona cieca potrebbe affidarsi a Siri per capire il contenuto di una fotografia senza dover attendere che VoiceOver legga un’etichetta (spesso assente), oppure per ottenere un sommario di un articolo web aperto senza doverlo leggere tutto. Analogamente, se un’app di terze parti ha pulsanti non etichettati per VoiceOver, l’utente potrebbe chiedere “Cosa c’è in alto a destra?” e Siri, grazie all’AI, potrebbe rispondere “Vedo un pulsante con l’icona di un carrello, probabilmente per acquistare o checkout”. Anche se questo scenario è ancora emergente, Apple ha confermato che rispondere a ciò che sta sul display e fornire controlli per-app più approfonditi fa parte delle funzionalità in arrivo con Apple Intelligence. In altre parole, Siri diventerà una sorta di “occhio digitale” e “intermediario” per l’utente con disabilità visiva, capace di colmare le lacune dove l’interfaccia non è chiara o accessibile. Ad ogni modo, questa funzione è gia presente tramite la modalità vocale di chatgpt in live camera, ma naturalmente averla sempre attiva e disponibile sull’iPhone sarebbe un bel passo avanti.
Già ora Siri beneficia delle conoscenze di prodotto e supporto Apple: l’assistente è in grado di rispondere a domande sulle impostazioni del dispositivo, di trovare un determinato toggle anche se l’utente non ne conosce il nome esatto. Ad esempio si può chiedere “Attiva la funzione per non farmi disturbare mentre guido” e Siri capirà che deve abilitare “Non disturbare alla guida”, anche se la frase esatta non è stata usata. Ciò è utile a tutti, ma specialmente a chi è cieco: navigare nel labirinto dei menu di Impostazioni con VoiceOver richiede tempo, mentre un comando in linguaggio naturale a Siri può risolvere in pochi secondi. È anche un’efficace scorciatoia per gli utenti meno pratici di iOS, iPad OS o Mac OS.
Un’altra novità interessante introdotta da Apple Intelligence è l’integrazione di ChatGPT all’interno di Siri. In pratica, se Siri non conosce direttamente la risposta a una domanda complessa o molto generale, ha la possibilità di attingere alle capacità di un modello generativo avanzato (ChatGPT) per fornire una risposta articolata. Questo avviene dietro le quinte in modo trasparente per l’utente. Ad esempio, se chiediamo a Siri una curiosità storica o di spiegarci un concetto scientifico elaborato, l’assistente potrebbe formulare la risposta ricorrendo a ChatGPT, laddove prima si sarebbe limitato a dire “Ecco cosa ho trovato sul web” e avrebbe costretto l’utente a leggere un articolo esterno. Per una persona non vedente, poter ottenere da Siri risposte approfondite direttamente in forma vocale è estremamente comodo: si evita di doversi affidare al browser e al lettore di schermo per navigare tra risultati di ricerca. Apple precisa che questa integrazione di ChatGPT è disponibile solo nelle regioni in cui il servizio di OpenAI è attivo – l’Italia è tra queste, quindi gli utenti italiani potranno beneficiarne. Naturalmente Apple mantiene un occhio di riguardo per la privacy: le richieste a ChatGPT passeranno attraverso il canale Apple di “Private Cloud Compute”, che non associa i dati all’account dell’utente e non conserva le informazioni dopo l’elaborazione. Dunque si coniuga un enorme salto in avanti nelle capacità conversazionali di Siri con le garanzie di riservatezza care ad Apple.
L’assistente vocale potenziato da Apple Intelligence diventa un alleato ancora più valido per ciechi e ipovedenti. Azioni che prima erano impossibili o difficoltose (come ottenere descrizioni contestuali dello schermo, o risposte dettagliate a voce) ora sono a portata di comando vocale. Siri acquisisce sfumature di un assistente personale intelligente, capace di adattarsi all’utente: impara preferenze, contesto, e offre suggerimenti proattivi. Ad esempio, conoscendo la routine dell’utente, potrebbe avvisare con anticipo: “Ricorda, tra 30 minuti hai l’appuntamento dal dottore, vuoi che attivi la modalità di navigazione?” – piccole cose che fanno la differenza, soprattutto per chi ha bisogno di un supporto costante nell’organizzare mentalmente le attività quotidiane. Per una persona con disabilità visiva, Siri diventa quasi un compagno sempre vigile, pronto a leggere, descrivere e agire su richiesta, rende l’interazione con il mondo digitale (e fisico, tramite fotocamera) molto più naturale e inclusiva.
Immagini, riconoscimento visivo e aiuti per l’orientamento
Oltre a testi e comandi vocali, Apple Intelligence abbraccia anche il mondo delle immagini e dell’interazione visiva, con funzionalità che possono giovare in modo considerevole agli utenti ipovedenti e non vedenti. Un esempio lampante è la ricerca in linguaggio naturale nell’app Foto: ora si può semplicemente descrivere a parole ciò che si sta cercando, e l’iPhone analizzerà la libreria fotografica per trovare i risultati corrispondenti. Invece di dover scorrere migliaia di miniature o ricordare album e date, basta chiedere (o digitare) qualcosa come “foto di Francesco nel parco con maglietta blu”, e l’AI restituirà le immagini pertinenti che corrispondono a quella descrizione. Ciò è utilissimo per un ipovedente: magari ha difficoltà a riconoscere i dettagli nelle miniature, ma sa cosa vuole trovare e può affidarsi alla descrizione verbale. Anche un utente cieco, con l’assistenza di VoiceOver, può formulare query del tipo “trova le foto del mio cane in giardino” e ottenere i risultati, per poi eventualmente farseli descrivere uno ad uno. iOS già da tempo usa algoritmi di visione artificiale per catalogare persone, luoghi e oggetti nelle foto, ma Apple Intelligence porta questa capacità ad un livello superiore di flessibilità linguistica e precisione. Non serve più limitarsi a parole chiave specifiche: si può usare un linguaggio colloquiale. Ad esempio, “Gianfranco in bici mentre tiene in mano un panino” può essere un esempio per mettere in risalto la naturalezza delle richieste possibili. E non si limita alle foto: l’AI riesce perfino a trovare momenti specifici all’interno di videoclip. Ciò significa che un utente può cercare, ad esempio, “video in cui gioco con il mio cane” e il sistema troverà esattamente il punto del filmato in cui accade quell’azione. Immaginiamo quanto possa essere difficile per un non vedente individuare una scena dentro un video tramite i normali controlli: ora potrà farlo grazie alla comprensione semantica avanzata del contenuto multimediale.
Apple Intelligence offre anche strumenti di elaborazione e creazione di immagini che, sebbene all’apparenza rivolti a un pubblico vedente, possono in alcuni casi avere risvolti positivi per chi ha disabilità visive. Parliamo di funzioni come Image Playground e Genmoji, che permettono di generare immagini creative o emoji personalizzate a partire da descrizioni testuali. Un utente ipovedente può divertirsi a “disegnare con le parole” senza dover materialmente tracciare linee sullo schermo. Ad esempio, può descrivere una scena e ottenere un’immagine generata dall’AI, da condividere con gli amici. C’è anche Image Wand, uno strumento integrato nella palette di Apple Pencil, che permette di trasformare un semplice schizzo in un’immagine dettagliata correlata – utile per chi magari ha difficoltà a disegnare a mano libera a causa di problemi visivi, ma vuole esprimere un’idea visiva. Ancora, la possibilità di creare Memory Movies personalizzati fornendo solo una descrizione testuale è affascinante: l’utente scrive “una raccolta di foto del viaggio a Napoli con musica allegra”, e l’AI genera automaticamente un video ricordo con quelle caratteristiche. Un utente cieco può usare questa funzione per curare dei contenuti multimediali in autonomia (scelta di foto, montaggio e musica), si affida alle descrizioni e alle etichette, per poi magari condividerli con famiglia e amici sapendo di aver creato qualcosa che rispecchia il suo ricordo. Anche se personalmente non vede il video, ha potuto essere parte attiva nella creazione di quell’esperienza da condividere.
Più concretamente orientate all’accessibilità visiva pura sono invece le funzioni di riconoscimento di oggetti e scene in tempo reale. Apple già forniva, attraverso l’app Lente di ingrandimento (Magnifier), strumenti come il Rilevamento persone, Rilevamento porte e l’innovativa funzione Punta e parla (Point and Speak) introdotta l’anno scorso, che permette di puntare il dito su un’interfaccia fisica per farsene leggere le scritte (pensiamo a regolare un forno a microonde toccandone i pulsanti e facendoli leggere dalla fotocamera). Con Apple Intelligence, queste capacità vengono potenziate da algoritmi ancora più evoluti. L’AI di Apple è in grado di riconoscere un ventaglio più ampio di oggetti e descrivere scene complesse con maggior dettaglio. In pratica, l’iPhone può fornire descrizioni vocali dettagliate dell’ambiente circostante, aiuta le persone cieche a orientarsi meglio. Ad esempio, inquadrando con la fotocamera una stanza, il sistema potrebbe descrivere: “La stanza è un soggiorno con un tavolo rettangolare al centro, quattro sedie attorno; sulla destra c’è un divano blu e una lampada da terra accesa dietro di esso”. Oppure all’aperto: “Davanti a te c’è una scalinata di 5 gradini; a sinistra un distributore automatico; più avanti, a 10 metri, vedo una porta con insegna Ufficio Postale”. Queste descrizioni contestuali, se confermate nella pratica, sarebbero un’enorme spinta all’autonomia. Già oggi la Lente di ingrandimento riconosce e annuncia la presenza di porte (indica anche se sono aperte o chiuse e se c’è un cartello o numero sopra di esse) – Apple Intelligence potrebbe ampliare questa funzione con il riconoscimento di ulteriori ostacoli e punti di riferimento. MyVision, un’associazione per ipovedenti nel Regno Unito, mette in luce come Apple Intelligence possa identificare elementi come porte, scale, mobili e persino descrivere la disposizione di una stanza, rende più sicuro muoversi per un non vedente. Ipotizza anche che l’AI possa avvisare l’utente di potenziali pericoli nel percorso, come ostacoli a terra, dislivelli o traffico in avvicinamento, fornisce alert tempestivi. Pensiamo alla tranquillità di poter sapere tramite auricolari che c’è un gradino in arrivo, o che un monopattino sta sopraggiungendo da destra mentre si cammina (ovviamente l’AI non sostituisce il cane guida o il bastone bianco, e non può ancora darci tutta la sicurezza necessaria per deambulare abbassando la guardia, ma è un ulteriore livello di sicurezza). Se queste funzioni si concretizzano, l’iPhone diventa quasi un “copilota” sensoriale per la persona cieca, sfrutta fotocamera e AI per descrivere ciò che i suoi occhi non possono vedere.
Va detto che tutte queste analisi delle immagini avvengono in modo rispettoso della privacy: Apple effettua il riconoscimento visivo on-device quando possibile, e se deve ricorrere al cloud (ad esempio per generare un’immagine su richiesta) utilizza servizi che non conservano i dati personali. Questo è importante quando parliamo di videocamere sempre più “intelligenti” puntate sul mondo: l’utente può fidarsi che ciò che il suo dispositivo “vede” rimane suo e non viene inviato ad analisi remote non controllate.
Sul fronte delle immagini e della visione, Apple Intelligence fornisce strumenti sia creativi che pratici. Da un lato, dà la possibilità agli utenti di esprimersi visivamente (con Genmoji, Image Playground) anche se non hanno piena capacità visiva; dall’altro, mette a disposizione “occhi digitali” per leggere il mondo circostante. Per chi è ipovedente, funzioni come la pulizia automatica delle foto (che rimuove oggetti indesiderati dallo sfondo) o il miglioramento delle immagini permettono di ottenere foto migliori senza dover usare software complicati – basta un tap su “Clean Up” per far sparire quella persona di troppo comparsa dietro al soggetto. E se l’utente non riesce a notare il dettaglio sgradito nella foto a occhio nudo, l’AI se ne occupa in autonomia. È un esempio di come l’intelligenza artificiale alleggerisce il peso di compiti gravosi per chi ha capacità visive limitate.
Quindi, per i più smanettoni, buona fortuna con Apple Intelligence su iOS 18.4 beta già da adesso, per tutti gli altri… ci aggiorniamo ad aprile!