banner
Centro notizie
Ampia conoscenza nella vendita e nella produzione

Apple evita l'hype sull'intelligenza artificiale al keynote del WWDC inserendo il ML nei prodotti

Jun 13, 2023

Visualizza la versione non AMP su arstechnica.com

Tra i nuovi impressionanti prodotti come l'Apple Silicon Mac Pro e l'Apple Vision Pro rivelati all'evento keynote della WWDC 2023 di lunedì, i presentatori di Apple non hanno mai menzionato il termine "AI", un'omissione notevole dato che i suoi concorrenti come Microsoft e Google si sono concentrati pesantemente su AI generativa al momento. Tuttavia, l’intelligenza artificiale faceva parte della presentazione di Apple, solo con altri nomi.

Sebbene al giorno d'oggi "AI" sia un termine molto ambiguo, circondato sia da progressi sorprendenti che da un clamore estremo, Apple ha scelto di evitare tale associazione e si è invece concentrata su termini come "apprendimento automatico" e "ML". Ad esempio, durante la demo di iOS 17, il vicepresidente senior dell'ingegneria del software Craig Federighi ha parlato dei miglioramenti alla correzione automatica e alla dettatura:

La correzione automatica si basa sull'apprendimento automatico del dispositivo e nel corso degli anni abbiamo continuato a migliorare questi modelli. La tastiera ora sfrutta un modello linguistico trasformatore, che rappresenta lo stato dell'arte per la previsione delle parole, rendendo la correzione automatica più precisa che mai. E con la potenza di Apple Silicon, iPhone può eseguire questo modello ogni volta che tocchi un tasto.

In particolare, Apple ha menzionato il termine AI “trasformatore” in un keynote di Apple. L'azienda ha parlato specificamente di un "modello linguistico del trasformatore", il che significa che il suo modello di intelligenza artificiale utilizza l'architettura del trasformatore che ha alimentato molte recenti innovazioni di intelligenza artificiale generativa, come il generatore di immagini DALL-E e il chatbot ChatGPT.

Un modello di trasformatore (un concetto introdotto per la prima volta nel 2017) è un tipo di architettura di rete neurale utilizzata nell'elaborazione del linguaggio naturale (PNL) che impiega un meccanismo di auto-attenzione, che gli consente di dare priorità a diverse parole o elementi in una sequenza. La sua capacità di elaborare input in parallelo ha portato a significativi miglioramenti in termini di efficienza e ha alimentato scoperte nelle attività di PNL come la traduzione, il riepilogo e la risposta alle domande.

A quanto pare, il nuovo modello di trasformatore di Apple in iOS 17 consente correzioni automatiche a livello di frase che possono terminare una parola o un'intera frase quando si preme la barra spaziatrice. Impara anche dal tuo stile di scrittura, che guida i suoi suggerimenti.

Tutta questa elaborazione AI sul dispositivo è abbastanza semplice per Apple grazie a una porzione speciale dei chip Apple Silicon (e dei precedenti chip Apple, a partire dall’A11 nel 2017) chiamata Neural Engine, progettata per accelerare le applicazioni di apprendimento automatico. Apple ha anche affermato che la dettatura "ottiene un nuovo modello di riconoscimento vocale basato su trasformatore che sfrutta il Neural Engine per rendere la dettatura ancora più accurata".

Durante il keynote, Apple ha menzionato il "machine learning" anche più volte: descrivendo una nuova funzionalità di blocco dello schermo dell'iPad ("Quando selezioni una Live Photo, utilizziamo un modello avanzato di machine learning per sintetizzare fotogrammi aggiuntivi"); Funzionalità PDF di iPadOS ("Grazie ai nuovi modelli di apprendimento automatico, iPadOS può identificare i campi in un PDF in modo da poter utilizzare la compilazione automatica per compilarli rapidamente con informazioni come nomi, indirizzi ed e-mail dei tuoi contatti."); una funzionalità Audio adattivo degli AirPods ("Con il volume personalizzato, utilizziamo l'apprendimento automatico per comprendere le tue preferenze di ascolto nel tempo"); e una funzionalità widget di Apple Watch chiamata Smart Stack ("Smart Stack utilizza l'apprendimento automatico per mostrarti informazioni rilevanti proprio quando ne hai bisogno").

Apple ha anche lanciato una nuova app chiamata Journal che consente l'inserimento nel diario personale di testo e immagini (una specie di diario interattivo), bloccato e crittografato sul tuo iPhone. Apple ha affermato che l’intelligenza artificiale ha un ruolo, ma non ha utilizzato il termine “AI”.

"Utilizzando l'apprendimento automatico sul dispositivo, il tuo iPhone può creare suggerimenti personalizzati di momenti per ispirare la tua scrittura", ha affermato Apple. "I suggerimenti saranno selezionati in modo intelligente dalle informazioni sul tuo iPhone, come foto, posizione, musica, allenamenti e altro ancora. E tu controlli cosa includere quando abiliti i suggerimenti e quali salvare nel tuo diario."

Infine, durante la demo del nuovo Apple Vision Pro, l'azienda ha rivelato che l'immagine in movimento degli occhi di un utente sulla parte anteriore degli occhiali proviene da uno speciale avatar 3D creato scansionando il tuo viso e, hai indovinato, dall'apprendimento automatico.