Apple sceglie Google per l’Intelligenza artificiale di Siri

giovedì 6 novembre 2025


Apple si affiderà all’Intelligenza artificiale di Google Gemini. Secondo un report di Bloomberg, l’obiettivo del colosso di Cupertino riguarda il potenziamento delle nuove funzionalità legate all’Ia di Siri, l’assistente digitale. Per la fonte, la Mela pagherà a Big G circa un miliardo di dollari all’anno per accedere a una versione personalizzata del chatbot. Lo stesso media riportava a giugno discussioni separate di Apple con OpenAI e Anthropic, per valutare la possibilità di integrare in maniera più profonda nei sistemi operativi di iPhone, iPad e Mac, i chatbot ChatGpt o Claude. “Ma dopo aver testato Gemini, Apple ha puntato su Google”, scrive Bloomberg. Il progetto di adattamento di Siri con un modello di terze parti è guidato dal creatore del visore Vision Pro, Mike Rockwell, e dal responsabile dell’ingegneria del software di Apple, Craig Federighi. Il nuovo assistente vocale, che dovrebbe essere lanciato con l’aggiornamento ad iOS 26.4, ha il nome in codice Linwood. Ad oggi, Apple si affida a ChatGpt per rispondere ad alcune domande fatte dagli utenti a Siri. “In base all’accordo, il modello Gemini di Google gestirà le funzioni di riepilogo e pianificazione di Siri, ovvero i componenti che aiutano l’assistente vocale a sintetizzare le informazioni e a decidere come eseguire attività complesse” prosegue Bloomberg. “Alcune funzionalità continueranno a utilizzare i modelli interni di Apple, garantendo che i dati degli utenti rimangano isolati dall’infrastruttura di Google”.

Frattanto, Apple ha confermato l’arrivo in Unione europea della funzione di traduzione in tempo reale tramite gli auricolari AirPods. Live Translation sarà disponibile anche in Italia entro dicembre, tramite un aggiornamento del sistema operativo degli iPhone. Come sottolineato al lancio in mercati selezionati, non sono gli auricolari in sé ad avere possibilità di tradurre ma comunicano con l’iPhone abbinato, su cui è presente Apple Intelligence, per trasferire l’audio recepito, convertirlo nella lingua desiderata e tradurlo. La traduzione in tempo reale è supportata da AirPods Pro 3, AirPods Pro 2 e AirPods 4 con cancellazione attiva del rumore, in nove lingue: inglese, francese, tedesco, portoghese, spagnolo, italiano, cinese (mandarino semplificato e tradizionale), giapponese e coreano. In una nota ufficiale, il colosso americano spiega che l’arrivo della funzione in Unione Europea è “stato ritardato a causa del lavoro di progettazione aggiuntivo necessario per conformarsi ai requisiti del Digital Markets Act”. Quando due persone che parlano in lingue diverse utilizzano gli AirPods con la funzione abilitata su un iPhone, la cancellazione attiva del rumore aiuta ad abbassare il tono della voce dell’altra persona, facilitando la concentrazione sulla traduzione e mantenendo la conversazione più naturale. Se la persona con cui si parla non ha gli AirPods, si potrà visualizzare una trascrizione in tempo reale della lingua parlata sullo schermo dell’iPhone. La traduzione in tempo reale è integrata anche in Messaggi, FaceTime e nell’app Telefono.


di Redazione