Messages chiffrés, goûts musicaux… Apple Intelligence récupère-t-elle vos informations personnelles?

[Mise à jour du 03/09/2025: Ajout des réponses d'Apple à l'étude]
"Un immense pas en avant pour le respect de la vie privée dans l'IA." Par cette phrase, Apple promettait une rareté: respecter les données personnelles des utilisateurs, en l'occurence, ceux qui souhaitent profiter de l'intelligence artificielle générative sur les iPhone, iPad et Mac.
Un peu moins d'un an plus tard, un chercheur en sécurité a un peu terni cette belle image prometteuse.
Des données sensibles envoyées à Apple
Comme le rapporte le site spécialisé Dark Reading, les résultats des recherches de Yoav Magid, chercheur en sécurité chez Lumia Security, semblent démontrer qu'Apple reçoit des informations plus ou moins personnelles et contextuelles lors du fonctionnement d’Apple Intelligence. Le chercheur expliquait ainsi que si vous demandez à Siri le temps qu'il fait, Siri récupère et envoie aux serveurs de l'entreprise des informations sur la musique que vous écoutez au même moment.
Dans un même esprit, et plus préoccupant car les données sont davantage personnelles, le chercheur indiquait que si vous utilisez Siri pour envoyer un message via une application chiffrée, comme Whatsapp ou iMessage. Le contenu du message, et les informations de contact sont envoyés aux serveurs d'Apple.
Voilà en deux exemples le tableau noir dressé par ce chercheur, mais ce tableau doit être nuancé. Premier point essentiel, le chercheur semble considérer que toutes ces fonctions recourent à Apple Intelligence et à ses serveurs sécurisés. Or, selon le géant américain qui a répondu à nos sollicitations, aucune des opérations décrites par Yoav Magid ne recourt au Private Cloud Compute (PCC), l’infrastructure développée par Apple pour permettre de proposer des solutions intelligentes qui épargnent la vie privée.
En outre, Apple nous précise que les données envoyées à ses serveurs ne sont ni stockés ni accessibles à Apple, et sont supprimées dès que la réponse à la requête a été fournie.
Deuxième point capital, Siri ne fait pas partie d’Apple Intelligence. Siri est animée par cette technologie, l’intégration est en effet de plus en plus étroite, mais l’assistant reste un élément distinct. Dicter un message via Siri sollicite SiriKit, lancé en 2016. A ce titre, précise Apple, la fonction est gérée par des conditions d’utilisation inchangées et publiques depuis longtemps, qui préviennent de l’envoi de ce genre de données.
Dans un même esprit, et contrairement à ce que disait le chercheur en sécurité de Lumia Security, les requêtes intégrées sollicitant ChatGPT ne sont pas, non plus, traitées par Private Cloud Compute. Le géant de Cupertino indique n’avoir jamais laissé entendre que c’était le cas.
De fait, quand on utilise ChatGPT depuis iOS, par exemple, il est demandé systématiquement à l’utilisateur s’il souhaite communiquer ses requêtes et données à ChatGPT. Sur ce point, Apple a même fait en sorte que, sauf à activer votre compte OpenAI, les requêtes ne soient pas conservées. L’adresse IP de l’utilisateur est également masquée, chaque session étant indépendante. Enfin, ChatGPT n’est pas autorisé à lier des sessions entre elles, à réidentifier des utilisateurs ou à entraîner ses modèles avec les requêtes reçues, rappelle Apple.
L'IA et le mythe de la vie privée ?
Si l’inquiétude est légitime quand on parle de nos données personnelles, à en croire les réponses circonstanciées d’Apple, l’étude de ce chercheur semble rater sa cible, en associant Private Cloud Compute (et donc Apple Intelligence) à des services qui ne sont pas concernés, notamment.
En définitive, le tort d’Apple dans cette affaire semble être de ne pas avoir pris assez le temps de détailler la dentelle de ces différentes politiques de respect de la vie privée, qui peuvent varier d’un service à un autre, à Yoav Magid. Le chercheur a en effet contacté Apple, qui a d'abord collaboré avec lui et fait preuve d'intérêt pour ses découvertes. Ensuite, les représentants de la firme de Cupertino lui ont indiqué que ces observations correspondaient à des "comportements attendus" et que cette manière de faire est conforme à leur charte de confidentialité.
Si les trouvailles du chercheur semble viser la mauvaise cible, reste que l’usage des IA est régulièrement l’occasion de transmettre des informations sans qu’on le souhaite. Que faire, dès lors ? Yoav Magid explique comment il procède quand il utilise des services "intelligents". Sans lire les conditions d'utilisation et de respect de la vie privée, précise-t-il, ce qui aurait pu être une bonne idée en l’occurrence, il désactive systématiquement les fonctionnalités qui permettent aux IA d'apprendre des usages. Un moyen de réduire la trace laissée par ses requêtes. Ce n'est pas un remède miracle, mais c'est déjà un bon début.