Maksym Yemelyanov - Fotolia
Google teste la discrétion des apps Android avec le machine learning
Google va utiliser l’apprentissage automatique pour améliorer la confidentialité des applications Android et limiter leur gourmandise en matière de permissions.
Google veut s'assurer que les utilisateurs d’Android sont protégés contre les intrusions et l’indiscrétion des applications en utilisant l'apprentissage automatique pour en améliorer l’analyse. Mais les avis divergent sur l'efficacité de ces efforts.
Les applications soumises au Google Play Store font déjà l'objet d'une recherche de codes malveillants et de vulnérabilités. Mais Google entend utiliser une analyse par groupe de pairs pour s'assurer que les applications ne demandent pas d'autorisations inutiles.
« Pour protéger nos utilisateurs et aider les développeurs à naviguer dans cet environnement complexe, Google analyse les signaux de confidentialité et de sécurité pour chaque application dans Google Play. Nous comparons ensuite chaque application à d'autres applications aux fonctionnalités comparables, connues sous le nom de pairs fonctionnels. La création de groupes de pairs nous permet de calibrer nos estimations des attentes des utilisateurs et de fixer des limites adéquates de comportement qui peuvent être considérés comme dangereux ou intrusifs », expliquent Martin Pelikan, Giles Hogben et Ulfar Erlingsson, de l'équipe de sécurité et de confidentialité de Google dans un billet de blog. « Ce processus permet de détecter les applications qui collectent ou envoient des données sensibles sans besoins clairs, et permet aux utilisateurs de trouver des applications qui offrent la bonne fonctionnalité et respectent leur vie privée ».
Google explique avoir développé un algorithme de machine learning pour grouper des applications aux fonctionnalités similaires afin de comparer les paramètres de confidentialité et déterminer si une application doit être inspectée de plus près par ses équipes de sécurité et de confidentialité.
Rebecca Herold, CEO de Privacy Professor, estime que, plutôt que de s'appuyer sur l'apprentissage automatique et « les points de vue subjectifs d’experts en sécurité et confidentialité », Google devrait envisager d'exiger des applications Android qu’elles se conforment « à des standards sécurité et de confidentialité précis ».
Ainsi, selon elle, si les développeurs pouvaient affirmer avoir validé leurs applications pour respecter des standards comme IEEE P1912 et être conformes au RGPD, entre autres, « cela donnerait plus confiance, avec des normes établies et internationalement acceptées, faisant autorité, que de laisser le dernier mot au jugement humain et aux résultats de l’intelligence artificielle ». En outre, « en établissant une exigence minimale pour respecter les standards techniques de sécurité et de confidentialité spécifiés, les concepteurs et les éditeurs d'applications peuvent créer des contrôles de sécurité et de confidentialité dans les applications avant de les soumettre au Google Play Store pour qu'ils soient examinés par les experts ».
Michael Patterson, PDG de Plixer, estime pour sa part que les développeurs pourraient probablement trouver des moyens de contourner le nouveau moteur d’analyse de confidentialité des applications Android. Pour lui, l’appétit des éditeurs pour les données personnelles est trop grand. Et il entrevoit plusieurs raisons pouvant limiter la portée de l’initiative de Google : « par exemple, des éditeurs comme Words With Friends peuvent simplement créer une fonctionnalité qui justifie leur besoin de collecter des détails tels que les informations de géolocalisation ».
Et si Rebecca Herold trouve « génial » que Google analyse les pratiques de confidentialité des applications Android, elle met en doute l'efficacité de l'apprentissage automatique. Car pour elle, pour étudier ces pratiques, il faut tenir compte du contexte d’utilisation et de partage des données. Dès lors, elle estime que Google devrait mettre en place une équipe assurant « un examen rapide des applications qui n'ont pas été signalées par les mécanismes d’intelligence artificielle afin d’étudier les données impliquées et les audiences de applications considérées comme sûres, afin de produire une deuxième opinion ». Et potentiellement intercepter les applications passant au travers des mailles du filet.
Liviu Arsene, analyste chez Bitdefender, estime quant à lui que cette analyse automatisée risque de laisser de côté le facteur humain : « la question de la confidentialité est une chose extrêmement personnelle. Certains utilisateurs peuvent trouver un suivi de géolocalisation intrusif, alors que d'autres non ». Qui plus est, pour lui, « essayer de mettre une étiquette de confidentialité sur les 3 millions d'applications actuellement disponibles sera difficile et les faux positifs se produiront certainement ».