Le FBI a publié une mise en garde sur les applications mobiles susceptibles de collecter des données personnelles de manière continue, au point de faire peser un risque de sécurité au-delà du simple confort d’usage. Le message vise d’abord les États-Unis, mais l’agence insiste sur un point central: les inquiétudes sont globales, parce que les flux de données et les infrastructures techniques ne s’arrêtent pas aux frontières. Dans le viseur, des applications très populaires développées hors d’Europe, dont TikTok, Temu ou SHEIN, citées comme exemples d’un écosystème où l’enjeu n’est pas seulement l’origine d’une marque, mais la manière dont les données sont stockées, traitées et potentiellement accessibles.
Le cur de l’alerte tient en une idée simple: des informations jugées anodines peuvent, une fois agrégées, devenir sensibles. Historique d’utilisation, localisation, carnet d’adresses, identifiants publicitaires, métadonnées techniques, parfois contenus ou interactions, tout cela peut permettre d’établir un profil fin. Le FBI souligne que le problème ne se limite pas à un pays ou à une entreprise, mais à des chaînes de traitement où l’utilisateur perd rapidement la maîtrise, surtout quand les données transitent vers des juridictions dont les règles de coopération avec les autorités diffèrent de celles de l’Union européenne.
Cette alerte intervient dans un contexte où les applications sont devenues des guichets uniques. Elles concentrent achats, messagerie, divertissement, géolocalisation, paiement, authentification. Le smartphone, lui, agrège capteurs et identifiants persistants. La promesse de services gratuits ou à bas coût repose souvent sur une monétisation indirecte: publicité ciblée, mesure d’audience, optimisation algorithmique. Le FBI, sans viser une mécanique économique en particulier, rappelle que l’addition de permissions, de collectes en arrière-plan et d’infrastructures éloignées peut créer un angle mort pour le grand public.
Le communiqué du FBI: une alerte américaine, des implications mondiales
Le FBI précise que les risques de sécurité des données sont associés à des applications développées à l’étranger et largement utilisées, mais que ces préoccupations dépassent le cadre national. Cette formulation compte: elle évite de réduire la question à une opposition binaire entre pays sûrs et à risque. La variable déterminante devient l’architecture de traitement, l’emplacement des serveurs, la gouvernance interne, les sous-traitants, et le droit applicable en cas de demande d’accès.
Dans la pratique, une application téléchargée depuis une boutique officielle peut faire transiter des données vers plusieurs prestataires: hébergeurs, outils d’analyse, régies publicitaires, services de lutte contre la fraude. Les politiques de confidentialité mentionnent souvent des partenaires sans les détailler. Le FBI pointe surtout l’écart entre la perception de l’utilisateur et la réalité technique: même sans action explicite, des données peuvent être collectées en continu, par exemple via des appels réseau réguliers, des identifiants publicitaires, ou des mécanismes de synchronisation.
Le message est aussi un rappel de méthode: le risque ne se mesure pas seulement à la notoriété d’une application. Une application d’achat à prix cassés, une plateforme vidéo ou un service de livraison peuvent demander des permissions similaires, parfois pour des raisons légitimes, parfois par confort produit. Or, l’empilement de permissions augmente la surface d’exposition. Le FBI invite à considérer la donnée comme un actif stratégique, pas comme un simple bruit numérique.
Pour un lecteur européen, l’alerte résonne avec un débat déjà ancien sur la souveraineté numérique. Le RGPD encadre la collecte et impose des principes de minimisation et de finalité, mais il ne supprime pas le problème de l’extraterritorialité. Une entreprise peut être conforme sur le papier, tout en restant soumise à des obligations légales locales dans sa juridiction d’origine. Le FBI, en creux, met l’accent sur cette tension: la conformité déclarative ne garantit pas l’impossibilité d’un accès par un tiers.
TikTok, Temu, SHEIN: l’infrastructure et les flux de données au centre
Le communiqué évoque des applications très téléchargées, dont TikTok, Temu et SHEIN, comme symboles d’un phénomène plus large: des services mondialisés dont l’empreinte technique est distribuée. L’enjeu n’est pas de présumer une intention malveillante, mais de regarder les conditions structurelles. Où les données sont-elles stockées? Qui administre les systèmes? Quels sous-traitants interviennent? À quelles lois l’entreprise est-elle soumise?
Dans ce cadre, la question de la Chine apparaît de manière récurrente dans les débats publics, pour une raison précise: le FBI rappelle que certaines législations peuvent obliger des entreprises à coopérer avec les autorités si un accès aux données est demandé. Le point sensible n’est pas seulement la transmission d’un contenu secret, mais la constitution de jeux de données massifs. La localisation, les contacts, les habitudes d’achat ou de visionnage, mis bout à bout, permettent d’inférer des préférences, des réseaux relationnels, parfois des vulnérabilités.
Cette logique d’agrégation change la nature du risque. Une donnée isolée peut sembler banale, mais un historique sur plusieurs mois devient une cartographie. Le FBI insiste sur le fait que l’utilisateur n’a souvent presque pas conscience de ce transfert de contrôle. Les interfaces d’autorisation, les fenêtres de consentement et les réglages sont conçus pour fluidifier l’usage. Le consentement, lui, peut être obtenu par fatigue ou par manque de compréhension des conséquences.
Autre élément: l’infrastructure hors d’Europe. Beaucoup d’applications à très grande échelle opèrent via des centres de données et des équipes d’exploitation situés en Asie ou aux États-Unis. Même quand des données sont hébergées dans une région donnée, des accès administrateurs, des outils de supervision ou des sauvegardes peuvent créer des ponts. Le FBI ne détaille pas des cas techniques précis dans l’alerte citée, mais la logique est connue des professionnels: la chaîne de confiance se fragilise dès qu’elle devient trop longue.
Sur le plan économique, ces applications prospèrent grâce à des modèles d’acquisition agressifs, des prix bas ou des contenus fortement personnalisés. Cela encourage une collecte extensive pour optimiser la conversion, réduire la fraude, améliorer la recommandation. Le FBI, en visant la sécurité, rappelle que l’optimisation produit peut entrer en collision avec un principe de sobriété des données. À ce stade, la question devient politique: quel niveau de collecte une société accepte-t-elle pour des services perçus comme indispensables?
Pourquoi la loi locale peut primer sur la promesse de confidentialité
Le point le plus sensible de l’alerte concerne la capacité d’un État à exiger l’accès à des données détenues par une entreprise relevant de sa juridiction. Le FBI mentionne explicitement le cas où la législation impose une coopération avec les autorités. Cette mécanique n’est pas propre à un seul pays: de nombreux États disposent de procédures d’accès, sous des formes variables, avec des garde-fous plus ou moins robustes. Mais le débat se cristallise quand les standards de transparence, de contrôle judiciaire ou de recours diffèrent fortement.
Dans un environnement transnational, la promesse contractuelle d’une application peut se heurter à une obligation légale. Une politique de confidentialité peut affirmer que les données ne sont pas vendues ou qu’elles sont protégées, sans pouvoir exclure un accès demandé par une autorité compétente selon le droit local. Le FBI met en avant cette asymétrie: l’utilisateur pense signer un contrat avec une entreprise, mais il s’expose à un écosystème juridique et technique qu’il ne maîtrise pas.
Ce sujet prend une dimension particulière quand les données concernent des populations sensibles: journalistes, responsables publics, militaires, cadres d’entreprises stratégiques, chercheurs. Pour ces profils, la donnée d’habitude devient un renseignement potentiel. Une suite de localisations peut révéler des lieux de travail, des déplacements réguliers, des rendez-vous. Un carnet d’adresses peut cartographier un réseau. Le FBI ne vise pas uniquement l’escroquerie ou la publicité intrusive, il vise la possibilité d’un usage de ces données à des fins d’influence, de pression ou de ciblage.
Le débat européen, lui, se structure autour du transfert de données hors UE, des mécanismes contractuels, et de la capacité réelle à faire respecter les droits. Le RGPD donne des outils, mais la mise en uvre est longue, et les sanctions interviennent souvent après coup. L’alerte du FBI joue comme un signal: la prévention doit précéder l’incident, parce qu’une base de données copiée ou réquisitionnée ne se récupère pas.
Il faut aussi intégrer une réalité technique: les données ne sont pas toujours explicitement personnelles au sens courant. Identifiants d’appareil, adresses IP, empreintes logicielles, signaux de capteurs, tout cela peut permettre une ré-identification. Le FBI, en parlant de données apparemment inoffensives, vise précisément cette zone grise. Ce n’est pas la donnée qui est dangereuse, c’est la capacité à la relier à une personne et à prédire ses comportements.
Permissions, collecte en arrière-plan, localisation: ce que l’utilisateur cède sans le voir
Le fonctionnement des smartphones favorise une collecte silencieuse. Une application peut demander l’accès à la localisation, aux contacts, aux photos, au micro, aux notifications, ou à des identifiants publicitaires. Dans certains cas, l’accès est indispensable au service. Dans d’autres, il sert surtout à enrichir le profil et à mesurer l’efficacité marketing. Le FBI insiste sur le caractère continu: une fois l’autorisation accordée, des données peuvent remonter même quand l’application n’est pas activement utilisée, selon les réglages du système et la conception du logiciel.
La localisation illustre bien le problème. Une géolocalisation approximative suffit à déterminer une zone de résidence, un lieu de travail, des habitudes de déplacement. Une localisation précise, combinée à des horaires, devient un journal. Les contacts, eux, ne concernent pas seulement l’utilisateur: ils exposent des tiers qui n’ont rien consenti. C’est une externalité rarement comprise, mais centrale dans les débats de régulation.
Autre point: les applications de commerce et de divertissement intègrent souvent des kits de développement tiers, destinés à l’analyse d’audience, à la personnalisation, à la détection de fraude. Chaque kit ajoute un canal potentiel de sortie de données. Même quand l’éditeur principal se veut prudent, la chaîne de sous-traitance peut multiplier les destinataires. Le FBI, en parlant de risque de céder des données à des entreprises et à des gouvernements étrangers, vise cette réalité: la donnée circule et peut changer de statut au fil des traitements.
Face à cela, la responsabilité ne peut pas reposer uniquement sur des gestes individuels. Le marché des applications est conçu pour maximiser l’adoption. Les fenêtres de consentement sont souvent présentées au moment où l’utilisateur veut accéder à une fonctionnalité, ce qui crée une pression implicite. Les paramètres existent, mais ils sont dispersés entre l’application et le système. L’alerte du FBI rappelle un déséquilibre: la compréhension du risque demande une expertise, alors que l’acte d’autoriser prend une seconde.
Le signal envoyé par le FBI peut aussi être lu comme un appel aux entreprises: réduire les permissions, limiter la collecte en arrière-plan, documenter les transferts, et prouver la séparation des accès. Dans les secteurs régulés, cette exigence se traduit déjà par des audits et des politiques de sécurité. Pour les applications grand public, l’incitation est plus faible tant que l’utilisateur ne sanctionne pas par le désabonnement. Le FBI tente de créer ce coût réputationnel en rendant visible ce qui, d’ordinaire, reste invisible.