L’IA dans le secteur public, c’est censé être simple : moins de paperasse, des décisions plus rapides, des services qui tournent mieux. Et pourtant, au Royaume-Uni, un nom met le feu à chaque appel d’offres : Palantir.
D’un côté, la promesse est sexy : connecter des données éparpillées, aider les hôpitaux à gérer les lits, réduire le temps passé à remplir des formulaires, mieux coordonner les services sociaux. De l’autre, tu as un cocktail explosif : données sensibles, contrats partiellement expurgés, entreprise américaine historiquement liée au renseignement et à la défense, et une défiance grandissante d’une partie du corps médical, d’ONG et d’élus locaux.
On va faire le tri, sans bullshit : quels contrats, quels chiffres, quelles critiques sont solides, lesquelles relèvent du théâtre politique, et surtout comment un acteur public (ou un prestataire) peut déployer de l’IA sans se faire incendier.
Palantir, c’est quoi (et pourquoi ça déclenche autant)
Palantir vend des plateformes de data (Foundry, Gotham) qui servent à ingérer, nettoyer, relier, gouverner et analyser des données venant de dizaines de systèmes. En clair : là où une organisation a 40 bases de données qui ne se parlent pas, Palantir te propose une couche qui permet de construire des tableaux de bord, des workflows, et des modèles (y compris IA).
Le problème ? Palantir n’est pas perçu comme un simple éditeur logiciel. Son ADN est lié aux agences de sécurité et au militaire. Même si, techniquement, un outil de data reste un outil, l’acceptabilité sociale n’est pas la même quand tu touches :
- aux données patients (NHS)
- aux dossiers d’enfants et de familles (services sociaux)
- à la défense
Le débat devient vite émotionnel. Mais il y a aussi des points factuels.
Les contrats qui cristallisent la polémique (avec chiffres)
1) NHS England : la Federated Data Platform (FDP)
Le gros morceau, c’est le contrat NHS England : £330 millions sur 7 ans pour construire une Federated Data Platform (FDP) destinée à regrouper et rendre exploitables des données opérationnelles et cliniques (capacités hospitalières, parcours patients, etc.). Source : Digital Health (publication du contrat, largement expurgé) [digitalhealth.net, 2024].
Pourquoi c’est sensible ? Parce que le NHS traîne un historique compliqué sur les programmes data (perception de privatisation rampante, scandales de partage de données, etc.). Et là, tu ajoutes :
- un prestataire américain
- un contrat dont des passages clés sont caviardés
- une crainte persistante de ré-identification même si les données sont pseudonymisées
La British Medical Association (BMA) a publiquement averti que ça pouvait saper la confiance des patients dans les systèmes de données du NHS (source : The Guardian, juillet 2025).
Palantir répond que :
- ils ne peuvent pas monétiser les données (illégal)
- l’objectif est d’améliorer les soins
- certaines critiques sont “idéologiques” (déclaration de Louis Mosley, VP UK/Europe, The Guardian, juillet 2025)
2) Coventry City Council : IA dans les services sociaux
En 2025, le conseil municipal de Coventry signe un contrat d’environ £500 000 par an avec Palantir pour un pilote IA dans les services sociaux : transcription, résumés de dossiers, support au suivi SEND (Special Educational Needs and Disabilities). Source : The Guardian (août 2025) et Computing.co.uk.
Là, on touche à des données ultra-sensibles : enfants, familles, vulnérabilités. Même si le projet est présenté comme un proof of concept sur 12 mois, il déclenche des protestations, notamment sur :
- l’éthique
- la gouvernance des données
- les liens de Palantir avec des activités militaires
3) Défense / MoD : la montée en puissance des contrats
Au-delà du NHS et des collectivités, Palantir a des liens croissants avec le Ministry of Defence. Plusieurs enquêtes et papiers évoquent des montants qui pourraient dépasser £500 millions de contrats publics au UK, avec des engagements potentiels plus élevés à moyen terme (sources de presse, dont The Guardian et analyses sectorielles).
Même si défense = domaine légitime pour des outils d’analyse, le sujet rejaillit sur les autres contrats : pour beaucoup, c’est “la même boîte” qui touche à la santé, au social, et au militaire.
Pourquoi ça fait polémique : 6 raisons concrètes
1) Le nerf de la guerre : la confiance (pas la tech)
Dans le public, tu peux avoir la meilleure architecture du monde, si les citoyens pensent que tu fais du “data grabbing”, tu es mort.
La FDP du NHS et les projets sociaux sont attaqués parce que les gens entendent : “centralisation des données + prestataire controversé”. Même si le mot “federated” est censé rassurer, l’impression dominante reste : plus de données, plus de risques.
2) Opacité contractuelle et gouvernance floue
Quand des contrats sont publiés mais fortement expurgés, tu crées un vide. Et dans ce vide, chacun projette ses peurs.
Des organisations comme Foxglove et d’autres acteurs juridiques ont contesté la transparence des décisions et des documents autour de ces marchés (ex : démarches rapportées par The Register, 2024).
Point pragmatique : même si tu as de bonnes raisons de masquer (sécurité, secrets commerciaux), l’effet politique est catastrophique.
3) Risque juridique : données, opt-out, conformité
Le UK a un cadre data solide (UK GDPR, Data Protection Act). Mais la question n’est pas “est-ce légal sur le papier ?”
La question est :
- qui est responsable en cas d’incident ?
- quelles données sortent du périmètre ?
- comment est géré l’opt-out patient ?
- quels sous-traitants ?
Le débat autour du NHS inclut régulièrement la peur d’un glissement vers des usages secondaires non désirés.
4) Risque “US company” : CLOUD Act et souveraineté
Même si les données sont hébergées au UK, une entreprise américaine peut être soumise à des obligations légales US. En 2025, des discussions politiques ont été relancées après un rapport suisse suggérant des inquiétudes sur l’accès potentiel par des services US à des données confiées à Palantir, ce qui a poussé des MPs britanniques à demander plus de due diligence (source : The Guardian, déc. 2025).
Ce point est souvent mal compris techniquement, mais politiquement il est puissant : “nos données de santé chez une boîte US”.
5) Vendor lock-in : dépendance et coût long terme
Palantir est réputé pour livrer vite… mais aussi pour créer une dépendance : modèles de données, pipelines, interfaces, formation, etc. Si tu construis ton système autour d’une plateforme propriétaire, migrer peut coûter une fortune.
Dans le public, c’est un drapeau rouge : tu peux gagner 12 mois, puis payer 10 ans.
6) Le passif réputationnel : surveillance, défense, controverses
Même si un projet local n’a rien à voir avec le militaire, Palantir porte une image de “surveillance tech”. Amnesty International a par exemple critiqué l’attribution du contrat NHS en évoquant des liens avec des violations graves des droits humains (source : The Guardian, nov. 2023).
Tu peux contester l’angle, mais tu ne peux pas ignorer l’impact : l’acceptabilité devient un critère aussi important que la performance.
Ce que Palantir apporte vraiment (et pourquoi l’État signe quand même)
Il faut être honnête : s’il y a autant de contrats, c’est que la douleur est réelle.
- Le NHS a des systèmes fragmentés, des silos, des hôpitaux qui n’ont pas la même stack.
- Les collectivités ont des équipes surchargées, des dossiers éparpillés, des processus manuels.
Une plateforme de données bien déployée peut :
- réduire le temps de reporting
- améliorer la planification (lits, blocs, flux)
- accélérer des décisions opérationnelles
- standardiser la gouvernance
Et le contexte budgétaire pousse à chercher des gains. Le Financial Times rapportait une hausse rapide des contrats IA publics : £573m au 15 juillet 2025, déjà au-dessus de 2024 (£468m), avec un objectif gouvernemental d’économies massives via modernisation (source : FT, 2025).
Donc oui : l’État veut des résultats. Et Palantir sait vendre une exécution “enterprise-grade” là où beaucoup d’intégrateurs livrent du PowerPoint.
Analyse Deepthix : la vraie erreur, c’est de confondre “outil” et “programme de société”
Quand tu déploies une plateforme data dans la santé ou le social, tu ne vends pas un logiciel. Tu changes la relation entre citoyens et institutions.
Si tu ne fais pas :
- une gouvernance lisible
- des garanties opposables (contractuelles + techniques)
- une communication transparente
…tu offres un boulevard aux opposants. Et parfois, ils auront raison.
Comment déployer de l’IA dans le public sans te faire démolir (checklist actionnable)
1) Sépare “data platform” et “IA générative”
Ne mélange pas tout. Un projet de fédération de données (FDP) n’est pas un projet de GenAI qui résume des dossiers. Les risques et les contrôles ne sont pas les mêmes.
Action : deux DPIA distinctes, deux comités de gouvernance, deux plans d’audit.
2) Contrat lisible : publie ce qui peut l’être
Si tu caviardes 60% du document, tu perds la bataille.
Action : publier au minimum :
- catégories de données
- finalités
- durées de conservation
- sous-traitants
- clauses anti-monétisation
- modalités d’audit et de réversibilité (exit plan)
3) Architecture “minimisation” : moins de données, mieux
Le meilleur risque, c’est celui que tu n’as pas.
Action :
- pseudonymisation par défaut
- séparation des identifiants
- journalisation (audit logs) inviolable
- accès par rôle + justification
4) Anti lock-in : exige la réversibilité
Action :
- formats ouverts (export)
- documentation des modèles de données
- tests de migration annuels
- clause de sortie chiffrée (coût/plafond)
5) Mesure des gains : arrête les “pilotes éternels”
Action : KPI simples :
- temps de traitement d’un dossier
- délai de sortie patient
- taux d’erreurs de saisie
- satisfaction agents
Si tu ne peux pas mesurer, tu ne dois pas industrialiser.
6) Implication terrain : médecins, travailleurs sociaux, patients
C’est basique, mais trop souvent ignoré.
Action : co-design, ateliers, droit de veto sur certains usages, et un canal de signalement.
Conclusion : la polémique Palantir est un symptôme, pas la cause
Palantir est l’aimant à controverses parce qu’il incarne tout ce qui fait peur : puissance analytique, historique défense, opacité perçue. Mais le vrai sujet, c’est la maturité du secteur public sur la gouvernance des données.
Si le UK veut des services plus efficaces, il faudra de la tech. La question n’est pas “IA ou pas IA”, c’est : quelles garanties, quelle transparence, quelle réversibilité.
Et si tu es entrepreneur ou prestataire : retiens ça. Dans les marchés sensibles, l’exécution technique ne suffit pas. Tu dois gagner la bataille de la confiance.
Tu veux automatiser tes opérations avec l'IA ? Réserve un call de 15 min pour en discuter.
