top of page

Zero Trust et l’informatique confidentielle

Dernière mise à jour : il y a 3 jours

Zero Trust, un concept strict de sécurité informatique.
Aride, froidement technique, mais nécessaire dans un contexte de guerre numérique larvée

Une transformation profonde de la sécurité numérique


L’informatique confidentielle et le modèle Zero Trust constituent aujourd’hui les piliers majeurs de la cybersécurité moderne.


En effet, la montée en puissance de ces deux concepts répond à une réalité qui n’est plus contestable : les modèles périmétriques classiques ne suffisent plus dans un monde où les données circulent entre cloud, Edge, terminaux personnels, smartphones, automobiles, réseaux sociaux et infrastructures hybrides, notamment.


Ensemble, ces deux approches redéfinissent la manière dont les organisations protègent leurs actifs numériques critiques, ce qui ne va pas sans mal, tant la cybersécurité est le parent pauvre des investissements informatiques, voire des investissements tout courts.


Origines et évolution du Zero Trust : les limites du modèle périmétrique


Depuis le début des années 1980, la sécurité informatique repose sur un principe simple :

construire un périmètre fort (firewalls, VLAN, DMZ, segmentation réseau) et considérer que tout ce qui se trouve à l’intérieur est plus ou moins digne de confiance.


C’est un peu une transposition de la cellule familiale traditionnelle, ou celle d’un clan, appliquée à une entreprise ou une organisation.


Premières remises en question


En 2004, le Jericho Forum, devenu depuis le Security Forum off industriel consortium, introduit le concept de « dépérimétrisation » :


« Les utilisateurs et les applications quittent de plus en plus souvent le réseau interne, en emportant leurs données avec eux, voire leurs droits d’accès, rendant obsolète la notion de périmètre de sécurité informatique unique. »


Bien sûr, en vingt années, le problème n’a fait que croitre !


Naissance du Zero Trust moderne


En 2010, John Kindervag (Forrester Research) formalise le « modèle Zero Trust » :


  • Ne jamais faire confiance

  • Toujours vérifier

  • Appliquer une segmentation fine des sessions et des identités.


Google accélère la transition en 2009–2014 avec BeyondCorp, une architecture interne qui supprime le VPN et repose essentiellement sur l’identité et le contexte pour autoriser l’accès.


Ainsi, un directeur de la comptabilité qui sollicitera l'accès, avec les identifiants corrects, vers un serveur d’entreprise depuis un terminal jamais utilisé, au beau milieu de la nuit, et dans une région inhabituelle, déclenchera une vérification complémentaire, voire un blocage immédiat.


Standardisation et adoption


En 2020, le NIST publie la norme SP 800 207, premier cadre officiel définissant l’architecture Zero Trust (ZTA).


Les agences nationales américaines (ANSSI, NCSC) recommandent désormais Zero Trust pour tout nouveau déploiement cloud ou hybride, ce qui est un bon début.


Et techniquement ? L’identité comme nouveau périmètre


Chaque utilisateur, appareil, service ou API doit être identifié, authentifié et autorisé en continu par un processus interne fiable. C'est court, simple, précis, mais cela nécessite une infrastructure logicielle dédiée complexe.


Micro segmentation


De plus, les accès sont limités à la ressource informatique strictement nécessaire pour un usage donné, en fonction de l’identification précédente.


Cela réduit drastiquement les mouvements latéraux en cas de compromission, modus operandi classiques de nombreuses cyberattaques.


Vérification continue


Chaque transaction est évaluée selon :


  • L'identité

  • L'état du terminal

  • La localisation

  • Le comportement

  • Le niveau de risque


Principe du moindre privilège


Toujours dans le même état d’esprit, il n’existe aucun accès implicite pour personne.


Les droits sont dynamiques et réévalués régulièrement en fonction du contexte, ce qui nécessite un important travail de préparation logicielle.


L’autre membre du binôme : l’informatique confidentielle


L’informatique confidentielle (Confidential Computing) vise à protéger les données pendant leur traitement, et non seulement au repos ou en transit.


Elle repose sur des environnements d’exécution sécurisés (TEE, enclaves matérielles) capables d’isoler les données même du système d’exploitation ou de l’hyperviseur.


Pourquoi cette approche devient essentielle ?


Parce que les architectures cloud et edge multiplient les risques :


• Accès privilégiés des administrateurs

• Attaques sur l’hyperviseur

• Compromission du kernel (noyau système)

• Espionnage industriel


L’informatique confidentielle réduit ces risques en rendant les données illisibles pour toute entité non autorisée, même en cas de compromission du système hôte et d’exfiltration des données.


Technologies clés


• Enclaves Intel SGX, AMD SEV, ARM TrustZone

• Trusted Execution Environments (TEE)

• Chiffrement en mémoire

• Attestation cryptographique des environnements d’exécution


Convergence Zero Trust + Informatique confidentielle


Ces deux approches se renforcent mutuellement.

Zero Trust sécurise l’accès : il contrôle qui peut accéder à quoi, dans quelles conditions, et pour combien de temps.


L’informatique confidentielle sécurise l’usage : elle garantit que les données restent protégées même après l’accès, pendant leur traitement, ce qui représente une deuxième couche de prévoyance.


Ensemble, elles créent un modèle de sécurité complet


• Authentification stricte

• Autorisation dynamique

• Isolation cryptographique

• Traçabilité et auditabilité

• Résilience face aux attaques internes ou supply chain (mises à jour, notamment)


Quelques exemples pratiques :


Secteur financier : les banques utilisent des enclaves sécurisées pour :


• analyser des données sensibles (fraude, scoring) sans exposition,

• partager des données interbanques via des environnements chiffrés,

• réduire les risques liés aux administrateurs cloud.


Santé et recherche biomédicale : les hôpitaux peuvent traiter les données des patients dans le cloud tout en garantissant leur confidentialité.


Les consortiums de recherche utilisent des TEE pour entraîner des modèles IA sur des données multi institutions sans les divulguer.


Industrie et IoT : les environnements industriels utilisent Zero Trust pour contrôler l’accès aux machines et capteurs. Les TEE protègent les algorithmes embarqués contre l’espionnage industriel, ou les prises de contrôle à distance.


Cloud hybride et multicloud : les entreprises peuvent déplacer des charges sensibles vers le cloud public tout en conservant un niveau de sécurité acceptable.


Défis actuels : complexité de mise en œuvre


Ne nous leurrons pas, Zero Trust nécessite une refonte profonde des politiques d’accès, de l’inventaire des ressources et des workflows, pour ne pas dire un changement complet de paradigme : ce sera lourd, lent, et coûteux, et les entreprises rechignerons, surtout celles qui n’ont jamais fait l’objet d’une cyberattaque grave.


Standardisation encore en évolution


Bien que le NIST SP 800 207 soit un cadre solide, les implémentations varient selon les fournisseurs, ce qui n’arrange pas les choses.


Performance et maturité des enclaves : les TEE évoluent rapidement, mais restent parfois limités en capacité ou en compatibilité logicielle, ce qui augmente encore les coût de déploiement.


Vers une adoption massive d’ici 2030 ?


La combinaison Zero Trust + Confidential Computing deviendra un standard pour :


• Les infrastructures critiques

• La cyberdéfense

• Les services cloud souverains

• Les environnements IA sensibles

• Les chaînes d’approvisionnement numériques


Du moins peut-on l’espérer…


Conclusion


L’informatique confidentielle et le Zero Trust ne sont pas des tendances passagères : ce sont des transformations structurelles, plus que jamais nécessaires, de la cybersécurité !


Elles répondent à un monde où les frontières du système d’information ont disparu, où les données circulent partout, et où les menaces, privées, étatiques, voire un mélange des deux, sont omniprésentes.


La convergence de ces deux tendances crée un modèle robuste, adapté aux environnements hybrides, distribués, et hautement sensibles, qui domineront la décennie 2026–2035.


Tout cela en théorie, bien sûr !


Car quand on analyse les dernières cyberattaques, même sur de grands groupes, on s’aperçoit, trop souvent, que les principes les plus basiques de la cybersécurité ne sont même pas appliqués !


Alors, que dire du Zero Trust et de l’informatique confidentielle pourtant techniquement au point, mais qui nécessiteront un changement complet des mentalités ?


Qu’il s’agira avant tout d’une prise de conscience des menaces, de la sensibilisation de l’ensemble du personnel en passant par les cadres dirigeants, et qu’ensuite seulement, on pourra dégager une volonté de redéfinir ce que doit être la sécurité informatique, et ce que nous en attendons…

Commentaires


bottom of page