Skip to content

Aws pci tokenization

Comment utiliser la tokenisation pour améliorer la sécurité des données et réduire la portée de l’audit

par Tim Winston, Kristine Harper et Michael Guzmanon dans AWS Security Token Service, Bonnes pratiques, Sécurité, Identité et conformité, Guide techniquePermalink Commentaires Partager

25 avril 2023 : Nous avons mis à jour cet article de blog pour inclure davantage de ressources d’apprentissage sur la sécurité.


La tokenisation d’éléments de données sensibles est un sujet brûlant, mais vous ne savez peut-être pas quoi tokeniser, ni même comment déterminer si la tokenisation convient aux besoins commerciaux de votre organisation. Les secteurs soumis à des normes de conformité financières, de sécurité des données, réglementaires ou de confidentialité recherchent de plus en plus de solutions de tokenisation pour minimiser la distribution de données sensibles, réduire le risque d’exposition, améliorer la posture de sécurité et alléger les obligations de conformité. Cet article fournit des conseils déterminer vos besoins en matière de tokenisation, en mettant l’accent sur l’optique de la conformité compte tenu de notre expérience en tant qu’évaluateurs de sécurité qualifiés PCI (PCI QSA).

Qu’est-ce que la tokenisation ?

La tokenisation est le processus qui consiste à remplacer des éléments de données sensibles réels par des éléments de données non sensibles qui n’ont aucune valeur exploitable à des fins de sécurité des données. Les applications sensibles à la sécurité utilisent la tokenisation pour remplacer les données sensibles, telles que les informations d’identification personnelle (PII) ou les informations de santé protégées (PHI), par des jetons afin de réduire les risques de sécurité.

La détokenisation renvoie l’élément de données d’origine pour un jeton fourni. Les applications peuvent nécessiter l’accès aux données d’origine, ou à un élément des données d’origine, pour des décisions, des analyses ou des messages personnalisés. Pour minimiser la nécessité de détokeniser les données et de réduire l’exposition à la sécurité, les jetons peuvent conserver les attributs des données d’origine pour permettre Traitement et analyse à l’aide de valeurs de jeton au lieu des données d’origine. Les caractéristiques courantes que les jetons peuvent conserver des données d’origine sont les suivantes :

Attributs de format

Longueur pour la compatibilité avec le stockage et les rapports des applications écrits pour les données d’origine
Jeu de caractères pour la compatibilité avec l’affichage et la validation des données des applications existantes
Positions de caractères préservées , telles que les 6 premiers et les 4 derniers pour les attributs PAN Analytics de carte de crédit

Cohérence de mappage où les mêmes données aboutissent toujours au même jeton
Ordre de tri

La conservation des attributs fonctionnels dans les jetons doit être mise en œuvre de manière à ne pas compromettre la sécurité du processus de tokenisation. L’utilisation de fonctions de préservation d’attributs peut éventuellement réduire la sécurité d’une implémentation de tokenisation spécifique. La limitation de la portée et de l’accès aux jetons résout les limitations introduites lors de l’utilisation de la conservation des attributs.

Pourquoi tokeniser ? Cas d’utilisation courants

J’ai besoin de réduire mon étendue de conformité

Les jetons ne sont généralement pas soumis aux exigences de conformité s’il existe une séparation suffisante entre l’implémentation de la tokenisation et les applications qui les utilisent. Les données sensibles chiffrées ne peuvent pas réduire les obligations ou la portée de la conformité. Les normes réglementaires de l’industrie, telles que la norme PCI DSS 3.2.1, considèrent toujours que les systèmes qui stockent, traitent ou transmettent des données chiffrées des titulaires de cartes entrent dans le champ d’application de la évaluation; tandis que les données tokenisées peuvent exclure ces systèmes du champ d’évaluation. Un cas d’utilisation courant de la conformité PCI DSS consiste à remplacer le PAN par des jetons dans les données envoyées à un fournisseur de services, ce qui empêche le fournisseur de services d’être soumis à la norme PCI DSS.

La

tokenisation peut être utilisée pour ajouter une couche de contrôles d’accès explicites à la détokenisation d’éléments de données individuels, qui peut être utilisée pour mettre en œuvre et démontrer l’accès le moins privilégié aux données sensibles. Dans les cas où les données peuvent être regroupées dans un référentiel commun tel qu’un lac de données, la tokenisation peut aider à garantir que seules les personnes disposant de l’accès approprié peuvent effectuer le processus de détokenisation et révéler des données sensibles.

Je dois éviter de partager des données sensibles avec mes fournisseurs de services

Remplacer les données sensibles par des jetons avant de les fournir au service Les fournisseurs qui n’ont pas accès à la détokenisation des données peuvent éliminer le risque d’avoir des données sensibles sous le contrôle des fournisseurs de services et éviter que des exigences de conformité ne s’appliquent à leurs environnements. C’est courant pour les clients impliqués dans le processus de paiement, qui fournit des services de tokenisation aux commerçants qui tokenisent les données du titulaire de la carte et renvoient à leurs clients un jeton qu’ils peuvent utiliser pour effectuer des transactions d’achat par carte.

Je dois simplifier la sécurité et la conformité des data lakes

Un référentiel centralisé de data lake vous permet de stocker toutes vos données structurées et non structurées à n’importe quelle échelle, pour les utiliser ultérieurement pour des analyses non encore déterminées. Le fait d’avoir plusieurs sources et données stockées dans plusieurs formats structurés et non structurés complique la démonstration des contrôles de protection des données pour la conformité réglementaire. Idéalement, les données sensibles ne devraient pas être ingérées du tout ; Cependant, ce n’est pas le cas toujours faisable. Lorsque l’ingestion de ces données est nécessaire, la tokenisation de chaque source de données permet d’éviter que les données relatives à la conformité ne se retrouvent dans les lacs de données et d’éviter les implications en matière de conformité. L’utilisation de jetons qui conservent les attributs de données, tels que la cohérence des données à jeton (idempotence), peut prendre en charge de nombreuses fonctionnalités analytiques qui rendent utile le stockage des données dans le lac de données.

Je souhaite autoriser l’utilisation de données sensibles à d’autres fins, telles que l’analyse

Votre organisation peut souhaiter effectuer des analyses sur les données sensibles à d’autres fins commerciales, telles que les mesures marketing et la création de rapports. En tokenisant les données, vous pouvez minimiser les emplacements où les données sensibles sont autorisées et fournir des jetons aux utilisateurs et aux applications qui doivent effectuer une analyse de données. Cela permet à de nombreuses applications et processus d’accéder aux données du jeton et de maintenir la sécurité des données sensibles d’origine.

Je veux L’utilisation

de la tokenisation peut vous aider à atténuer les menaces identifiées dans votre modèle de menace de charge de travail, en fonction de l’endroit et de la manière dont la tokenisation est mise en œuvre. Au moment où les données sensibles sont tokenisées, l’élément de données sensible est remplacé par un équivalent non sensible tout au long du cycle de vie des données et tout au long du flux de données. Voici quelques questions importantes à se poser :

  • Quelles sont les exigences de conformité, de réglementation, de confidentialité ou de sécurité pour les données qui seront tokenisées ?
  • Quand les données sensibles doivent-elles être tokenisées afin de répondre aux objectifs de sécurité et de réduction de la portée ?
  • Quel est le vecteur d’attaque des données sensibles en les tokenisant ?
  • Où les données tokenisées sont-elles hébergées ? S’agit-il d’un environnement de confiance ou d’un environnement non fiable ?

Pour plus de pour plus d’informations sur la modélisation des menaces, consultez l’article de blog sur la sécurité AWS Comment aborder la modélisation des menaces.

Considérations relatives à la

tokenisation ou au chiffrement

Les tokens peuvent permettre de conserver la valeur de traitement des données tout en gérant le risque d’exposition aux données et l’étendue de la conformité. Le cryptage est le mécanisme fondamental pour assurer la confidentialité des données.

Le chiffrement aboutit rarement à un texte chiffré dont le format est similaire à celui des données d’origine, et peut empêcher l’analyse des données ou nécessiter l’adaptation d’applications consomptueuses.

Votre décision d’utiliser la tokenisation au lieu du chiffrement doit être basée sur les éléments suivants :

Réduction du champ d’application de la conformité Comme indiqué ci-dessus, en utilisant correctement la tokenisation pour obscurcir les données sensibles, vous pouvez être en mesure de réduire le champ d’application de certaines évaluations de cadre telles que PCI DSS 3.2.1.
Attributs de format Utilisés pour la compatibilité avec les logiciels et processus existants.
Attributs d’analyse Utilisés pour prendre en charge l’analyse des données planifiées et la création de rapports.
Élimination de la gestion des clés de chiffrement Une solution de tokenisation dispose d’une API essentielle (create token) et d’une API facultative (récupération de la valeur du token). La gestion des contrôles d’accès peut être plus simple que certaines politiques d’utilisation de clés cryptographiques à usage général non natives AWS. De plus, la compromission de la clé de chiffrement compromet toutes les données chiffrées par cette clé, passées et futures. La compromission de la base de données de jetons ne compromet que les jetons existants.

Où le chiffrement peut avoir plus de sens

Bien que La réduction de la portée, l’analyse des données, l’atténuation des menaces et le masquage des données pour la protection des données sensibles constituent des arguments très puissants en faveur de la tokenisation, nous reconnaissons qu’il peut y avoir des cas où le chiffrement est la solution la plus appropriée. Posez-vous ces questions pour mieux savoir quelle solution convient le mieux au cas d’utilisation de votre entreprise.

Évolutivité Si vous avez besoin d’une solution qui s’adapte à de grands volumes de données et que vous avez la possibilité d’exploiter des solutions de chiffrement qui nécessitent une surcharge de gestion des clés minimale, telles que AWS Key Management Services (AWS KMS), le chiffrement est peut-être fait pour vous.
Format des données Si vous avez besoin de sécuriser des données non structurées, le chiffrement peut être la meilleure option compte tenu de la flexibilité du chiffrement à différentes couches et formats.
Si vous devez partager des données sensibles dans leur format et leur valeur d’origine avec un tiers, le chiffrement peut être la solution appropriée pour minimiser l’accès externe à votre coffre-fort de jetons pour les processus de détokenisation.

Quel type de solution de tokenisation convient le mieux à votre entreprise ?

Lorsque vous essayez de choisir une solution de tokenisation à utiliser, votre organisation doit d’abord définir ses besoins commerciaux et ses cas d’utilisation.

  1. Quels sont vos propres cas d’utilisation spécifiques des données tokenisées et quel est votre objectif commercial ? Il est important d’identifier les cas d’utilisation qui s’appliquent à votre entreprise et l’état final pour déterminer la solution adaptée à vos besoins.
  2. Quel type de données votre organisation souhaite-t-elle tokeniser ? Comprendre quelles données Les éléments que vous souhaitez tokeniser et l’utilisation de ces données tokenisées peuvent avoir un impact sur votre décision concernant le type de solution à utiliser.
  3. Les tokens doivent-ils être déterministes, les mêmes données produisant toujours le même token ? Savoir comment les données seront ingérées ou utilisées par d’autres applications et processus peut exclure certaines solutions de tokenisation.
  4. Les jetons seront-ils utilisés uniquement en interne ou seront-ils partagés entre d’autres unités commerciales et applications ? L’identification d’un besoin de tokens partagés peut augmenter le risque d’exposition aux tokens et, par conséquent, avoir un impact sur vos décisions concernant la solution de tokenisation à utiliser.
  5. Combien de temps un jeton doit-il être valide ? Vous devrez identifier une solution capable de répondre à vos cas d’utilisation, à vos politiques de sécurité internes et aux exigences du cadre réglementaire.

Choisir entre la tokenisation autogérée ou la tokenisation en tant que service

Souhaitez-vous gérer la tokenisation au sein de votre organisation ou utiliser la tokenisation en tant que service (TaaS) proposée par un fournisseur de services tiers ? Parmi les avantages de la gestion de la solution de tokénisation avec les employés et les ressources de votre entreprise, citons la possibilité de diriger et de hiérarchiser le travail nécessaire à la mise en œuvre et à la maintenance de la solution, de personnaliser la solution en fonction des besoins exacts de l’application et de développer l’expertise en la matière pour éliminer la dépendance à l’égard d’un tiers. Les principaux avantages d’une solution TaaS sont qu’elle est déjà complète et que la sécurité de la tokenisation et des contrôles d’accès est bien testée. De plus, le TaaS démontre intrinsèquement la séparation des tâches, car l’accès privilégié à l’environnement de tokenisation est détenu par le fournisseur de tokenisation.

Choisir une solution de tokenisation réversible

Avez-vous un besoin professionnel de récupérer les données originales La valeur du jeton ? Les tokens réversibles peuvent être précieux pour éviter de partager des données sensibles avec des prestataires de services internes ou tiers dans les paiements et autres services financiers. Étant donné que les fournisseurs de services ne reçoivent que des jetons, ils peuvent éviter d’accepter des risques de sécurité et une étendue de conformité supplémentaires. Si votre entreprise met en œuvre ou autorise la détokenisation, vous devrez être en mesure de démontrer des contrôles stricts sur la gestion et l’utilisation du privilège de détokenisation. L’élimination de la mise en œuvre de la détokenisation est le moyen le plus clair de démontrer que les applications en aval ne peuvent pas avoir de données sensibles. Compte tenu des risques de sécurité et de conformité liés à la reconversion des données tokenisées dans leur format de données d’origine, ce processus doit être étroitement surveillé et vous devez disposer d’alertes appropriées pour détecter chaque fois que cette activité est effectuée.

Considérations opérationnelles lors du choix d’une solution

de tokenisation Bien que les considérations opérationnelles ne relèvent pas du cadre de cet article, elles sont des facteurs importants dans le choix d’une solution. Le débit, la latence, l’architecture de déploiement, la résilience, la capacité de traitement par lots et la prise en charge multirégionale peuvent avoir un impact sur la solution de tokenisation choisie. Les mécanismes d’intégration avec les architectures de contrôle d’identité et d’accès et de journalisation, par exemple, sont importants pour les contrôles de conformité et la création de preuves.

Quel que soit le modèle de déploiement que vous choisissez, la solution de tokenisation doit répondre à des normes de sécurité, similaires aux normes de chiffrement, et doit empêcher de déterminer quelles sont les données d’origine à partir des valeurs de jeton.

Conclusion

L’utilisation de solutions de tokenisation pour remplacer les données sensibles offre de nombreux avantages en matière de sécurité et de conformité. Ces avantages comprennent une réduction des risques de sécurité et une portée d’audit plus petite, ce qui se traduit par une réduction des coûts de conformité et des données réglementaires exigences en matière de manutention.

Votre entreprise peut vouloir utiliser les données sensibles de manière nouvelle et innovante, par exemple en développant des offres personnalisées qui utilisent l’analyse prédictive et les tendances et modèles d’utilisation des consommateurs, la surveillance de la fraude et la minimisation des risques financiers basée sur l’analyse des activités suspectes, ou le développement de la veille économique pour améliorer la planification stratégique et les performances commerciales. Si vous mettez en œuvre une solution de tokenisation, votre organisation peut alléger une partie de la charge réglementaire liée à la protection des données sensibles tout en mettant en œuvre des solutions qui utilisent des données obfusquées pour l’analyse.

D’autre part, la tokenisation peut également ajouter de la complexité à vos systèmes et applications, ainsi que des coûts supplémentaires pour maintenir ces systèmes et applications. Si vous utilisez une solution de tokenisation tierce, il est possible d’être verrouillé dans ce fournisseur de services en raison du schéma de token spécifique qu’il peut utiliser, et Le passage d’un fournisseur à l’autre peut être coûteux. Il peut également être difficile d’intégrer la tokenisation dans toutes les applications qui utilisent les données concernées.

Dans cet article, nous avons décrit quelques considérations pour vous aider à déterminer si la tokenisation vous convient, ce qu’il faut prendre en compte lorsque vous décidez du type de solution de tokenisation à utiliser, et les avantages, les inconvénients, et la comparaison de la tokenisation et du cryptage. Lorsque vous choisissez une solution de tokénisation, il est important que vous identifiiez et compreniez tous les besoins de votre organisation. Cet article est destiné à générer des questions auxquelles votre organisation devrait répondre pour prendre les bonnes décisions concernant la tokenisation.

De nombreuses options s’offrent à vous pour tokeniser vos charges de travail AWS. Une fois que votre organisation a déterminé le type de solution de tokenisation à mettre en œuvre en fonction de vos propres besoins commerciaux, explorez les options de solution de tokenisation disponibles dans AWS Marché. Vous pouvez également créer votre propre solution à l’aide de guides et d’articles de blog AWS. Pour en savoir plus, consultez ce billet de blog : Création d’une solution de tokenisation serverless pour masquer les données sensibles.

Si vous avez des commentaires sur cet article, soumettez-les dans la section Commentaires ci-dessous. Si vous avez des questions sur cet article, lancez un nouveau fil de discussion sur les services d’assurance de sécurité Amazon ou contactez AWS Support.

Vous souhaitez en savoir plus sur la sécurité AWS ? Suivez-nous sur Twitter.

Tim Winston

Tim est consultant senior en assurance chez AWS Security Assurance Services. Il s’appuie sur plus de 20 ans d’expérience en tant que consultant et évaluateur en sécurité pour fournir aux clients AWS des conseils sur la sécurité et la conformité des paiements. Il est co-auteur de la norme PCI DSS (Payment Card Industry Data Security Standard) 3.2.1 sur AWS.

Kristine Harper

Kristine est consultante principale en certification et experte de sécurité qualifiée PCI DSS (QSA) chez AWS Security Assurance Services. Son expérience professionnelle comprend le conseil en sécurité et en conformité auprès de grandes entreprises fintech et d’entités gouvernementales. Dans ses temps libres, Kristine aime voyager, faire des activités de plein air, passer du temps avec sa famille et gâter ses animaux de compagnie.

Michael Guzman

Michael est consultant en assurance chez AWS Security Assurance Services. Michael est titulaire d’un PCI QSA et d’un HITRUST CCSFP, et détient plusieurs certifications AWS. Il a une formation dans le domaine des opérations et de l’administration des technologies de l’information dans les services financiers, avec plus de 20 ans d’expérience dans ce secteur. Dans ses temps libres, Michael aime passer du temps avec sa famille, continuer à améliorer ses compétences de golf et perfectionner sa recette Tri-Tip.

MOTS clés : Lac de données AWS, AWS KMS, Données des titulaires de cartes, Conformité, Cryptage, PCI DSS, PHI, PII, Assurance de sécurité, Tokenisation