Aws pci tokenization

Wie man die Tokenisierung nutzt, um die Datensicherheit zu verbessern und den Prüfungsumfang zu reduzieren

von Tim Winston, Kristine Harper und Michael Guzmanon in AWS Security Token Service, Best Practices, Security, Identity, & Compliance, Technical How-toPermalink Kommentare Teilen

April 25, 2023: Wir haben diesen Blogbeitrag aktualisiert, um weitere Lernressourcen zum Thema Sicherheit aufzunehmen.


Die Tokenisierung sensibler Datenelemente ist ein heißes Thema, aber Sie wissen möglicherweise nicht, was Sie tokenisieren sollen oder wie Sie feststellen können, ob die Tokenisierung für die Geschäftsanforderungen Ihres Unternehmens geeignet ist. Branchen, die Finanz-, Datensicherheits-, Regulierungs- oder Datenschutzstandards unterliegen, suchen zunehmend nach Tokenisierungslösungen, um die Verbreitung sensibler Daten zu minimieren, das Risiko einer Offenlegung zu verringern, die Sicherheitslage zu verbessern und Compliance-Verpflichtungen zu lockern. Dieser Beitrag bietet eine Orientierungshilfe um Ihre Anforderungen an die Tokenisierung zu ermitteln, wobei der Schwerpunkt auf der Compliance-Linse liegt, da wir als PCI Qualified Security Assessors (PCI QSA) tätig sind.

Was ist Tokenisierung?

Tokenisierung ist der Prozess, bei dem tatsächlich sensible Datenelemente durch nicht sensible Datenelemente ersetzt werden, die keinen ausnutzbaren Wert für die Datensicherheit haben. Sicherheitsrelevante Anwendungen verwenden die Tokenisierung, um vertrauliche Daten wie personenbezogene Daten (PII) oder geschützte Gesundheitsinformationen (PHI) durch Token zu ersetzen, um Sicherheitsrisiken zu reduzieren.

Bei der Detokenisierung wird das ursprüngliche Datenelement für ein bereitgestelltes Token zurückgegeben. Anwendungen benötigen möglicherweise Zugriff auf die Originaldaten oder ein Element der Originaldaten für Entscheidungen, Analysen oder personalisierte Nachrichten. Um die Notwendigkeit der De-Tokenisierung von Daten zu minimieren und das Sicherheitsrisiko zu verringern, können Token Attribute der ursprünglichen Daten beibehalten, um Verarbeitung und Analyse unter Verwendung von Token-Werten anstelle der Originaldaten. Häufige Merkmale, die Token aus den Originaldaten beibehalten können, sind:

Formatattribute

Länge für Kompatibilität mit Speicher und Berichten von Anwendungen, die für die Originaldaten geschrieben wurden
Zeichensatz für Kompatibilität mit der Anzeige und Datenvalidierung vorhandener Anwendungen
Beibehaltung von Zeichenpositionen , z. B. die ersten 6 und die letzten 4 für PAN Analytics-Attribute für Kreditkarten

Mapping-Konsistenz , bei der dieselben Daten immer zum gleichen Token führen
Sortierung

Die Beibehaltung funktionaler Attribute in Token muss so implementiert werden, dass die Sicherheit des Tokenisierungsprozesses nicht beeinträchtigt wird. Die Verwendung von Attributerhaltungsfunktionen kann möglicherweise die Sicherheit einer bestimmten Tokenisierungsimplementierung verringern. Durch das Einschränken des Bereichs und des Zugriffs auf Token werden Einschränkungen behoben, die bei der Verwendung der Attributaufbewahrung eingeführt wurden.

Warum tokenisieren? Häufige Anwendungsfälle

, in denen ich meinen Complianceumfang reduzieren muss

: Token unterliegen im Allgemeinen keinen Complianceanforderungen, wenn die Tokenisierungsimplementierung und die Anwendungen, die die Token verwenden, ausreichend voneinander getrennt sind. Verschlüsselte vertrauliche Daten verringern möglicherweise nicht die Compliance-Verpflichtungen oder den Umfang. Regulatorische Branchenstandards wie PCI DSS 3.2.1 betrachten Systeme, die verschlüsselte Karteninhaberdaten speichern, verarbeiten oder übertragen, nach wie vor als Bewertung; tokenisierte Daten können diese Systeme hingegen aus dem Bewertungsbereich entfernen. Ein häufiger Anwendungsfall für die PCI DSS-Konformität ist das Ersetzen von PAN durch Token in Daten, die an einen Dienstanbieter gesendet werden, wodurch verhindert wird, dass der Dienstanbieter PCI DSS unterliegt.

Ich muss vertrauliche Daten auf diejenigen beschränken, die diese Daten kennen müssen

. Die Tokenisierung kann verwendet werden, um der De-Tokenisierung einzelner Datenelemente eine Ebene expliziter Zugriffskontrollen hinzuzufügen, die zur Implementierung und Demonstration des Zugriffs auf vertrauliche Daten mit den geringsten Rechten verwendet werden können. In Fällen, in denen Daten in einem gemeinsamen Repository wie einem Data Lake vermischt werden können, kann die Tokenisierung dazu beitragen, sicherzustellen, dass nur Personen mit dem entsprechenden Zugriff den De-Tokenisierungsprozess durchführen und vertrauliche Daten offenlegen können.

Ich muss vermeiden, vertrauliche Daten an meine Dienstanbieter weiterzugeben

Ersetzen sensibler Daten durch Token, bevor sie dem Dienst zur Verfügung gestellt werden Anbieter, die keinen Zugriff auf die De-Tokenisierung von Daten haben, können das Risiko eliminieren, dass vertrauliche Daten unter der Kontrolle der Dienstanbieter stehen, und vermeiden, dass Compliance-Anforderungen für ihre Umgebungen gelten. Dies ist üblich für Kunden, die am Zahlungsprozess beteiligt sind, der Tokenisierungsdienste für Händler anbietet, die die Daten des Karteninhabers tokenisieren und ihren Kunden einen Token zurückgeben, mit dem sie Kartenkauftransaktionen abschließen können.

Ich muss die Sicherheit und Compliance von Data Lakes vereinfachen

Ein zentralisiertes Data Lake-Repository ermöglicht es Ihnen, alle Ihre strukturierten und unstrukturierten Daten in beliebiger Größenordnung zu speichern, um sie später für noch nicht festgelegte Analysen zu verwenden. Wenn mehrere Quellen und Daten in mehreren strukturierten und unstrukturierten Formaten gespeichert werden, führt dies zu Komplikationen beim Nachweis von Datenschutzkontrollen für die Einhaltung gesetzlicher Vorschriften. Im Idealfall sollten sensible Daten überhaupt nicht aufgenommen werden. Das ist jedoch nicht der Fall immer machbar. Wenn die Erfassung solcher Daten erforderlich ist, kann die Tokenisierung in jeder Datenquelle Compliance-Daten aus Data Lakes fernhalten und dazu beitragen, Auswirkungen auf die Compliance zu vermeiden. Die Verwendung von Token, die Datenattribute beibehalten, z. B. Daten-zu-Token-Konsistenz (Idempotenz), kann viele der Analysefunktionen unterstützen, die das Speichern von Daten im Data Lake nützlich machen.

Ich möchte zulassen, dass vertrauliche Daten für andere Zwecke verwendet werden, z. B. für Analysen.

Ihre Organisation möchte möglicherweise Analysen für die vertraulichen Daten für andere Geschäftszwecke durchführen, z. B. für Marketingmetriken und Berichte. Durch die Tokenisierung der Daten können Sie die Speicherorte minimieren, an denen vertrauliche Daten zulässig sind, und Token für Benutzer und Anwendungen bereitstellen, die Datenanalysen durchführen müssen. Auf diese Weise können zahlreiche Anwendungen und Prozesse auf die Token-Daten zugreifen und die Sicherheit der ursprünglichen sensiblen Daten aufrechterhalten.

Ich möchte Verwenden der Tokenisierung zur Bedrohungsminderung

Die Verwendung der Tokenisierung kann Ihnen dabei helfen, Bedrohungen zu minimieren, die in Ihrem Workload-Bedrohungsmodell identifiziert werden, je nachdem, wo und wie die Tokenisierung implementiert wird. An dem Punkt, an dem die vertraulichen Daten tokenisiert werden, wird das vertrauliche Datenelement während des gesamten Datenlebenszyklus und im gesamten Datenfluss durch ein nicht vertrauliches Äquivalent ersetzt. Einige wichtige Fragen, die Sie sich stellen sollten, sind:

  • Welche Compliance-, Regulierungs-, Datenschutz- oder Sicherheitsanforderungen gelten für die Daten, die tokenisiert werden?
  • Wann müssen die sensiblen Daten tokenisiert werden, um die Sicherheits- und Umfangsreduzierungsziele zu erreichen?
  • Welcher Angriffsvektor wird für die sensiblen Daten durch die Tokenisierung angegangen?
  • Wo werden die tokenisierten Daten gehostet? Befindet es sich in einer vertrauenswürdigen Umgebung oder in einer nicht vertrauenswürdigen Umgebung?

Für zusätzliche Weitere Informationen zur Bedrohungsmodellierung finden Sie im AWS-Sicherheitsblogbeitrag How to approach threat modeling.

Überlegungen zur Tokenisierung oder Verschlüsselung

Token können die Möglichkeit bieten, den Verarbeitungswert der Daten beizubehalten und gleichzeitig das Risiko der Datengefährdung und den Compliance-Umfang zu verwalten. Verschlüsselung ist der grundlegende Mechanismus zur Gewährleistung der Vertraulichkeit von Daten.

Die Verschlüsselung führt selten zu verschlüsseltem Text mit einem ähnlichen Format wie die Originaldaten und kann die Datenanalyse verhindern oder eine Anpassung von Anwendungen erfordern.

Ihre Entscheidung, Tokenisierung anstelle von Verschlüsselung zu verwenden, sollte auf Folgendem basieren:

Reduzierung des Compliance-Umfangs Wie oben erwähnt, können Sie durch den richtigen Einsatz der Tokenisierung zur Verschleierung sensibler Daten möglicherweise den Umfang bestimmter Framework-Bewertungen, wie z. B. PCI DSS, reduzieren 3.2.1.
Formatattribute Wird für die Kompatibilität mit bestehender Software und Prozessen verwendet.
Analyseattribute Wird zur Unterstützung geplanter Datenanalysen und Berichte verwendet.
Wegfall der Verwaltung von Verschlüsselungsschlüsseln Eine Tokenisierungslösung verfügt über eine wesentliche API – Token erstellen – und eine optionale API – Abrufen von Werten aus Token. Die Verwaltung von Zugriffskontrollen kann einfacher sein als bei einigen nicht AWS-nativen allgemeinen Richtlinien zur Verwendung von kryptografischen Schlüsseln. Darüber hinaus werden durch die Kompromittierung des Verschlüsselungsschlüssels alle mit diesem Schlüssel verschlüsselten Daten gefährdet, sowohl vergangene als auch zukünftige. Bei der Kompromittierung der Tokendatenbank werden nur vorhandene Token kompromittiert.

Wo Verschlüsselung sinnvoller sein kann

, obwohl Die Reduzierung des Umfangs, die Datenanalyse, die Bedrohungsminderung und die Datenmaskierung zum Schutz sensibler Daten sind sehr starke Argumente für die Tokenisierung, wir sind uns bewusst, dass es Fälle geben kann, in denen Verschlüsselung die geeignetere Lösung ist. Stellen Sie sich diese Fragen, um mehr Klarheit darüber zu gewinnen, welche Lösung für den Anwendungsfall Ihres Unternehmens die richtige ist.

Skalierbarkeit Wenn Sie eine Lösung benötigen, die auf große Datenmengen skaliert werden kann und über die Verfügbarkeit von Verschlüsselungslösungen verfügt, die nur einen minimalen Aufwand für die Schlüsselverwaltung erfordern, wie z. B. AWS Key Management Services (AWS KMS), dann ist die Verschlüsselung möglicherweise das Richtige für Sie.
Datenformat Wenn Sie unstrukturierte Daten sichern müssen, ist die Verschlüsselung angesichts der Flexibilität der Verschlüsselung auf verschiedenen Ebenen und Formaten möglicherweise die bessere Option.
Datenfreigabe mit Dritten Wenn Sie sensible Daten in ihrem ursprünglichen Format und Wert mit einer dritten Partei teilen müssen, kann die Verschlüsselung die geeignete Lösung sein, um den externen Zugriff auf Ihren Token-Tresor für De-Tokenisierungsprozesse zu minimieren.

Welche Art von Tokenisierungslösung ist die richtige für Ihr Unternehmen?

Bei der Entscheidung, welche Tokenisierungslösung verwendet werden soll, sollte Ihr Unternehmen zunächst Ihre Geschäftsanforderungen und Anwendungsfälle definieren.

  1. Was sind Ihre eigenen spezifischen Anwendungsfälle für tokenisierte Daten und was ist Ihr Geschäftsziel? Die Identifizierung, welche Anwendungsfälle auf Ihr Unternehmen zutreffen und wie der Endzustand aussehen sollte, ist wichtig, wenn es darum geht, die richtige Lösung für Ihre Anforderungen zu finden.
  2. Welche Art von Daten möchte Ihr Unternehmen tokenisieren? Verstehen, welche Daten Elemente, die Sie tokenisieren möchten, und wofür diese tokenisierten Daten verwendet werden, können sich auf Ihre Entscheidung auswirken, welche Art von Lösung verwendet werden soll.
  3. Müssen die Token deterministisch sein, d. h. die gleichen Daten müssen immer das gleiche Token erzeugen? Wenn Sie wissen, wie die Daten von anderen Anwendungen und Prozessen aufgenommen oder verwendet werden, können bestimmte Tokenisierungslösungen ausgeschlossen werden.
  4. Werden Token nur intern verwendet, oder werden die Token von anderen Geschäftsbereichen und Anwendungen gemeinsam genutzt? Die Identifizierung eines Bedarfs an gemeinsam genutzten Token kann das Risiko einer Token-Offenlegung erhöhen und sich daher auf Ihre Entscheidungen darüber auswirken, welche Tokenisierungslösung Sie verwenden sollten.
  5. Wie lange muss ein Token gültig sein? Sie müssen eine Lösung finden, die Ihren Anwendungsfällen, internen Sicherheitsrichtlinien und regulatorischen Rahmenbedingungen gerecht wird.

Wahl zwischen selbstverwalteter Tokenisierung oder Tokenisierung als Dienstleistung

Möchten Sie die Tokenisierung in Ihrem Unternehmen verwalten oder Tokenization as a Service (TaaS) nutzen, das von einem Drittanbieter angeboten wird? Zu den Vorteilen der Verwaltung der Tokenisierungslösung mit den Mitarbeitern und Ressourcen Ihres Unternehmens gehören die Möglichkeit, die für die Implementierung und Wartung der Lösung erforderliche Arbeit zu leiten und zu priorisieren, die Lösung genau an die Anforderungen der Anwendung anzupassen und das Fachwissen aufzubauen, um eine Abhängigkeit von einem Drittanbieter zu beseitigen. Die Hauptvorteile einer TaaS-Lösung bestehen darin, dass sie bereits vollständig ist und die Sicherheit sowohl der Tokenisierung als auch der Zugangskontrollen gut getestet wurde. Darüber hinaus demonstriert TaaS von Natur aus die Aufgabentrennung, da der privilegierte Zugriff auf die Tokenisierungsumgebung im Besitz des Tokenisierungsanbieters liegt.

Auswahl einer reversiblen Tokenisierungslösung

?

Haben Sie eine geschäftliche Notwendigkeit, die Originaldaten abzurufen Der Token-Wert? Reversible Token können wertvoll sein, um zu vermeiden, dass sensible Daten bei Zahlungen und anderen Finanzdienstleistungen an interne oder externe Dienstleister weitergegeben werden. Da den Dienstanbietern nur Token übergeben werden, können sie vermeiden, zusätzliche Sicherheitsrisiken und Compliancebereiche zu akzeptieren. Wenn Ihr Unternehmen die De-Tokenisierung implementiert oder zulässt, müssen Sie in der Lage sein, strenge Kontrollen für die Verwaltung und Verwendung von De-Tokenization-Privilegien nachzuweisen. Die Abschaffung der Implementierung der De-Tokenisierung ist der klarste Weg, um zu zeigen, dass nachgelagerte Anwendungen keine sensiblen Daten haben können. Angesichts der Sicherheits- und Compliancerisiken bei der Rückkonvertierung tokenisierter Daten in ihr ursprüngliches Datenformat sollte dieser Prozess streng überwacht werden, und Sie sollten über geeignete Warnungen verfügen, um jedes Mal zu erkennen, wenn diese Aktivität ausgeführt wird.

Betriebliche Überlegungen bei der Entscheidung für eine Tokenisierungslösung

Betriebliche Überlegungen gehen zwar über den Rahmen dieses Beitrags hinaus, sind aber wichtige Faktoren für die Auswahl einer Lösung. Durchsatz, Latenz, Bereitstellungsarchitektur, Ausfallsicherheit, Batch-Fähigkeit und multiregionale Unterstützung können sich auf die Tokenisierungslösung der Wahl auswirken. Integrationsmechanismen mit Identitäts- und Zugriffskontroll- und Protokollierungsarchitekturen sind beispielsweise wichtig für Compliance-Kontrollen und die Erstellung von Nachweisen.

Unabhängig davon, für welches Bereitstellungsmodell Sie sich entscheiden, muss die Tokenisierungslösung Sicherheitsstandards erfüllen, ähnlich wie Verschlüsselungsstandards, und verhindern, dass die ursprünglichen Daten aus den Tokenwerten bestimmt werden.

Fazit Der

Einsatz von Tokenisierungslösungen zum Ersatz sensibler Daten bietet viele Sicherheits- und Compliance-Vorteile. Zu diesen Vorteilen gehören ein geringeres Sicherheitsrisiko und ein kleinerer Prüfungsumfang, was zu niedrigeren Compliance-Kosten und einer Reduzierung des regulatorischen Datenvolumens führt Anforderungen an die Handhabung.

Möglicherweise möchte Ihr Unternehmen sensible Daten auf neue und innovative Weise nutzen, z. B. durch die Entwicklung personalisierter Angebote, die prädiktive Analysen und Nutzungstrends und -muster der Verbraucher verwenden, die Betrugsüberwachung und die Minimierung finanzieller Risiken auf der Grundlage der Analyse verdächtiger Aktivitäten oder die Entwicklung von Business Intelligence zur Verbesserung der strategischen Planung und der Geschäftsleistung. Wenn Sie eine Tokenisierungslösung implementieren, kann Ihr Unternehmen einen Teil des regulatorischen Aufwands für den Schutz sensibler Daten verringern, indem es Lösungen implementiert, die verschleierte Daten für Analysen verwenden.

Auf der anderen Seite kann die Tokenisierung auch die Komplexität Ihrer Systeme und Anwendungen erhöhen und zusätzliche Kosten für die Wartung dieser Systeme und Anwendungen verursachen. Wenn Sie eine Tokenisierungslösung eines Drittanbieters verwenden, besteht die Möglichkeit, dass Sie aufgrund des spezifischen Token-Schemas, das er möglicherweise verwendet, an diesen Dienstanbieter gebunden sind. Der Wechsel zwischen den Anbietern kann kostspielig sein. Es kann auch eine Herausforderung sein, die Tokenisierung in alle Anwendungen zu integrieren, die die betreffenden Daten verwenden.

In diesem Beitrag haben wir einige Überlegungen beschrieben, die Ihnen helfen sollen, festzustellen, ob die Tokenisierung für Sie geeignet ist, was Sie bei der Entscheidung für eine Art von Tokenisierungslösung beachten sollten und welche Vorteile Sie haben. Nachteile und Vergleich von Tokenisierung und Verschlüsselung. Bei der Auswahl einer Tokenisierungslösung ist es wichtig, dass Sie alle Ihre organisatorischen Anforderungen identifizieren und verstehen. Dieser Beitrag soll Fragen aufwerfen, die Ihr Unternehmen beantworten sollte, um die richtigen Entscheidungen in Bezug auf die Tokenisierung zu treffen.

Ihnen stehen viele Optionen zur Verfügung, um Ihre AWS-Workloads zu tokenisieren. Nachdem Ihr Unternehmen die Art der Tokenisierungslösung festgelegt hat, die basierend auf Ihren eigenen Geschäftsanforderungen implementiert werden soll, erkunden Sie die in AWS verfügbaren Tokenisierungslösungsoptionen Marktplatz. Sie können auch Ihre eigene Lösung mithilfe von AWS-Leitfäden und Blogbeiträgen erstellen. Weitere Informationen finden Sie in diesem Blogbeitrag: Erstellen einer serverlosen Tokenisierungslösung zum Maskieren sensibler Daten.

Wenn Sie Feedback zu diesem Beitrag haben, senden Sie uns Kommentare im Abschnitt "Kommentare" unten. Wenn Sie Fragen zu diesem Beitrag haben, starten Sie einen neuen Thread in den Amazon Security Assurance Services oder wenden Sie sich an den AWS Support.

Möchten Sie weitere Neuigkeiten zur AWS-Sicherheit erhalten? Folgen Sie uns auf Twitter.

Tim Winston

Tim ist Senior Assurance Consultant bei AWS Security Assurance Services. Er verfügt über mehr als 20 Jahre Erfahrung als Sicherheitsberater und -gutachter, um AWS-Kunden in Bezug auf Zahlungssicherheit und Compliance zu beraten. Er ist Mitautor des "Payment Card Industry Data Security Standard (PCI DSS) 3.2.1 on AWS".

Kristine Harper

Kristine ist Senior Assurance Consultant und PCI DSS Qualified Security Assessor (QSA) bei AWS Security Assurance Services. Ihr beruflicher Hintergrund umfasst die Sicherheits- und Compliance-Beratung für große Fintech-Unternehmen und Regierungsbehörden. In ihrer Freizeit reist Kristine gerne, unternimmt Aktivitäten im Freien, verbringt Zeit mit der Familie und verwöhnt ihre Haustiere.

Michael Guzman

Michael ist Assurance Consultant bei AWS Security Assurance Services. Michael ist ein PCI QSA und HITRUST CCSFP und verfügt über mehrere AWS-Zertifizierungen. Er verfügt über mehr als 20 Jahre Erfahrung in dieser Branche. In seiner Freizeit verbringt Michael gerne Zeit mit seiner Familie, verbessert seine Golffähigkeiten und perfektioniert sein Tri-Tip-Rezept.

STICHWORTE: AWS Data Lake, AWS KMS, Karteninhaberdaten, Compliance, Verschlüsselung, PCI DSS, PHI, PII, Sicherheitsgewährleistung, Tokenisierung