Home Nieuws Tokenisatie neemt het voortouw in de strijd om gegevensbeveiliging

Tokenisatie neemt het voortouw in de strijd om gegevensbeveiliging

16
0
Tokenisatie neemt het voortouw in de strijd om gegevensbeveiliging

Gepresenteerd door Capital One Software


Tokenisatie is in opkomst als een hoeksteen van moderne gegevensbeveiliging en helpt bedrijven de waarde van hun gegevens te scheiden van de risico’s ervan. Tijdens deze VB in GesprekRavi Raghu, president van Capital One Software, vertelt hoe tokenisatie kan helpen de waarde van geschonden gegevens te verminderen en het onderliggende gegevensformaat en de bruikbaarheid te behouden, inclusief de eigen ervaring van Capital One met het benutten van tokenisatie op schaal.

Tokenisatie, zo betoogt Raghu, is een veel superieure technologie. Het zet gevoelige gegevens om in een niet-gevoelig digitaal substituut, een zogenaamde token, dat teruggaat naar het origineel, dat is beveiligd in een digitale kluis. De token-placeholder behoudt zowel het formaat als de bruikbaarheid van de gevoelige gegevens en kan in alle applicaties worden gebruikt, inclusief AI-modellen. Omdat tokenisatie de noodzaak wegneemt om encryptiesleutels te beheren of computers te wijden aan constante encryptie en decryptie, biedt het een van de meest schaalbare manieren voor bedrijven om hun meest gevoelige gegevens te beschermen, voegde hij eraan toe.

“Het dodelijke deel, vanuit veiligheidsoogpunt, als je erover nadenkt versus andere methoden: als een slechte actor de gegevens in handen krijgt, krijgen zij ook de tokens in handen”, legde hij uit. “De daadwerkelijke gegevens zitten niet bij de token, in tegenstelling tot andere methoden zoals encryptie, waarbij de daadwerkelijke gegevens daar zitten, wachtend tot iemand een sleutel te pakken krijgt of brute kracht gebruikt om bij de echte gegevens te komen. Vanuit alle hoeken is dit de ideale manier om gevoelige gegevens te beschermen.”

De tokenisatie-differentiator

De meeste organisaties zijn nog maar het begin van gegevensbeveiliging en voegen beveiliging helemaal aan het einde toe wanneer gegevens worden gelezen om te voorkomen dat een eindgebruiker er toegang toe krijgt. Organisaties moeten zich op zijn minst richten op het beveiligen van gegevens tijdens het schrijven terwijl deze worden opgeslagen. Maar de beste organisaties gaan zelfs nog verder en beschermen gegevens vanaf de geboorte, vanaf het moment dat deze worden aangemaakt.

Aan de ene kant van het beveiligingsspectrum bevindt zich een eenvoudige aanpak met slot en sleutel die de toegang beperkt, maar de onderliggende gegevens intact laat. Geavanceerdere methoden, zoals het maskeren of wijzigen van gegevens, veranderen permanent hun betekenis, wat de bruikbaarheid ervan in gevaar kan brengen. Encryptie op bestandsniveau biedt een bredere bescherming voor grote hoeveelheden opgeslagen gegevens, maar als je het over versleuteling op veldniveau hebt (bijvoorbeeld een burgerservicenummer), wordt het een grotere uitdaging. Het kost veel rekenwerk om een ​​enkel veld te coderen en het vervolgens op het gebruikspunt te decoderen. En toch heeft het een fatale fout: de originele gegevens zijn nog steeds aanwezig en hebben alleen de sleutel nodig om toegang te krijgen.

Tokenisatie vermijdt deze valkuilen door de originele gegevens te vervangen door een surrogaat dat geen intrinsieke waarde heeft. Als het token wordt onderschept – door de verkeerde persoon of door de verkeerde machine – blijven de gegevens zelf veilig.

De zakelijke waarde van tokenisatie

“In feite bescherm je gegevens, en dat is van onschatbare waarde”, zei Raghu. “Nog iets dat van onschatbare waarde is: kun je het achteraf gebruiken voor modelleringsdoeleinden? Aan de ene kant is het een beschermingsding, en aan de andere kant is het een zaak van bedrijfsondersteuning.”

Omdat tokenisatie de structuur en ordelijkheid van de oorspronkelijke gegevens behoudt, kan deze nog steeds worden gebruikt voor modellering en analyse, waardoor bescherming een zakelijke enabler wordt. Neem bijvoorbeeld particuliere gezondheidsgegevens die onder HIPAA vallen: tokenisatie betekent dat gegevens kunnen worden gebruikt om prijsmodellen op te bouwen of voor onderzoek naar gentherapie, terwijl ze toch aan de regels blijven voldoen.

“Als uw gegevens al beschermd zijn, kunt u het gebruik van gegevens over de hele onderneming verspreiden en iedereen ertoe aanzetten steeds meer waarde uit de gegevens te halen”, aldus Raghu. “Omgekeerd, als je dat niet hebt, is er tegenwoordig veel terughoudendheid bij bedrijven om meer mensen er toegang toe te krijgen, of om steeds meer AI-agenten toegang te krijgen tot hun gegevens. Ironisch genoeg beperken ze de explosieradius van innovatie. De impact van tokenisatie is enorm, en er zijn veel maatstaven die je kunt gebruiken om het te meten: operationele impact, omzetimpact vanuit veiligheidsoogpunt, en natuurlijk.”

Het doorbreken van adoptiebarrières

Tot nu toe waren de fundamentele uitdagingen bij traditionele tokenisatie de prestaties. AI vereist ongekende schaalgrootte en snelheid. Dat is een van de grote uitdagingen die Capital One oplost met Databolt, de kluisloze tokenisatie-oplossing, die tot 4 miljoen tokens per seconde kan produceren.

“Capital One maakt al meer dan tien jaar gebruik van tokenisatie. We zijn ermee begonnen omdat we onze 100 miljoen bankklanten bedienen. We willen de gevoelige gegevens beschermen”, zei Raghu. “We hebben ons eigen hondenvoer gegeten met onze interne tokenisatiecapaciteit, meer dan 100 miljard keer per maand. We hebben die kennis en die mogelijkheid, schaal en snelheid gebruikt en geïnnoveerd zodat de wereld er gebruik van kan maken, dus het is een commercieel aanbod.”

Vaultless tokenisatie is een geavanceerde vorm van tokenisatie waarvoor geen centrale database (kluis) nodig is om tokenassociaties op te slaan. In plaats daarvan gebruikt het wiskundige algoritmen, cryptografische technieken en deterministische mapping om tokens dynamisch te genereren. Deze aanpak is sneller, schaalbaarder en elimineert het beveiligingsrisico dat gepaard gaat met het beheren van een box.

“We realiseerden ons dat we vanwege de schaal- en snelheidsvereisten die we hadden, die mogelijkheid zelf moesten uitbouwen”, zei Raghu. “We hebben dit voortdurend herhaald om ervoor te zorgen dat het kan opschalen naar honderden miljarden operaties per maand. Al onze innovaties hebben betrekking op het opbouwen van de intellectuele eigendom en de capaciteit om dat op een beproefde schaal in ons bedrijf te doen, om onze klanten van dienst te kunnen zijn.”

Hoewel conventionele tokenisatiemethoden enige complexiteit met zich mee kunnen brengen en de activiteiten kunnen vertragen, kan Databolt naadloos worden geïntegreerd met gecodeerde datawarehouses, waardoor bedrijven een robuuste beveiliging kunnen handhaven zonder de prestaties of activiteiten te vertragen. Tokenisatie vindt plaats in de omgeving van de klant, waardoor er geen noodzaak meer is om met een extern netwerk te communiceren om tokenisatiebewerkingen uit te voeren, wat ook de prestaties kan vertragen.

“Wij zijn van mening dat tokenisatie in principe gemakkelijk te implementeren moet zijn”, aldus Raghu. “Je zou je data heel snel moeten kunnen beveiligen en moeten kunnen opereren met de snelheid, schaal en kosten die organisaties nodig hebben. Ik denk dat dit tot nu toe een kritische barrière is geweest voor de massale adoptie van tokenisatie. In een AI-wereld zal het een enorme factor zijn.”

Mis het niet volledig gesprek met Ravi Raghu, president van Capital One Software, hier.


Gesponsorde artikelen zijn inhoud die is geproduceerd door een bedrijf dat voor de post betaalt of een zakelijke relatie heeft met VentureBeat, en is altijd duidelijk gemarkeerd. Voor meer informatie kunt u contact opnemen met sales@venturebeat.com.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in