'n Onlangse voorval het kommer laat ontstaan oor hoe data deur GenAI-gereedskap hanteer word. Is dit tyd om te verseker dat jou data nie in hul LLM's beland nie? Dan Raywood kyk na die opsies.
'n Wyse persoon het eenkeer gesê dat wat jy op die internet plaas, op die internet bly. Spesifiek, dit sou met verwysing na sosiale media, veral Facebook, gewees het.
In hierdie dekade gaan die uitdaging minder oor die openbaarmaking van inhoud op sosiale media en meer oor wat jy in Generatiewe KI en Groot Taalmodelle (LLM's) geplaas het, wat dan daardie data behou, verwerk en stoor om beter besonderhede in versoeke en soekresultate te gee.
Enige vertroue in GenAI se sekuriteit is egter in die somer geskud toe duisende van Grok-kletstranskripte is blootgestel, wat beklemtoon hoe vinnig private KI-gesprekke openbaar kan word. Vir individue kan dit verleentheid veroorsaak. Vir besighede is die risiko's baie hoër, aangesien dit kliëntedata, intellektuele eiendom of regsstrategieë blootstel, met gevolge wat wissel van reputasieskade tot regulatoriese boetes.
Van Chatbot na Soekenjin
Volgens berigte in die media, elke keer as 'n klets met die Grok-bot gedeel is, is 'n unieke URL gegenereer en aan soekenjins beskikbaar gestel. Die meeste gebruikers was onbewus daarvan dat hierdie skakels outomaties geïndekseer is, wat beteken dat enigiemand hulle aanlyn kon vind.
Damian Chung, sake-inligtingsekuriteitsbeampte by Netskope, sê aan IO dat hy glo dat in hierdie geval slegs die kletsgeskiedenis blootgelê is, maar dit was "nogal kommerwekkend, want jy dink nie dat wanneer jy daardie KI-interaksies deel, hulle openbaar gemaak kan word nie."
Hy glo egter dat hierdie voorval ten minste bewustheid van hierdie tipe risiko verhoog, want “ons kyk nie na watter sekuriteitsbeheermaatreëls rondom hierdie LLM's is nie, so jy moet nie blindelings toelaat dat enige inligting daarin ingaan nie.”
Vir besighede is die les duidelik: sodra data jou omgewing verlaat, verloor jy beheer daaroor. Selfs oënskynlik onskadelike oplaaie kan weer opduik op maniere wat jy nooit beplan het nie.
Skadu-KI en die risiko van lekkasie
Grok, 'n produk van Elon Musk se xAI-maatskappy en algemeen gebruik op X, is nou een van honderde GenAI-dienste wat beskikbaar is. As 'n mens gesprekke kan lek wat die deelnemer as privaat, of ten minste onbekend, beskou het, wat hou ander in wat uitgelek of oortree kan word?
Chung sê dat ons vroeg in die evolusie van GenAI is, en dit is goed om bewustheid van risiko's te hê, maar ook om gebruikers nie af te skrik om dit te gebruik nie.
Matt Beard, direkteur van kuberveiligheid en KI-innovasie by AllPoints Fibre Networks, stel dit botweg: “Of dit nou sensitiewe of algemene data is, die bedreigings is beslis werklik in daardie opsig, van die onbedoelde openbaarmaking van kliëntinligting tot die lekkasie van interne strategiedokumente, die gevolge kan wissel van reputasieskade tot regulatoriese boetes.”
Hierdie risiko word versterk deur skadu-KI. Werknemers wat hulle tot ongeautoriseerde gereedskap wend vir produktiwiteitswinste, kan vertroulike materiaal blootstel sonder om dit te besef. Sodra inligting aanlyn geïndekseer is, kan dit lank nadat die oorspronklike gesprek uitgevee is, voortduur.
Beleide, nie verbod nie
Een benadering is om toegang tot KI-gereedskap heeltemal te blokkeer, maar sekuriteitsleiers waarsku dat dit ondoeltreffend is. Soos Chung opmerk: “As jy dit doen, sal die gebruiker 'n ander manier vind om dit te gebruik. Deur dit te blokkeer, kry ons nie noodwendig dieselfde vlak van sekuriteit wat ons dink ons kry nie.”
Kenners stel eerder voor dat KI-gebruik onder duidelike reëls en voorsorgmaatreëls moontlik gemaak word. Beard sê die balans lê in die "bou van 'n raamwerk van tegniese en gedragsbeheermaatreëls" om organisatoriese data te beskerm. Dit gaan daaroor om "personeel die voordele van die veilige gebruik van hierdie gereedskap te wys, en seker te maak dat hulle korporatief aanvaarbare stelsels beskikbaar het, want uiteindelik sal hulle na 'n tydelike oplossing soek indien nie."
Angelo Rysbrack, digitale verdedigingspesialis by Pronidus Cybersecurity, stem saam dat die onlangse oortredings die hoofrisiko vir maatskappye uitlig: hoe werknemers met hierdie KI-instrumente omgaan. Die oplaai van sensitiewe of selfs skynbaar onskadelike data kan vinnig tot blootstelling lei. Sodra die data jou omgewing verlaat, verloor jy beheer daaroor.
Praktiese oplossings
Wat kan organisasies dan realisties doen om die risiko van blootstelling te verminder? Diegene met wie ISMS gepraat het, het saamgestem dat die antwoord lê in die bou van gestruktureerde, gelaagde verdediging.
Rysbrack merk op dat die meeste organisasies reeds aanvaarbare gebruiks- of IT-beleide het, en dit is die natuurlike beginpunt. “As die fondament bestaan, bou daarop” eerder as om van nuuts af te begin. Hy waarsku egter dat beleide op papier nie genoeg is nie, en werknemers moet van die begin af bewus gemaak word van die reëls en gereeld herinner word aan hul verantwoordelikhede.
Beard beklemtoon die noodsaaklikheid om te fokus op die moontlikmaking van veilige gebruik onder gedefinieerde skutrelings: “Ons moet KI omhels vir die doeltreffendheid wat dit ons bring, maar dit beteken nie blinde aanvaarding nie. Dit beteken die bou van 'n raamwerk van tegniese en gedragsbeheermaatreëls om ons data en ons mense te beskerm.”
Vir Rysbrack moet daardie beheermaatreëls praktiese voorsorgmaatreëls insluit: “gebruik inhoudsfiltrering, toepassingsbeskermingsbeleide en dataverliesvoorkoming om te keer dat sensitiewe inligting die organisasie verlaat.” In sommige gevalle kan dit gepas wees om “riskante toepassings te blokkeer, maar waar moontlik personeel veilige alternatiewe te bied.”
Beard beklemtoon die belangrikheid daarvan om te onderskei tussen goedgekeurde en ongegoedgekeurde KI-instrumente en om duidelike verwagtinge vir werknemers te stel: “Bowenal moet aanvaarbare gebruiksbeleide duidelik verbied dat enige inligting bo 'Publieke'-klassifikasie met ongegoedgekeurde dienste gedeel word.”
Hierdie soort maatreëls kan verder versterk word deur hulle te anker aan erkende raamwerke soos ISO 27001 vir inligtingsekuriteit en ISO 42001 vir KI-bestuur. Dit help verseker dat beleide, monitering en risikobestuur nie net konsekwent is nie, maar ook ouditeerbaar en verdedigbaar teen regulatoriese ondersoek.
Saamgevat skep hierdie kombinasie van raamwerke, tegniese voorsorgmaatreëls en voortdurende gebruikersbewustheid 'n kultuur waar werknemers beide die voordele van KI-instrumente en die grense van veilige gebruik verstaan.
Tree nou op, moenie wag nie
Beard is duidelik dat die tyd vir huiwering verby is, en organisasies moet nie wag vir 'n oortreding nie, maar nou aksie neem. “Skep duidelike, aparte beleide vir KI-gebruik en -ontwikkeling; maak seker dat hulle deursigtig gemonitor word en lei jou mense op. Behandel KI bowenal as 'n vermoë wat ingespan moet word en nie gevrees moet word nie.”
Chung stem saam dat dit nie realisties is om elke nuwe KI-toepassing te blokkeer nie. Met honderde reeds beskikbaar en nuwes wat heeltyd opduik, stel hy voor dat organisasies ligter intervensies oorweeg, soos 'n "afrigtingsboodskap" voordat 'n GenAI-webwerf besoek word, wat werknemers daaraan herinner om mooi te dink oor wat hulle deel.
Rysbrack beklemtoon dat die uitdaging is om 'n balans te vind in die beskerming van data sonder om innovasie te onderdruk. Die beste resultate word behaal deur duidelike reëls, gebruikersbewustheid, opleiding en tegniese voorsorgmaatreëls te kombineer. “Op dié manier ken werknemers die perke, het hulle die regte gereedskap, en vermy die organisasie om die volgende opskrif te word.”
Die Ware Les van Grok
Die Grok-lekkasie is nie die eerste geval van KI-gegenereerde gesprekke wat aanlyn soekbaar word nie, en dit sal ook nie die laaste wees nie. Vir besighede is die ware les dat vertroue in GenAI nooit veronderstel moet word nie.
Deur beleide, tegniese voorsorgmaatreëls en personeelbewustheid nou in plek te stel, kan organisasies die produktiwiteit van KI benut terwyl hulle hul waardevolste data beskerm. Wag vir die volgende oortreding is nie 'n opsie nie.










