Dit mag dalk drie jaar wees sedert die bekendstelling van ChatGPT 'n nuwe tegnologie-wapenwedloop afgeskop het, maar alle oë is nou op agentiese KI. Voorstanders beweer dat dit een beter sal vaar as generatiewe KI (GenAI) deur onafhanklik te werk om take vir sy menslike meesters te voltooi. Byna twee derdes (62%) van organisasies eksperimenteer reeds ten minste met KI-agente, met groter firmas wat verder as die loodsfase skaal, volgens McKinsey.
Maar met outonomie kom risiko. Net verlede maand, Antropiese onthul wat dit beweer het die eerste "KI-georkestreerde kuber-spioenasieveldtog" te wees, wat sy Claude-kletsbot gebruik het om dosyne organisasies te teiken. Dit is 'n bedreiging waarteen die ontledergemeenskap ook waarsku.
Forrester se belangrike kuberveiligheidsvoorspellings vir 2026 is dat 'n agentiese KI-ontplooiing 'n publiek gerapporteerde oortreding sal veroorsaak, wat tot ontslag van werknemers sal lei. Die vraag is of organisasies die gereedskap, raamwerke en kundigheid het om sulke risiko's te bestuur, terwyl hulle die enorme sakevoordele van die tegnologie benut.
Hoe Agentiese KI Werk
Terwyl GenAI bloot inhoud opsom en skep gebaseer op gebruikersaanwysings, is agentiese KI-stelsels ontwerp om sonder konstante menslike toesig te werk om take te voltooi. Om dit te doen, versamel hulle inligting van databasisse, sensors, gebruikers en API's. Dan verwerk hulle daardie data om insig en konteks te onttrek. Vervolgens stel die KI vir homself doelwitte gebaseer op voorafbepaalde doelwitte of gebruikersinsette, werk uit hoe om dit te bereik, en gebruik redenasie om die beste uit verskeie moontlike aksies te kies.
Volgende kom die uitvoering van daardie aksie, gewoonlik deur interaksie met derdeparty-stelsels en -data. En dan evaluering van die uitkoms en voortdurende verfyning en leer. Dit is die KI se vermoë om komplekse, veelstadiumtake op hierdie manier te voltooi – moontlik dinamies aan te pas soos nuwe inligting verskyn – wat dit so nuttig maak. Die gebruiksgevalle is byna onbeperk. Die tegnologie kan alles aandryf, van voorspellende instandhoudingswerkvloeie in industriële omgewings tot kliëntereisbestuur vir e-handelspelers.
Indien dit oordeelkundig ontplooi word, kan agentiese KI menslike foute uit handmatige take uitskakel, personeel vrymaak om op hoërwaarde-werk te fokus, en operasionele doeltreffendheid en produktiwiteit dramaties verbeter. Hierdie doeltreffendheid behoort koste te kan verminder. En KI-agente kan ook 'n beduidende hupstoot aan die kliëntervaring in sekere industrieë bied.
Hoe 'n Oortreding Kan Gebeur
Omdat daar egter minder toesig oor die KI is, is daar 'n groter geleentheid vir kwaadwillige manipulasie, of toevallige lekkasie van data, voordat sekuriteitspanne selfs weet dat daar iets verkeerd is. Hoe belangriker die besluite is wat 'n agent gemagtig is om te neem, hoe groter is die potensiële risiko. Vinnige inspuiting is 'n groot bron van kommer. Deur kwaadwillige instruksies in iets in te bed wat 'n agent sal verwerk – soos 'n dokument, webblad of aanlyn kommentaar – kan 'n bedreigingsakteur dit mislei om sensitiewe data te lek.
Lekkasies kan ook per ongeluk gebeur as relings nie korrek ontplooi word nie. Oorbevoorregte agente en agentverspreiding verhoog die waarskynlikheid dat iets verkeerd gaan.
Forrester waarsku dat oortredings moontlik is as gevolg van 'n "kaskade van mislukkings". Senior ontleder Paddy Harrington verskaf ISMS.online van drie scenario's:
Te veel toegang tot data: “In 'n haas om agentiese KI te implementeer, kan departemente en spanne standaard nulvertroue-toegangsriglyne ignoreer. En aangesien dit 'n 'program' is en nie 'n persoon nie, kan hulle aanvaar dat solank hulle dit slegs beveel om toegang tot sekere datastelle te verkry, dit die omvang daarvan moet beperk,” verduidelik hy. “Ongelukkig, soos geleer is deur nie behoorlike gebruikers- of toestelsegmentering te hê nie, kan enige agent wat toegang tot data het, gemanipuleer word om toegang tot daardie data te verkry. As jy die diefstal van 'n verifikasietoken byvoeg, kan die hoeveelheid data wat opgesuig kan word, 'n besigheid verlam.”
Swak verifikasiehigiëne: “Die agente benodig magtiging om toegang tot data te verkry, wat verifikasie beteken. As verifikasiebenaderings te eenvoudig is – statiese tokens wat verkeerd gestoor word, of dalk te breed ’n magtiging – kan hierdie agente dan deur bedreigingsakteurs gemanipuleer word,” sê Harrington. “As ’n gebruiker ’n agentiese werkvloei skep en as daar geen riglyne is nie, is dit moontlik dat hulle data na eksterne bewaarplekke stuur of toegang tot sensitiewe data deur hierdie outonome werkvloeie verkry. As daar geen beskermings is nie, kan dit beteken dat HR-, finansiële of selfs verifikasie-inligting blootgestel word.”
Vertroue op inligting met lae akkuraatheid: “Die akkuraatheid van baie probabilistiese modelle kan wissel van 60% tot 10%. As dit in die konteks van IT- of sekuriteitswaarskuwings geplaas word, met 'n haastige-na-mark-model, kan jy 'n magdom vals positiewe of, erger nog, vals negatiewe waarskuwings hê,” voer Harrington aan. “Dit kan die spanne van werklike probleme aflei of hulle heeltemal laat miskyk. Wat die kaskade betref, wanneer jy daardie agentiese werkvloei skep, waar die agente saamwerk, kan 'n leuen in een veroorsaak dat die daaropvolgende agente in die werkvloei daardie leuen voed, hul eie genereer en dit laat aangaan sodat die uitvoer of finale aksies 'n sekuriteits-/IT-nagmerrie is.”
Skermrelings en Beleide
Forrester se raad is om sy Agentic AI Guardrails For Information Security (AEGIS) te volg. raamwerkDit is gebaseer op ses "domeine":
- Bestuur, risiko en nakoming (GRC)
- Identiteits- en toegangsbestuur (IAM)
- Datasekuriteit en privaatheid
- Aansoek sekuriteit
- Bedreigingsbestuur
- Zero Trust argitektuur
Die ontleder beveel aan om met GRC te begin – die vestiging van bestuur, die bou van agentvoorraadstelsels en die definisie van aanvaarbare gebruik. Dit dring daarop aan dat sekuriteitspanne dan IAM en datasekuriteit bou, en agente as 'n "nuwe identiteitsklas" behandel. Volgende moet verbeterings aan DevSecOps kom om die agentlewensiklus te beveilig en hallusinasies op te spoor. En laastens, optimalisering via Zero Trust om minste agentskap af te dwing, onbeplande gedrag te monitor en skelm agente te isoleer.
Beste praktykstandaarde soos ISO 42001 kan ook hier help, aangesien daar 'n beduidende oorvleueling met die AEGIS-benadering is, sê Harrington. Wat ook al hul finale metode is, hy dring daarop aan dat organisasies moet verseker dat sekuriteit van die begin af in agentskap-KI-projekte ingebou is.
“Almal beweeg te vinnig om die nodige beskerming in plek te stel. Besigheidsleiers sien die implementering van KI-agente en agentwerkvloei as iets wat groot kostebesparings en verhoogde doeltreffendheid tot gevolg het,” sluit hy af.
“Sekuriteit, die departement van 'Nee', is dikwels 'n hindernis vir spoed, want ons sê vir mense om die tyd te neem om veilige bedryfspraktyke te volg. En daardie spoedhobbels word as in die pad beskou. Maar omtrent elke keer as [sekuriteit geïgnoreer word], eindig dit uiteindelik in pyn.”










