Generatiewe KI (GenAI) het die hoogtes van bedryfshype bereik sedert dit laat in 2022 op die toneel uitgebars het. Nou betree dit wat Gartner "die trog van ontnugtering" noem, aangesien ontplooiings nie aan hemelhoë verwagtinge voldoen nie. In 2023, McKinsey het beraam dat GenAI die ekwivalent van $2.6 triljoen tot $4.4 triljoen jaarliks ​​oor 63 gebruiksgevalle kan byvoeg. Maar minder as 'n jaar later het minder as 30% van KI-leiers beweer Hul uitvoerende hoofde was tevrede met die opbrengs op belegging van projekte, volgens Gartner.

Erger nog, die sakerisiko's wat met die gebruik van die tegnologie geassosieer word, kan beduidend wees. Vra maar vir Deloitte Australië, wat onlangs gekritiseer is omdat hulle KI-gegenereerde foute in 'n federale regeringsverslag ingesluit het. Namate organisasies jaag om die tegnologie vir mededingende voordeel aan te neem, word bestuursrelings noodsaaklik.

Deloitte het rooigesig links gegaan

Die 237-bladsy verslag wat deur Deloitte opgestel is, is oorspronklik in Julie op die webwerf van die Departement van Indiensneming en Werkplekverhoudinge gepubliseer. volgens berigteDie bevindinge het 'n wanverhouding tussen die stelsels wat deur die regering gebruik word om welsynsbedrog uit te roei en werklike beleidsdoelwitte voorgestel. Universiteitsnavorser, Chris Rudge, het egter opgemerk dat iets nie heeltemal reg is nie.

Na verdere ondersoek het hy na bewering 20 foute in die verslag gevind, insluitend:

  • 'n Versinde aanhaling van 'n federale regter, wie se van verkeerd gespel is
  • Tien verwysings uit 'n boek genaamd The Rule of Law and Administrative Justice in the Welfare State, wat nie eintlik bestaan ​​nie
  • Foutiewe toeskrywing van daardie boek aan 'n professor aan die Universiteit van Sydney
  • Verwysings na nie-bestaande verslae wat toegeskryf word aan regs- en sagteware-ingenieurswese-kundiges

In reaksie hierop het Deloitte Australië na bewering slegs gesê dat die "saak direk met die kliënt opgelos is." Die regering het egter gedeel dat die konsultant ingestem het om 'n deel van die AU$440,000 ($290,000) fooi vir die projek terug te betaal. In 'n opgedateerde weergawe van die verslag is die foute blykbaar verwyder en 'n nuwe openbaarmaking het bygevoeg dat Azure OpenAI gebruik is om dit te skryf.

Hallusinasies en meer

Deloitte Australië is nie die enigste een wat hulself deur KI by die werk in die verleentheid gestel het nie. 'n April-verslag van mededinger KPMG toon dat, terwyl 67% van werknemers KI gebruik om hul produktiwiteit te verbeter, erken byna ses uit tien (57%) dat hulle foute in hul werk gemaak het as gevolg van foute wat deur die tegnologie gegenereer is.

Hallusinasies is 'n volgehoue ​​uitdaging, veral wanneer publiek beskikbare KI-gereedskap gebruik word vir sekere take wat 'n hoë mate van domeinkundigheid vereis. Dit word soms, maar nie altyd nie, veroorsaak deur onvolledige of verkeerde opleidingsdata. Maar die risiko is dat die KI met soveel vertroue lieg dat 'n nie-deskundige vir die hallusinasie kan val.

Hallusinasies is egter nie die enigste risiko wat voortspruit uit KI-gebruik in die werkplek nie. Gebruikers kan per ongeluk sensitiewe korporatiewe IP- of kliëntinligting in aanwysings met 'n publieke model deel. Dit verteenwoordig beduidende datalek- en voldoeningsrisiko's, aangesien dieselfde inligting teoreties aan ander gebruikers oorgedra kan word. Dit is ook in gevaar van diefstal van die modelontwikkelaar. KI-instrumente self kan kwesbaarhede bevat, of geteiken word in vyandige aanvalle wat ontwerp is om onbedoelde uitsette te skep.

Hierdie risiko's is nie teoreties nie. Die ISMS Stand van inligtingsekuriteitsverslag 2025 onthul dat 26% van Britse en Amerikaanse firmas die afgelope jaar 'n datavergiftigingsaanval ervaar het. En 'n derde (34%) is bekommerd oor die verspreiding van skadu-KI in die organisasie.

Hierdie risiko's kan versterk word met die wydverspreide aanvaarding van agentiese KI, wat ontwerp is om outonoom oor werkvloeie te werk met baie minder menslike toesig om take te voltooi. Die kommer is dat dit baie langer kan neem om op te spoor wanneer die agent vreemd of op 'n nie-voldoenende wyse begin optree.

Vir organisasies soos Deloitte Australië aan die ontvangkant, kan onbeheerde gebruik van KI hulle blootstel aan reputasie-, finansiële en voldoeningsrisiko. In hierdie spesifieke geval was die monetêre impak onbenullig vir 'n organisasie van Deloitte se grootte. Maar die voorval kan potensiële nuwe kliënte twee keer laat dink voordat hulle ooreenkomste teken.

ISO 42001 tot die redding?

Dit is nie die eerste keer dat KI-hallusinasies individue en organisasies in die verleentheid stel wat beter behoort te weet nie. In 2023 het dit aan die lig gekom dat 'n Amerikaanse regsfirma het vals sake en aanhalings wat deur ChatGPT uitgedink is, in 'n persoonlike beseringsgeding aangehaal. Die federale regter het dit destyds as "'n ongekende omstandigheid" beskryf. Alhoewel ontwikkelaars aan maniere werk om hallusinasies van hierdie aard te verminder, hoe meer die tegnologie sonder voldoende relings en toesig gebruik word, hoe meer waarskynlik is dit dat ander firmas in die voetspore van Deloitte Australië sal volg.

Vir Ruth Astbury, medestigter van ExpandAI, is die saak “’n duidelike herinnering dat KI-risiko nie net tegnies is nie – dit is organisatories en raak alle areas van besigheidsrisikobestuur.” Sy voer aan dat voldoende “bestuur, aanspreeklikheid en deurlopende menslike toesig” deurslaggewend ontbreek het, en uiteindelik ’n voorval aangevuur het wat die firma se reputasie geweldig skade kon berokken.

“Wanneer KI-instrumente sonder gedefinieerde eienaarskap, etiese grense of gebruiksbeleide uitgerol word, innoveer jy nie – jy dobbel met jou handelsmerk se reputasie,” sê sy vir ISMS.online. “Die sakerisiko's van onbeheerde KI wissel van data-oortredings en vooroordeel tot nakomingsmislukkings en verlies aan kliëntevertroue.”

Alhoewel KI navorsers kan help, moet dit nooit "outydse hersiening, verfyning en versekering van feite" vervang nie, voeg Astbury by. "Wat verbasend is, is dat dit binne een van die Groot Vier konsultasiemaatskappye gebeur het," gaan sy voort. "KI-vennote en senior konsultante leef en asem hul domeine. Hulle kan, en behoort, verwysings of bewerings in verslae te herken wat hulle nog nooit teëgekom het nie of wat duidelik hallusinasies is."

Die antwoord kan ISO 42001 wees, wat ontwerp is om organisasies te help om KI-bestuurstelsels te vestig, te implementeer, te onderhou en voortdurend te verbeter.

“Die oplossing is eenvoudig: organisasies benodig 'n gestruktureerde benadering tot KI-risikobestuur, duidelike beleide, deursigtige besluitneming en personeelopleiding wat aanspreeklikheid op elke vlak insluit. Dit is waar KI-beheer, ondersteun deur 'n KI-bestuursraamwerk soos ISO/IEC 42001, ter sprake kom,” verduidelik Astbury.

“ISO/IEC 42001 bied 'n bestuurstelsel vir KI, baie soos ISO 27001 vir inligtingsekuriteit doen, wat verseker dat deurlopende KI-beheer, risikobestuur, monitering en etiese ontwerp in elke KI-inisiatief ingebou is.”

Daar is nog 'n entjie om te gaan voordat KI-gereedskap begin tref Gartner se beroemde Plato van Produktiwiteit. Maar as hulle daar wil kom, sal organisasies moet besef dat menslike kundigheid altyd 'n voorvereiste vir suksesvolle gebruiksgevalle sal wees.