
Hoe state 'n leiding neem oor KI-regulering
Die afgelope jaar was een van KI se grootste sedert wetenskaplikes die konsep die eerste keer in die laat 1940's voorgestel het. KI-verkopers het voortgegaan om te innoveer, met kragtiger KI-modelle wat gereeld verskyn, en tegnologiese verskaffers is besig om dit in hul kernaanbiedings in te vou. Terwyl die Withuis 'n uitgereik het Executive Order om 'n paar vangrelings om hierdie kragtige tegnologie te probeer sit, is dit beperk sonder kongressteun, en wetgewers het baie min gedoen om te help. Daar is steeds geen oorkoepelende KI-regulasie op federale vlak nie.
Dit het staatsregerings gelaat om die vakuum te vul, en hulle het die uitdaging aangepak. Volgens die Business Software Alliance, staat wetgewers bekendgestel 440% meer KI-verwante rekeninge in 2023 as in die vorige jaar. Hierdie wette het 'n verskeidenheid KI-verwante kwessies ondersoek, insluitend die potensiaal vir vooroordeel, deursigtigheid oor watter data gebruik word om KI-stelsels op te lei, en spesifieke bedreigings soos diepvals.
’n Vloed van staatsmaatreëls
Regulerende maatreëls wat deur state geneem word, verskil baie. Sommige, soos Texas, het gefokus op die gebruik van KI deur die staat self. Sy Huis Bill 2060, wat verlede jaar by wet onderteken is, 'n KI-adviesraad gestig om die staat se gebruik van KI-stelsels te hersien en die behoefte aan 'n etiese kode te evalueer.
Ander KI-regulasies sluit die privaatsektorgebruik van hierdie stelsels in, wat dikwels binne verbruikersprivaatheidswette geleë is. van Oregon SB619, wat op 1 Julie vanjaar in werking tree, sluit 'n opt-out-bepaling in vir data wat in outomatiese profilering gebruik word. Die van Montana SB384 verbruikersprivaatheidswetgewing, wat in Februarie 2023 ingestel is, bevat 'n soortgelyke bepaling, net soos Virginia se Wet op die Beskerming van Verbruikersdata en New Hampshire's SB255. Al hierdie is reeds verorden, net soos Tennessee s'n HB1181, wat databeskermingsbeoordelings vir dataprofilering opdrag gee.
Sommige fokus op generatiewe KI. Die van Utah SB149, wat in Maart vanjaar by wet onderteken is, beveel dat individue ingelig moet word as hulle met KI interaksie het, 'n gereguleerde beroep (een wat vereis dat hulle 'n lisensie of 'n staatsertifikaat moet hê).
Ander state het probeer om verder te gaan as die profiel van opt-out-bepalings met verdere KI-verwante beskermings. Connecticut, wat verlede jaar so 'n bepaling in sy Connecticut Privaatheidswet afgedwing het, het 'n ander wetsontwerp gepoog – SB2 – wat self die ontwikkeling van outomatiese besluitnemingsinstrumente en KI-stelsels sou reguleer. Dit sou omvattende dokumentasie van sulke stelsels en hul gedrag vereis het, tesame met die data wat tydens ontwikkeling gebruik is (dit sou opleidingsdata ingesluit het). Dit sou ook risikobeoordelings rondom hul ontplooiing vereis het, tesame met deursigtigheid.
Connecticut se staatssenaat het SB2 geslaag, maar dit kon nie 'n huisstemming teen die Mei-sperdatum bereik nie, deels weens die belofte van die goewerneur van Connecticut, Ned Lamont, om die wetsontwerp te veto.
Colorado het egter beter geluk gehad om die grense van KI-regulering te verskuif. 'n Week nadat SB2 by die laaste hekkie geval het, het die Colorado-staatwetgewer geslaag SB24-205, wat spesifiek KI reguleer. Die wet stel ’n etiese raamwerk in vir die ontwikkeling van hoërisiko-KI-stelsels, dwing die bekendmaking van die gebruik daarvan af, en gee verbruikers die kans om hul resultate uit te daag en enige persoonlike data wat die KI-stelsel gebruik het, reg te stel. Hoërisiko-KI-stelsels, wat die wet definieer as dié wat tot "gevolgbesluite" lei, sal ook onderhewig wees aan 'n risiko-evaluering en jaarlikse hersiening.
Ander state het 'n nulpunt vir spesifieke gebruike van KI. In 2020 het Illinois 820 ILCS 42/1 geslaag (die Wet op Kunsmatige Intelligensie Video-onderhoude), wat potensiële werkgewers dwing om toestemming van werkskandidate te kry as hulle KI gebruik om hul video-onderhoude te ontleed.
Daar is ander aggressiewe snawels in die bak. In Mei het Kalifornië se senaat geslaag SB1047 met 32 stemme teen een. Hierdie wetsontwerp, wat 'n sperdatum van 31 Augustus het om die staatsvergadering te slaag, eggo sommige van die maatreëls in die Withuis se Uitvoerende Bevel oor KI. Dit stel veral veiligheidsmaatreëls soos rooi-span en kuberveiligheidstoetsing vir groot KI-modelle in. Dit sou 'n duidelike kantoor skep om KI te reguleer, saam met 'n publieke wolk vir die opleiding van KI-modelle, en sou verseker dat 'n "doodskakelaar" in KI-modelle ingebou is om hulle te deaktiveer sou iets verkeerd loop.
Staatswette wat die grense van KI-regulering verskuif, sal voortgaan om na vore te kom solank federale wetgewers op hul hande sit. Daar was 'n paar belowende skuiwe, soos die bekendstelling van Senator Schumer se SAFE Innovation Framework om die verantwoordelike gebruik van KI te ondersoek. Dié inisiatief beweeg egter teen 'n yslike pas. A voorgestelde Federale Wet op Risikobestuur vir Kunsmatige Intelligensie sal ook federale agentskappe dwing om die NIST AI Risk Management Framework aan te neem en KI-verkrygingsriglyne vir agentskappe te skep. Op die oomblik is die state egter waar die aksie is.
Hoe kan u voorberei?
Hoe kan maatskappye begin voorberei vir wat reeds 'n lappieskombers van staatsvlakregulering rondom KI word? Die ISO 42001-standaard dien as 'n nuttige verwysing. Dit skets die vereistes vir 'n kunsmatige intelligensiebestuurstelsel (AIMS) wat beleide, prosedures en doelwitte insluit as deel van 'n bestuurstruktuur vir die gebruik van KI-stelsels. Dit dring ook aan op deursigtigheid en aanspreeklikheid in KI-gebaseerde besluitneming, terwyl dit organisasies help om KI-verwante risiko's te identifiseer en te versag.
Namate staatsreëls toeneem, is 'n ISO-standaard 'n maatstaf wat goeie praktyk en voorbedagsaamheid demonstreer gedurende 'n onsekere tyd vir KI-regulering.