ai riskante besigheidsblog

Waarom KI 'n riskante besigheid is - en wat om daaraan te doen

Dit is 2023, en KI blyk oral te wees. ChatGPT, die KI wat deur Elon Musk-gestigte instituut OpenAI vervaardig word, is skryf van studente-opstelle, boeke uithaal, En selfs uitdagende parkeerboetes. In een voorval wat bewys dat ons in 'n episode van Black Mirror leef, het 'n besonder siellose universiteitswerknemer selfs het dit gebruik om studente te troos na 'n massaskietery.

Hoe ChatGPT werk

Privaatheids- en sekuriteitskenners wonder dalk hoe KI hulle ook kan help. Kan dit byvoorbeeld jou privaatheidsbeleid skryf? Die antwoord is ja - soort van.

Om die vraag meer deeglik uit te pak, is dit die moeite werd om te verstaan ​​hoe ChatGPT se nuwer handelsmerk van AI werk. Dit is gebaseer op iets wat 'n groot taalmodel (LLM) genoem word. Dit is 'n KI-model wat opgelei is met 'n groot tekskorpus, gewoonlik van die internet af geskraap. Die opleidingsproses breek hierdie teks af in tekens, wat dele van woorde kan wees. Dan gebruik dit groot hoeveelhede rekenaarkrag om patrone in die taal te vind wat dit help om te verstaan ​​hoe daardie tekens verwant is.

Wanneer iemand die KI met 'n versoek vra (sê, "verduidelik koue samesmelting in die styl van Sherlock Holmes"), gebruik die KI sy uitgebreide opleidingsmodel om stukke woorde te neem en te voorspel watter een waarskynlik volgende sal kom. Dit is hoe dit oortuigende taal kan voortbring wat blykbaar die konsepte volg wat in die prompt uiteengesit word.

Selfversekerd en stom: 'n Slegte kombinasie

Die probleem met hierdie benadering is dat die KI nie weet waarvan dit praat nie. Navorsers het dit vergelyk met 'n 'stogastiese papegaai', wat ewekansige woorde saamryg sonder om dit te verstaan. 'n Referaat wat dit beskryf, Oor die gevare van stogastiese papegaaie, wys daarop dat "tale stelsels van tekens is, dit wil sê parings van vorm en betekenis." Wanneer iemand "haas" sê, verstaan ​​jy die konsep van 'n haas en hoe dit met verskeie ander dinge verband hou (Paasfees, lente, troeteldiere, lekker bredie, ens.). "Maar die opleidingsdata vir LM's is slegs vorm," sê die navorsers. “Hulle het nie toegang tot betekenis nie.”

Dit skep probleme vir LLM's waarop u staatmaak vir feitelike inhoud. Omdat hulle woorde verkry wat gebaseer is op statistiese waarskynlikheid eerder as kennis, is hulle geneig om dinge te skryf wat nie waar is nie. In KI-jargon staan ​​dit bekend as 'hallusinerend', en dit is 'n probleem as jy op hulle wil staatmaak vir feitelike inhoud.

Mense geëksperimenteer het met die gebruik van ChatGPT om 'n privaatheidsbeleid te skryf, met twyfelagtige resultate. Hulle het voorspelbaar gevind dat die uitkomste swakker was toe die LLM meer spasies moes invul.

Eenvoudige KI vra beleide wat nie op spesifieke privaatheidswette gegrond is nie en nie met spesifieke besigheidspraktyke verband hou nie. Die privaatheidsbeleid het verbeter namate toetsers meer inligting bygevoeg het, tot die punt waar dit 'n indrukwekkende resultaat opgelewer het. Teen daardie tydstip sal jy egter eers ure, dae of selfs weke moet spandeer om te bepaal watter privaatheidswette op jou van toepassing is, die openbaarmakingsvereistes van daardie wette te ontleed en dan hierdie inligting aan ChatGPT te verskaf, saam met jou spesifieke besigheidspraktyke, " sy sê. Wat die vraag laat ontstaan: hoekom doen nie die hele ding in die eerste plek net self nie?

Ander het ChatGPT en soortgelyke LLM's beskryf as "sakrekenaars vir woorde". Hulle is net regtig nuttig om te skryf as jy self baie werk insit en die resultate noukeurig verifieer.

Mense se gebruik van KI is dikwels ook selfversekerd en dom

Ons kan nie KI-gereedskap vertrou nie, maar ons kan mense vertrou om dit te misbruik. Ons het reeds die uitval gesien van swak deurdagte en onvanpas toegepaste KI, wat lei tot beduidende uitval wat werklike lewens beïnvloed.

Owerhede het KI-aangedrewe stelsels gebruik wat bevooroordeeld is wanneer geregtelike vonnisse aanbeveel word. Byvoorbeeld, die Nederlandse belastingowerheid se misbruik van KI-sagteware het die agentskap daartoe gelei ouers onregverdig van bedrog beskuldig-Blinde geloof in gebrekkige AI-aangedrewe gesigsherkenningsalgoritmes het gelei tot die onregmatige arrestasie van onskuldige mense. Vooroordeel het ook verskyn in Amazon se KI-aangedrewe werwingstelsel, wat afgeskaf is nadat dit versuim om gekwalifiseerde vroue aan te beveel vir tegnologie werke.

Hoe kan ons hierdie probleem benader? Sommige kenners het reeds genoem 'n moratorium van ses maande op KI-ontwikkeling om ons koppe om die hele jammer gemors te kry voordat dinge nog meer handuit ruk.

Geen tekort aan riglyne nie

Ons het reeds baie verantwoordelike KI-riglyne om van te kies, en hulle sê soortgelyke dinge. Voorspraakgroep Algorithm Watch hou 'n voorraad van KI-riglyne van verskeie instellings, insluitend die EU's Riglyne vir etiek vir betroubare AI. Een wat nie by die skryf hiervan ingesluit was nie, was die Nasionale Instituut vir Standaarde en Tegnologie (NIST's) KI Risikobestuursraamwerk, wat in Januarie vanjaar vrygestel is. Soos die meeste ander riglyne, stel die NIST-raamwerk 'n paar relings vir die ontwikkeling en toepassing van KI. Dit eggo ook verskeie algemene beginsels in ander etiese riglyne, soos deursigtigheid, aanspreeklikheid, privaatheid, sekuriteit en veerkragtigheid.

Per die OEDC, daar is meer as 800 KI-beleidsinisiatiewe oor byna 70 lande op die oomblik van skrywe, maar daar is 'n groot verskil tussen bindende en nie-bindende beleid. Voldoening aan die meeste inisiatiewe, insluitend NIST's, is vrywillig.

’n Kykie na maatskappye soos Clearview KI toon die belangrikheid daarvan om verantwoordelike KI-beleide wettig af te dwing eerder as om net mooi te vra. Die opstart, wat gesigsherkenningsdienste aan wetstoepassers verkoop, bemagtig hulle deur miljoene foto's geplunder van sosiale media-netwerke sonder mense se toestemming.

Nie genoeg regulering nie

Lande is verdeeld in hul benadering om hul beleide streng te reguleer. Almal staar dieselfde uitdaging voor: te min regulering, en hulle waag onvoorspelbare en onverantwoordelike gebruike van die tegnologie. Te veel, en hulle kan potensieel winsgewende KI-innoveerders dwing om weg te beweeg.

Die VSA het nog nie KI gereguleer nie. Kongres voorgestelde die Wet op Algorithmic Accountability in 2022, maar dit het gesterf sonder 'n stemming. Die FTC het belowe om sy bestaande magte te gebruik om Amerikaanse inwoners teen die gruwelike gebruik van KI te beskerm. Dit het ook 'n uitgereik gevorderde kennisgewing van voorgestelde reëlmaking wat nuwe handelsreëls kan aankondig om geoutomatiseerde besluitneming en toesigstelsels te hanteer.

Die EU is meer aggressief, stel die KI-wet, wat voorstanders hoop sal vanjaar verbygaan. Dit sal alle KI-produkte en -dienste dek, hulle klassifiseer volgens hul waargenome risikovlak en streng assesserings en data-nakomingsreëls toepas op die hoër-risiko. Oortreders sal stewige boetes opgelê word.

Die VK het geneem wat dit eufemisties noem 'n "pro-innovasie benadering“. In plaas daarvan om 'n enkele nuwe enkele KI-reguleerder aan te stel, sal dit die verantwoordelikheid vir die regulering van KI tussen bestaande reguleerders verdeel en sal hulle aanvanklik geen nuwe wetlike magte gee om dit te doen nie.

Terwyl politici die stywe koord loop tussen etiek en ekonomiese voordeel, hang die toekoms van KI in die weegskaal. Een ding is seker: dit sal onverantwoordelik wees om dit aan tegnologiemaatskappye alleen oor te laat om verantwoordelik op te tree.

SOC 2 is hier! Versterk jou sekuriteit en bou klantevertroue met ons kragtige voldoeningsoplossing vandag!