
The Power of the Deepfake: verkeerde inligting in die Britse verkiesing
INHOUDSOPGAWE:
Kunsmatige intelligensie (KI)-aangedrewe diepvals tegnologie is nie 'n nuwe verskynsel nie. Die term 'deepfake' word sedert so ver terug as 2017 gebruik om sintetiese media te beskryf, en baie voorbeelde van deepfake is wyd gepubliseer. Virale voorbeelde sluit in 'n KI-gegenereerde video van Mark Zuckerberg wat praat oor die onheilspellende krag van Facebook, 'n TikTok-rekening wat toegewy is aan die deel van vervalste video's van die akteur Keanu Reeves, en selfs 'n video van die Amerikaanse Huisspreker, Nancy Pelosi, wat gedokter is om haar dronk te laat lyk.
Deepfake-tegnologie vorder steeds vinnig, en dit is ingewikkelder as ooit om te sê wat werklik is en nie. Met die Britse algemene verkiesing aan die gang, het diepvals die manier waarop kiesers politieke kandidate sien, gevorm – en selfs 'n impak gehad op hoe hulle stem?
Deepfakes in die Britse algemene verkiesing
Verlede maand is 'n gedokterde video van die Arbeidersparty-politikus Wes Streeting op X (voorheen Twitter) vrygestel, wat na bewering wys dat hy sy mede-arbeidslid Diane Abbott 'n "domme vrou" noem. Die BBC berig dat die video en baie van die opmerkings in reaksie op X afkomstig is van 'n netwerk van rekeninge wat snitte van politici skep en deel en dan misleidende opmerkings plaas om die indruk te versterk dat hulle werklik is.
Is die netwerk daarop gemik om die geteikende politici te ondermyn en te diskrediteer, hetsy vir politieke doeleindes of bloot vir vermaak? Die BBC-verslag het bevind dat dieselfde rekeninge diep valse snitte van Luke Akehurst van Labour sowel as Reform UK se Nigel Farage geplaas het, wat oor die VK se politieke spektrum strek. In 'n onverwante gebeurtenis het satiriese diep valse video's van die Britse premier Rishi Sunak ook onlangs virale gegaan nadat hy nasionale diensvoorstelle aangekondig het.
Die impak van KI is ook nie beperk tot sosiale media nie: daar is selfs 'n KI Onafhanklike kandidaat genaamd AI Steve, 'n avatar van die werklike sakeman Steven Endacott.
'n Studie deur YouGov gevind dat 43% van die Britte hul nuus tydens die algemene verkiesing van sosiale media af kry, net tweede na televisie (58%). In totaal kry 77% hul nuus aanlyn. Dus, terwyl baie toepassings van diepvals tegnologie skadeloos en vermaaklik kan wees, kan die gevolge van video's soos die Wes Streeting-snit polities skadelik wees. Soos Britte hul stemme uitbring, sal diepvals vir sommige waarskynlik hul stemkeuses beïnvloed.
GenAI gaan voort om besighede ook te beïnvloed
Bedreigingsakteurs gaan ook voort om besighede en hul kliënte te teiken. Verlede week het die Australiese nuuskanaal 7News gevind dat sy YouTube deur bedreigingakteurs gekap is, wat dit gebruik het om 'n KI-gegenereerde video van Elon Musk wat 'n kripto-geldeenheid-bedrogspul voorhou, regstreeks te stroom. Die Sydney Morning Herald berig dat die deepfake kykers aangemoedig het om 'n Tesla-handelsmerk QR-kode te skandeer en geld in die kripto-geldeenheidskema te deponeer om "hul kripto-bates te verdubbel".
Die hack wys dat bedreigingsakteurs al hoe meer vaardig word in hul benadering om besighede in die gedrang te bring om toegang tot kritieke data en kliënte te verkry. Die 7News YouTube-kanaal het meer as 'n miljoen intekenare, wat die swendelaars agter die aanval in staat stel om 7News se beduidende gehoor te bereik: CryptoNews berig dat die regstreekse stroom deur ongeveer 60,000 45,000 kykers gekyk is, en nog 'n gelyktydige stroom is deur ongeveer XNUMX XNUMX mense gekyk.
Deepfakes laat ook bedreigingsakteurs toe om sake-e-pos-kompromie-aanvalle (BEC)-stylaanvalle op organisasies uit te voer deur KI-gegenereerde oudio, beelde en video te gebruik om senior personeellede voor te doen. In April het LastPass gedeel dat a Die dreigende akteur het Karim Toubba, uitvoerende hoof, nageboots deur WhatsApp te gebruik, om oproepe, SMS'e en stemboodskappe aan 'n werknemer te stuur met 'n oudio-deepfake. In hierdie geval het die werknemer die voorval aangemeld en die dreigement is deur LastPass versag. Tog is daar baie onlangse voorvalle waarin hierdie manier van aanval suksesvol was, wat tot finansiële verlies gelei het.
Vooruitgang in KI-tegnologie lei tot verhoogde kuberbedreigings
KI word 'n toenemend toeganklike tegnologie vir bedreigingsakteurs, wat lei tot 'n toename in aanvalle op individue en besighede. Ons Staat van inligtingsekuriteitsverslag het meer as 1,500 30 inligtingsekuriteitspersoneel ondervra en gevind dat byna 'n derde (12%) van maatskappye 'n diep valse aanval in die afgelope XNUMX maande ervaar het.
Die meerderheid respondente (76%) het egter ook saamgestem dat KI en masjienleer (ML)-tegnologie inligtingsekuriteit verbeter, wat nuwe maniere bied om sekuriteitsmaatreëls te outomatiseer, te ontleed en te verbeter. 62% verwag om hul besteding aan KI- en ML-sekuriteitstoepassings in die komende 12 maande te verhoog.
Met KI-aangedrewe tegnologie wat besighede beide uitdagings en ongelooflike geleenthede bied, hoe kan ons vervalste voorvalle aanspreek en voorkom?
Verminder die risiko van Deepfake-voorvalle
Vir besighede sal werknemersopleiding en -bewustheid noodsaaklik wees om die risiko van vervalste voorvalle te verminder. Standaarde soos ISO 27001, die internasionale inligtingsekuriteitstandaard, verskaf 'n raamwerk vir die bou, instandhouding en voortdurende verbetering van 'n inligtingsekuriteitbestuurstelsel (ISMS). Dit sluit die implementering van 'n inligtingsekuriteitsbeleid in, wat u werknemers sal lei om 'n vermeende voorval, soos 'n BEC-aanval, per e-pos of in die vorm van 'n diepvals aan te meld.
In die Britse algemene verkiesing moet die algemene publiek waaksaam wees wanneer hulle oorweeg of video's en oudiobrokkies wat op sosiale media-platforms geplaas is, werklik of gemanipuleer is. Verskeie visuele en gehoor leidrade kan help om 'n diep vals te identifiseer.
Visuele leidrade sluit in:
- Onnatuurlike oogbeweging (of 'n gebrek aan oogbeweging)
- Inkonsekwente gesigsuitdrukkings
- Onsamehangende of rukkerige liggaamsbewegings
- Tande wat nie eg lyk nie of 'n afwesigheid van buitelyne van individuele tande
- Vervaagde of verkeerde beeldmateriaal.
Gehoorleidrade sluit in:
- Robotiese geluide
- Oudiofoute
- Inkonsekwente oudio
- Vreemde uitsprake van woorde
- Lipsinkroniseringsfoute met verskille tussen woorde wat gepraat word en lipbewegings.
Bekamping van die invloed van sintetiese media
Dit sal moeilik wees om die impak van KI-gegenereerde deepfakes op die Britse algemene verkiesing te meet. Met 43% van die Britte wat hul nuus van sosiale media af kry, sal baie kiesers waarskynlik 'n vorm van sintetiese media gesien het wat met 'n politieke party verband hou – of hulle daarvan bewus is of nie.
Gebruikers op X identifiseer egter gereeld potensiële diepvals en waarsku ander gebruikers deur die gemeenskapsnotas-funksie. Die X-platform self het nou 'n gemanipuleerde mediabeleid wat bepaal dat 'jy nie sintetiese, gemanipuleerde of buite-konteks media mag deel wat mense kan mislei of verwar en tot skade kan lei nie'. Die rekening wat oorspronklik die Wes Streeting-gemanipuleerde video geplaas het, is nou opgeskort, maar die impak daarvan moet nog gesien word.
Met vervalste voorvalle aan die toeneem, moet ondernemings ook oorweeg hoe hul sekuriteitsposisie verbeter kan word. Die ontwikkeling van 'n robuuste ISMS wat in lyn is met die ISO 27001:2022-standaard help organisasies om hul verdediging teen kuberbedreigings te versterk, die risiko van suksesvolle aanvalle te verminder en te verseker dat werknemers bewus is van hul inligtingsekuriteitsrolle en -verantwoordelikhede.