Selfs al het ons ons persoonlike data gebloei, kan ons altyd op ten minste een geheim staatmaak: As ons genoeg selfbeheersing het, kan mense nooit ons gedagtes lees nie. Wees nou voorbereid vir selfs dit om te verander.
Vir baie tegnoloë is die finale grens in die soeke na persoonlike inligting wat ons voel. Vir 'n bemarker of politikus kan die lees van ons emosies die kragtigste ding van almal wees.
Verkopers het gehaas om produkte te ontwikkel wat presies dit kan doen. Sommige stel voor om tegnologie te gebruik wat breindata gebruik ('n veld bekend as neurotegnologie). Apple het byvoorbeeld gepatenteerde breinlees AirPods. Vroeër vanjaar het navorsers by Suid-Korea se Ulsan Nasionale Instituut vir Wetenskap en Tegnologie (UNIST) 'n gesigsmasker geskep hulle beweer kan die draer se onmerkbare gesigsveranderinge analiseer om menslike emosies intyds te lees.
Sommige het nie nuwe toestelle nodig om emosies te lees nie; hulle gebruik data van ons bestaande data; so ver terug as 2018, die Amerikaanse Nasionale Instituut vir Gesondheid bevind dat slimhorlosiedata het navorsers in staat gestel om die draers se emosies met 'n ordentlike mate van akkuraatheid te bepaal. Vandag, kinderhospitaal Holland Bloorview's Holly stelsel gebruik hartdata wat van slimhorlosies en fiksheidspoorsnyers ingesamel is om kinders se emosies vas te stel, wat dit dan op 'n toepassing vir versorgers vertoon.
Emosie-skandering drabare items het 'n blink kant. Die Universiteit van Wes-Skotland se navorsingsprojek gebruik 'n mengsel van gesigsanalise en drabare toesteldata om emosies in mense op die outismespektrum te help verstaan. Voel Terapeutika bied 'n draagbare en back-end data-analise-stelsel om emosies vir mediese behandelings te ontleed, insluitend geestesgesondheidsterapie.
Sommige emosie-lees-inisiatiewe fokus op werknemerswelstand, veral in hoë-stres beroepe. Die Britse polisiemag se Oscar Kilo-program het beproef drabare toestelle om die emosionele toestand van beamptes in veral stresvolle posisies te monitor, insluitend vuurwapengebruik en ondersoeke na kinderuitbuiting.
privaatheid
Benewens hierdie positiewe gebruike, sien Nita Farahany, Robinson O. Everett Distinguished Professor of Law & Philosophy by Duke Law School, ook 'n potensiële donker kant.
"Die breindata wat hierdie toestelle sal insamel, sal nie in tradisionele laboratoriumomgewings of in kliniese navorsingstudies wat deur dokters en wetenskaplikes uitgevoer word, ingesamel word nie," het sy gesê. gesê, praat by 'n Ted-geleentheid.
“In plaas daarvan sal dit die verkopers van hierdie nuwe toestelle wees. Die einste maatskappye wat ons data al jare kommodifiseer,” het sy bygevoeg. Sy voer aan dat hierdie data meer persoonlik sal wees as die data wat ons in die verlede gedeel het, want dit verteenwoordig die deel van ons wat ons gewoonlik terughou.
Die Neurorights Foundation, 'n nie-winsgewende groep met sy oorsprong by die Columbia Universiteit, fokus op die beskerming van menseregte teen die moontlike misbruik of misbruik van neurotegnologie. In April 2024 het dit 'n verslag gepubliseer genaamd Beskerming van breindata: assessering van die privaatheidspraktyke van verbruikersneurotegnologiemaatskappye. Dit het 30 maatskappye geëvalueer wat nie-medies gesertifiseerde verbruikerstoestelle aanbied wat neurale data versamel het en gevind dat 29 "toegang blyk te hê tot die verbruiker se neurale data en geen betekenisvolle beperkings op hierdie toegang bied nie." Dit het bygevoeg dat daardie maatskappye se beleid hulle in staat gestel het om data met derde partye te deel.
Van data-analise tot afstandbeheer
Wat is die moontlikhede namate maatskappye meer bedrewe raak om emosies te lees en te registreer? Aan die alledaagse einde van die spektrum, om te verstaan wat mense opgewonde of verveel, kan take soos splittoetsing van verskillende webwerf-ontwerpe oplaai. Meer interessant is sy vermoë om te help om 'n diep persoonlike prentjie van 'n persoon se belangstellings te bou wat veel verder gaan as om na te spoor wat hulle aanlyn blaai.
Maatskappye kan dalk probeer om data te gebruik om kommersiële besluite te neem. Byvoorbeeld, 'n gesondheids- of lewensversekeringsfirma kan jou emosionele toestand oorweeg wanneer jy jou geskiktheid vir 'n polis beoordeel.
Miskien is een van die mees koue scenario's die idee van emosionele terugvoerlusse. As jy gedink het 'n maatskappy wat jou sosiale media-plasings voer op grond van waarop jy klik, was creepy, stel jou voor dat dit jou inhoud drupvoer op grond van hoe dit weet jy voel. Facebook reeds geëksperimenteer met die doelbewuste manipulering van mense se emosies via sosiale media meer as tien jaar gelede.
Hierdie emosionele lusse kan verwoestend wees. Soos tegnologie ontwikkel om meer persoonlik te lyk, word sy vermoë om emosies te beïnvloed net so kragtig soos sy vermoë om dit op te spoor. Ons het al gesien beskuldigings van generatiewe KI-produkte wat bydra tot selfmoorde.
Regsbeskerming
Sommige wette kan deur reguleerders ingeroep word om oorskryding te voorkom. Terwyl min maatskappye wat in die Neurorights Foundation-verslag ontleed is, breindata uitdruklik as persoonlike inligting erken het, het prokureurs stel dat dit vierkantig in hierdie kategorie sal val onder sommige verbruikersprivaatheidsregulasies, soos GDPR. Die EU se KI-wet reguleer ook uitdruklik die gebruik van KI-aangedrewe stelsels wat biometriese data vir emosionele herkenning gebruik, verbied dit heeltemal in sommige omgewings en kategoriseer dié wat toegelaat word as hoërisiko-stelsels met streng regulatoriese vereistes.
Die swak federale privaatheidsbeskerming in die VSA sal nie vir privaatheidsadvokate dieselfde troos bied nie, maar state is besig om op te tree. Sommige sal dalk in staat wees om emosie-lees drabare items onder bestaande verbruikers privaatheidswette aan te pak, terwyl sommige beweeg om breingebaseerde data uit te sonder. In Februarie het Colorado a wetsontwerp eksplisiete beskerming van neurale data. Kalifornië het sy eie geslaag wetsontwerp in Oktober. Nog 'n manier kan wees om emosionele data as biometries te klassifiseer.
Die werk aan draagbare emosionele opsporing gaan voort, en die mark groei vinnig. Emosionele herkenning tegnologie was $23.5 miljard werd in 2022 en sal $42.9 miljard teen 2027 bereik – 'n CAGR van 12.8% oor vyf jaar. Daar is baie geld op die spel. Omgekeerd is die wetlike en etiese werk op hierdie gebied steeds embrionies. Om neurale en emosionele data as persoonlike data te hanteer – indien nie spesiale kategoriedata met ekstra beskerming nie – is 'n slim stap op kort termyn, of reguleerders die kwessie getoets het of nie. Met iets so kragtig, hoe meer versigtig, hoe beter.










