Kunsmatige Intelligensie, genoem K.I. of Artificial Intelligence, (A.I.) is wat ’n mens ’n tydperk van beskawing kan noem.  Masjiene wat leer en die toenemende vermoë vir rekenaar algoritmes om komplekse aksies uit te voer in nabootsing van menslike intelligensie is niks nuut nie en dit het al vir ’n geruime tyd ’n impak op ons lewens – meestal op onsigbare maniere – soos dit bespreek is in ons Mei-Junie 2016-artikel naamlik “Kunsmatige Intelligensie: Belofte of Euwel?”

K.I. beheer die navigasietoepassing op u slimfoon terwyl u deur die verkeer ry en dit besluit ook watter soekresultate om aan u te bied terwyl u op Amazon inkopies doen. Nuusgebeure is die afgelope maande oorstroom met dramatiese verhale van kreatiewe K.I. – kunsmatige intelligensie stelsels wat teks, beelde, video of oudio, kan produseer wat verstommend lewensgetrou en eg lyk. Dit wil sê, K.I. is besig om die werklikheid op ’n toenemend akkurate skaal na te boots. Dit is ’n dramatiese verskuiwing.

Die resultaat kan ’n aanwins wees vir kreatiewe werkers op alle terreine – skryfkuns, beeldproduksie, video-redigering, ensovoorts. Dit hou egter ook meer onheilspellende moontlikhede in, aangesien diegene wat dit sou gebruik om mense te mislei, nou nuwe en kragtige werktuie het om die werklikheid na te boots. Hoe naby is ons daaraan om ’n samelewing te skep waarin ons nie meer enige beeld of video waarna ons kyk kan vertrou nie? Sal ons áltyd die verskil kan onderskei tussen vals of vervaardigde beelde en klanke en die werklikheid, of staan ons voor ’n potensiële inligtings-apokalips, soos een navorser dit genoem het?

K.I. se vermoë om die werklikheid na te boots lyk asof dit versnel – op ’n wyse wat vir sommige mense laat glo dat ons op die punt staan van een van die grootste tegnologiese revolusies in die geskiedenis. Wat hierdie maand die modernste tegnieke en tegnologie is, mag binne ’n paar maande dramaties oorskadu word, aangesien K.I.-stelsels en benaderings leer om die werklike lewe op verskeie gebiede na te boots.

 

Beelde

Verskeie maatskappye bied K.I.-aangedrewe modelle aan – soos Midjourney, Stable Diffusion en OpenAI se DALL•E 2 – wat beelde kan genereer, wat smaakvol sowel as realisties lyk – asof dit deur mense geskep is, maar slegs gebaseer is op ’n tekstuele beskrywing. Indien ’n gebruiker byvoorbeeld ’n beeld wil hê van ’n eenhoring wat deur die ruimte op ’n reënboog verby die planeet Saturnus galop, dan tik hy eenvoudig daardie presiese beskrywing in. Die K.I. genereer dikwels veelvuldige beelde, wat die gebruiker dan kan kies óf kan gebruik óf verbeter met bykomende verwerking. Vir elke versoek word ’n nuwe, unieke beeld geskep.

Die verrassendste is dalk die realistiese beelde. Die generatiewe stelsels kan baie spesifieke insette neem, wat die voorkoms van ’n spesifieke kamera, lens en blootstellingsvlak naboots, gewenste emosies op die gesigte van mense wat uitgebeeld word produseer en watter agtergrond ook al oordra wat die beeld bedoel is om voor te stel. Die resultate kan uiters oortuigend wees, asof die beelde egte foto’s is wat geneem is van regte mense in regte omgewings en dit te gebruik om baie mense suksesvol te mislei.

Deesdae kan ’n mens dikwels agterkom dat ’n beeld deur ’n masjien gegenereer, soos kenmerke wat – by nadere ondersoek – gesien word as foutief – byvoorbeeld pupille van die oog wat nie ooreenstem nie of ’n hand met ’n ekstra vinger. Dit lyk egter of die beeldskeppers en hulle menslike gebruikers vinnig leer hoe om hulle resultate te verbeter en hulle foute uit te skakel.

 

Gesigte

Gedurende 2020 het The New York Times ’n interaktiewe artikel op sy webwerf gepubliseer met die titel Designed to Deceive: Do These People Look Real to You? Deur gebruik te maak van sy eie opdrag kan K.I. maklik heeltemal vals, maar heeltemal geloofwaardige menslike gesigte genereer. Die Times se webwerf het gebruikers toegelaat om beelde van individuele gesigte te manipuleer om hulle ouderdom, geslag, ras en etnisiteit asook emosionele uitdrukking te verander. Nie een van die gesigte het werklike mense verteenwoordig nie en elke een was deur ’n rekenaar geskep – tog was hulle verstommend geloofwaardig. Alhoewel ’n paar klein foutjies dikwels voorgekom het – byvoorbeeld oorvorms wat nie ooreenstem nie of ’n onsimmetriese bril – sou ’n onoplettende kyker dit nie raaksien nie.

Waarskynlik is die gevaarlikste gebruik van K.I.-gegenereerde gesigte die vermoë om werklike mense se gesigte in video’s en rolprente te verander, om dit met ongelooflike akkuraatheid in die gesigte van ander mense te omskep. Algemeen genoem diepvervalsings, het die tegnologie die jeugdige gesigte van bejaarde akteurs by rolprente gevoeg om jonger weergawes van hulle karakters uit te beeld en die gesigte van reeds afgestorwe akteurs te verruil vir die gesigte van plaasvervangers. Die Londense maatskappy Flawless het sy gesigmanipulasie K.I. gebruik om ’n rolprent se vulgariteite en vloekwoorde te vervang om ’n gradering te verkry wat ’n wyer gehoor sou trek. In elke vervanging lyk dit asof die aktrise werklik die behoorliker woord sê in plaas van die oorspronklike vulgêre weergawe.

 

Stemme

Navorsers en mediaskeppers is besig om K.I te gebruik om merkwaardige realistiese klank te genereer van individue wat dinge sê wat hulle nooit werklik gesê het nie. Nadat na ’n individu se stem geluister is vir byvoorbeeld 30 minute lank, is die rekenaar in staat om enige geskrewe teks te gebruik en klank te skep wat klink asof die individu sélf praat en die teks hardop lees.

Dit word stem-kloning of oudio diepvervalsing genoem deur baie mense en die resultate gaan voort om in kwaliteit toe te neem. Op Presidentsdag van 2023 in die Verenigde State het die digitale ontwerper Linus Ekenstam K.I. werktuie vir teksgenerering en stem-kloning gebruik om ’n podcast-onderhoud met Ronald Reagan na te boots, waarin Ekenstam die afgestorwe president uitgevra het oor sy menings wat betref tegnologie, die staat van die V.S., oudpresident Donald Trump. Anders as die staaltjie wat die K.I.-gegenereerde Reagan aangebied het oor sy ontvoering deur vreemdelinge uit die buitenste ruim, was die onderhoud relatief geloofwaardig en die stem het werklik soos Reagan s’n geklink, hoewel minder lewendig en opgewek as wat ’n mens sou verwag indien die oorlede president in persoon ondervra is.

In ’n prominente, hoë-profiel gebruik van tegnologie, het die vermaaklikheid se krag- huis Disney K.I. gebruik om die ikoniese stem van James Earl Jones na te boots – met die akteur se toestemming – vir Darth Vader se gesproke reëls in sy Obi-Wan Kenobi stroming TV-reeks. Die tegnologie verbeter toenemend. In Januarie 2023 het ’n vooraf gedrukte Cornell Universiteit se vraestel oor ’n berekening en taal ’n K.I. stemvervaardigde stelsel gedemonstreer wat in staat was om ’n persoon se stem wesenlik en realisties te reproduseer, na opleiding op proefpersone van drie sekondes lank. Die model laat gebruikers selfs toe om die stem se inherente emosionele kwaliteit te verander.

 

Gesprekke

ChatGPT, ’n taalverwerkingswerktuig wat mensgeskrewe teks en gesprekke naboots, het onlangs wye aandag ontlok met die huidige vlak van K.I. gesofistikeerdheid. Aangedryf deur die groot GPT-3-taalmodel en aan die publiek beskikbaar gestel deur sy skeppers, OpenAI, was ChatGPT die eerste ervaring wat baie leke gehad het met K.I. se vermoë om menslike reaksies na te boots.

ChatGPT kan ’n teksgesprek voortsit of ingewikkelde konsepte in eenvoudige terme verduidelik en oorspronklike inhoud produseer wat lyk of dit deur ’n mens geskep is, selfs wanneer die belaglikste scenario’s aangebied word. Wanneer gevra is om oorspronklike poësie, ’n liedjie se lirieke of selfs draaiboeke oor enige onderwerp denkbaar na te boots of om denkbeeldige transkripsies van gesprekke tussen bekende individue wat nog nooit ontmoet het nie te skep of bloot om ’n bekende skrywer se skryfstyl na te boots en ChatGPT sal aan die versoek voldoen met verbasend menslike resultate.

ChatGPT het egter deesdae tekortkominge. OpenAI het erken dat daar vooroordeel in die politieke en ideologiese neigings van die ontsaglike inhoud wat ChatGPT beoefen het, is. Navorsers en toetsgebruikers het kennis geneem van die geneigdheid van ChatGPT en ander soortgelyke K.I. chatbots om te hallusineer terwyl gesprekke vir lang tye voortduur, wat beteken dat die K.I. begin om feite weer te gee wat duidelik onakkuraat is. Dit is veral waar wanneer die menslike kommunikasie met die K.I. doelbewus werk om die algoritme te verskuif na gebiede waarvoor dit nie ontwerp is nie. Navorsers werk nogtans voortdurend daaraan om hulle K.I. stelsels te leer om sulke slaggate te vermy en om menslike interaksie al hoe meer suksesvol na te boots.

 

Kragtige werktuie in gevaarlike hande

Namate kunsmatig intelligente werktuie al hoe kragtiger word in die vermoë om verskeie fasette van die werklike wêreld na te boots – beelde, video, stem, teks – neem die vermoë van individue, korporasies en regerings toe om daardie werktuie te gebruik om ander mense te mislei. Dit is trouens besig om te gebeur en dit gebeur alreeds vir ’n geruime tyd.

Gedurende 2019 het die Associated Press berig dat ’n LinkedIn-gebruiker met die naam Katie Jones ’n vervalste rekening was wat waarskynlik vir spioenasie gebruik is. Die nie-bestaande Katie Jones het ’n K.I.-gegenereerde gesig gebruik vir die rekeningprofiel en het konneksies ontwikkel met baie individue, betrokke by Amerikaanse politiek en beleidvorming. Die Associated Press het die destydse direkteur van die Amerikaanse nasionale teenintelligensie- en sekuriteitsentrum, William Evanina, aangehaal wat gesê het dat China sulke rekenings met valse profiele gebruik om grootskaalse spioenasie op die V.S. uit te voer.

Baie Facebook-gebruikers het eienaardige teksboodskappe ontvang wat oënskynlik gestuur is deur ’n vriend wat in die moeilikheid is en wat dringend finansiële hulp benodig. Oplettende lesers sien sulke slenters vinnig raak – dalk weens die gebrek aan persoonlike besonderhede of die onpersoonlike trant van die boodskap. Teksgegenereerde sagteware kan binnekort mense se sosiale media-plasings naspoor en hulle styl met merkwaardige en bedrieglike akkuraatheid naboots – selfs om te reageer op vrae met die stem van die veronderstelde identiteit, met antwoorde wat persoonlike besonderhede insluit.

Gedurende 2019 was K.I. die stukrag agter ’n hoë tegnologiese (high-tech) korporatiewe telefoon bedrogspul. The Wall Street Journal het op 30 Augustus daardie jaar berig oor die saak van ’n naamlose V.K. firma wat uit €220,000 (VS$243,000) bedrieg is deur swendelaars wat K.I. gebruik het om die stem van die hoof uitvoerende beampte van die firma se Duitse moedermaatskappy na te boots. Soortgelyke tegnologie het sedertdien baie gevorder.

Hoeveel meer suksesvol sal sulke swendelary wees wanneer die K.I. swendelaar in staat is om met slagoffers te kommunikeer en elke verifikasie te slaag? Deur mnr. Evanina [Direkteur van V.S. kontra-spioenasie] se grootskaalse spioenasie is bevind dat toepassings en programme soortgelyke massa-swendelary moontlik maak, aangesien ’n enkele swendelaar daartoe in staat is om honderde of selfs duisende programme op een slag in werking te stel.

Namate die bestaan van K.I. sagteware al hoe meer algemeen raak neem eise van diepvervalsing toe wanneer nuwe video’s of ander beelde na vore kom. In baie gevalle blyk sulke bewerings waar te wees. Namate die vermoë van K.I. om die werklikheid na te boots steeds verbeter, sal daardie bewerings al hoe moeiliker word om te bewys.

 

Kunsmatige verhoudings

Sommige gevare is meer subtiel. In Julie 2021 het die San Francisco Chronicle opslae gemaak met sy artikel The Jessica Simulation: Love and Loss in the Age of A.I. Die verslaggewer Jason Fagone het beskryf hoe ’n jong man Project December, ’n GPT-3-gebaseerde toepassing wat deur die speletjie-ontwerper Jason Rohrer gebou is, om teksboodskappe van sy oorlede meisie op te laai sodat die chatbot [instant messaging] haar in gesprek kan naboots, asof hy gereeld met die oorledene praat. Die voorbeeld het mnr. Rohrer geïnspireer om op Project December te fokus as ’n manier om – in die woorde van sy byskrif – die dooie na te boots. Dit het blykbaar daartoe gelei dat OpenAI veiligheidsmaatreëls van mnr. Rohrer vereis het wat hy nie bereid was om toe te pas nie, wat hom genoodsaak het om die projek te beëindig.

Die moontlikheid om die dooies weer te laat herleef lyk tog nie so onaanvaarbaar vir die megakorporasie, Amazon nie. Op sy Junie 2022 K.I. tegnologie-konferensie, het Amazon ’n video vertoon wat ’n kind uitbeeld wat aan sy Alexa-toestel vra: Alexa, kan ouma vir my The Wizard of Oz klaar lees? Die toestel antwoord, OK en gaan dan voort om die boek in die stem van die kind se oorlede ouma te lees.

Terwyl die idee van mense wat interaksie het met nabootsings van hulle afgestorwe geliefdes sommige mense kan opbeur, behoort ons onsself af te vra: Is dit ’n gesonde praktyk? Voor die video vertoon is, het Amazon se senior vise-president en hoofwetenskaplike vir Alexa gesê dat hierdie ontwikkelings blywende persoonlike verhoudings moontlik maak. Dit maak egter nie saak hoeveel interaksies of gesprekke ’n mens mag hê met ’n K.I. toestel wat ’n menslike wese naboots – maak ook nie saak hoe intens of innig of roerend dit mag wees nie – ’n mens is nie in ’n verhouding met ’n dooie nie. ’n Leuen word geleef! Dit is moeilik om die moontlikheid vas te stel of sulke fantasieë op die lange duur veel meer skade as goed sal doen

 

Kragtige werktuie vir die vader van leuens

Waarheen dit alles op pad is en boonop baie vinnig ook kan gebeur – behoort duidelik te wees vir enigiemand wat die identiteit van die god van hierdie wêreld verstaan (2 Korinthiërs 4:4). Satan, die duiwel, heers steeds oor die mensdom, waarin die gees van ontvang baie kragtiger bly as die gees van gee. Jesus Christus noem hom die vader van leuens en in hierdie wêreld wat die duiwel se karakter op elke vlak weerspieël, is misleiding lank reeds een van die gewildste werktuie vir fisiese mense wat wil steel, vernietig en manipuleer. K.I. ontwikkel vermoëns wat daardie werktuig versterk.

Hoeveel chaos kan geskep word in ’n wêreld waar dit lyk of die werklikheid self hervorm kan word in diens van valsheid?

Valse beskuldigings is lank reeds deel van wêreldpolitiek. Stel u nou die vermoë voor om vals maar heeltemal geloofwaardige bewyse te skep om daardie beskuldigings te ondersteun. Stel u voor dat iemand byvoorbeeld stem-kloningstegnologie gebruik om die stem te herskep van ’n politikus wat per ongeluk op ’n mikrofoon betrap word terwyl hy sy ondersteuners beledig of erken dat hy ’n misdaad gepleeg het. In verkiesings waar skommeling van slegs ’n paar persentasiepunte genoeg is om die uitslag te bepaal, hoef sulke video’s nie almal te oortuig nie – dit is nodig om net genoeg mense te oortuig om ’n verskil te maak.

Soortgelyke manipulasies kan gedoen word om ’n impak op geopolitiek te maak. Stel uself voor dat vals beeldmateriaal van ’n diplomaat in ‘n sleutelposisie wat ekonomiese sanksies of selfs militêre optrede teen ’n ander nasie bespreek, vertoon word. Watter soort reaksies kan uitgelok word deur diegene wat nasionale agendas wil manipuleer?

’n Vervalste opname van ’n wetenskaplike wat erken dat mediese eksperimente vervals is, kan die publiek se vertroue in die resultate vernietig. ’n Vals opname van ’n premier om kiesers om die bos te lei wat in die geheim ooreenkomste verbreek wat hy met ander wetgewers aangegaan het, kan net genoeg twyfel saai om ’n beslissende stem in ’n verkiesing te verander.

Individue wat uitgebeeld word, kan natuurlik uitroep: Totaal vals! Stem-kloning! K.I. vervalsing! – soos hulle na regte behoort te doen indien hulle die slagoffers van rekenaargegenereerde regsverdraaiing is. Werklik skuldige partye sal ook sulke bewerings begin maak. Namate gevalle van K.I.-aangedrewe misleiding al hoe meer verwag word – selfs algemeen – sal werklike oortreders wat in byvoorbeeld video- of oudio-opnames gevang is, die voordeel aangryp om te beweer dat hulle ook slagoffers is van digitale leuens en ingewikkelde hoë tegnologiese (high-tech) skelmstreke, selfs wanneer dit nie so is nie.

Hoe sal die meeste mense kan onderskei?

 

Menslike geneigdheid tot selfbedrog

Namate K.I. toeneem in sy vermoë om die werklike lewe na te boots, kan ons natuurlik ’n parallelle groei in K.I.-gebaseerde werktuie verwag wat ons sal help om tussen die vervalste en die ware Jakob te onderskei – K.I. toepassings wat K.I. vervalsing kan uitken. Hoërskoolonderwysers regoor die wêreld vrees dat studente hulle tuiswerk opdragte wat deur K.I. chatbots gedoen is, sal inhandig. OpenAI het al begin met die ontwikkeling van ’n K.I. klassifiseerder wat sal help om ’n teks te identifiseer wat deur ’n mens- of K.I.-geskep is.

Die maatskappy erken nogtans dat (van 31 Januarie 2023 af) die werktuie nie ten volle betroubaar is nie. Volgens die maatskappy se webwerf identifiseer die werktuie 26% van KI-geskrewe teks (werklik positief) korrek as ‘waarskynlik K.I.-geskrewe’, terwyl mens-geskrewe teks 9% van die tyd verkeerdelik as K.I.-geskrewe bestempel word (vals-positief). Dit is nie juis ’n bemoedigende resultaat nie, alhoewel daar gehoop word dat verbetering sal volg na mate meer terugvoer ontvang word.

Die grootste swakheid wat ons ervaar in die stryd teen K.I. gedrewe misleiding is nie soseer in die krag van die tegnologie nie, maar in ons eie menslike natuur. Volgens die Skrif is die mees misleidende krag in elkeen van ons se lewens nie uitwendig nie, maar innerlik – ons eie harte (Jeremia 17:9). God verklaar dat die hart bo alle dinge bedrieglik is en waarlik slegs met Sy hulp verstaanbaar is (vers 10). Ons eie natuur is meer as in staat om enige pogings om waarheid van leuens te onderskei, teen te werk en druk op ons uit te voer en ons aan te spoor om gemaklike valshede bo ongemaklike waarhede te aanvaar.

Indien ’n video sy weg sou vind tot by die sosiale media wat ’n politikus uitbeeld wat daardie kiesers wat nie van hom hou nie verwag dat hy sou doen, hoe gereed sou hulle wees om te aanvaar dat dit waar is – met geen verdere bewyse benodig nie? Indien ’n klankgreep van ’n kongreslid of president op die nuus gedeel word wat dit laat lyk asof hy skuldig is aan presies wat sy teenstanders hom van beskuldig, hoe vinnig sou diegene wat teen hom gestem het dit glo?

Baie van ons leef reeds in ’n self-geskepte digitale media-borrel. Baie mense het trouens die grootste faktor in hulle eie selfbedrog geword. God profeteer dat, in die laaste dae van die beskawing, dit so sal wees.

God beskryf diegene wat in die eindtyd leef en sê: “Want dit is ’n wederstrewige volk, leuenagtige kinders, kinders wat die wet van die Here nie wil hoor nie” (Jesaja 30:9). Hy gaan voort en betreur dat hulle aan die sieners sê: “Sien nie! en aan die profete: Profeteer vir ons nie wat reg is nie; spreek vleitaal vir ons, profeteer bedrieëry” (vers 10).

Natuurlik skree amper niemand letterlik, “Lieg vir my!” nie. Die harte van mense gedurende die jare wat tot Jesus Christus se Wederkoms lei, sal net dít wil hê. Hulle sal al hoe minder belangstel om die waarheid te hoor en al hoe meer belangstel om bedrieg te word wat bevestig wat hulle reeds glo, waar is. Sulke mense is gereed om mislei te word en vra letterlik daarvoor.

God sê vir ons huidige geslag in die woorde wat deur die profeet Jeremia opgeteken is: “’n Ontsettende en afskuwelike ding het in die land gebeur: die profete profeteer vals, en aan hulle sy oefen die priesters mag uit, en my volk wil dit graag so hê” (Jeremia 5:30-31).

 

Vestig uself in die waarheid

Onmiddellik daarna vertel Jeremia vir ons dat God ’n vraag vra: “Maar wat sal julle doen aan die einde daarvan?” (vers 31).

Wat sal u doen?

Min van ons het die tyd en hulpbronne om kunsmatige intelligensie-kundiges te word. Ongeag of ’n vlaag van K.I.-gedrewe misleiding op pad is, ons wêreld is op pad na ’n tyd van ongekende misleiding en valsheid. Die Bybel waarsku ons dat bedrieërs baie in getal is, met meer wat kom (1 Johannes 2:18; Matthéüs 24:24) en die apostel Johannes teken die geïnspireerde beskuldiging aan dat die hele wêreld onder die misleiding van Satan verkeer (Openbaring 12:9).

Wanneer daar sekerlik ’n stormwind van misleiding kom, is die belangrikste besluit wat ons kan neem is om onsself te vestig in daardie dinge wat waar en betroubaar is – altyd en in alle omstandighede – ewige waarhede, onaantasbaar vir nabootsende illusies van die waarheid.

Daardie waarhede word gevind in Jesus Christus, die Seun van God en Sy Vader. God se Woord is waarheid (Johannes 17:17) en behalwe blote waarheid, is die Woorde van Christus gees en lewe (Johannes 6:63).

Indien u u verstand wil beskerm teen die aanslag van toekomstige misleiding soos wat geprofeteer is – of dit nou leuens van die tradisionele verskeidenheid of leuens van die K.I. tipe is – om dan u hart voor te berei om alle dwalings en selfbedrog te verwerp, gekoester of nie en om die verstand van u Skepper na te streef, is die wysste eerste stap wat u kan neem, want Hy is “Die Rots – volkome is sy werk; want al sy weë is strafgerigte; ’n God van trou en sonder onreg; regverdig en reg is Hy” (Deuteronómium 32:4).