Hulumtuesit në Universitetin e Stanfordit testuan së fundmi disa nga mjetet më të njohura të inteligjencës artificiale (IA) në treg, nga kompani si OpenAI dhe Character.ai, dhe se si ato performuan në një simulim terapie.
Hulumtuesit zbuluan se kur imitonin dikë që kishte tentativa vetëvrasëse, këto mjete ishin më shumë se të padobishme. Ata as nuk e vunë re se në të vërtetë po e ndihmonin personin të planifikonte vdekjen e vet.
“Sistemet e inteligjencës artificiale po përdoren si shoqërues, partnerë të të menduarit, njerëz të besuar, trajnerë dhe terapistë“, thotë Nicholas Haber, një profesor asistent në Stanford dhe autor kryesor i studimit të ri. “Po ndodh në një shkallë masive”.
Inteligjenca artificiale po bëhet gjithnjë e më e integruar në jetën e njerëzve dhe po aplikohet në një gamë të gjerë kërkimesh shkencore, nga trajtimi i kancerit deri te ndryshimet klimatike. Ekziston gjithashtu debat se kjo mund të shënojë fundin e njerëzimit.
Ndërsa kjo teknologji vazhdon të përvetësohet për qëllime të ndryshme, një pyetje e madhe që mbetet është se si do të fillojë të ndikojë në mendjen njerëzore. Njerëzit që “komunikojnë” rregullisht me inteligjencën artificiale janë një fenomen kaq i ri sa shkencëtarët nuk kanë pasur kohë të studiojnë se si mund të ndikojë në psikologjinë njerëzore. Megjithatë, ekspertët e psikologjisë kanë shumë shqetësime në lidhje me ndikimin e saj të mundshëm.
Paragjykimi përdorues-me-përdorues
Një shembull shqetësues se si po zhvillohet kjo mund të shihet në rrjetin social të njohur Reddit.
Sipas 404 Media, disa përdorues u ndaluan së fundmi nga një subreddit i fokusuar në IA sepse filluan të besonin se ishte hyjnore ose se po i bënte ata hyjnorë.
“Kjo është si dikush me probleme të funksionimit njohës ose tendenca delirante të shoqëruara me maninë ose skizofreninë që komunikon me modele të mëdha gjuhësore (GLM)”, thotë Johannes Eichstaedt, një profesor asistent i psikologjisë në Universitetin Stanford.
“Me skizofreninë, njerëzit mund të bëjnë deklarata absurde për botën, dhe këto GLM janë paksa shumë ‘tërheqëse’. Keni një ndërveprim konfirmues midis psikopatologjisë dhe GLM-ve.”
Meqenëse zhvilluesit e këtyre mjeteve të IA duan që njerëzit të kënaqen duke i përdorur ato dhe të vazhdojnë t’i përdorin, ato janë programuar në një mënyrë që i bën ata të prirur për t’u pajtuar me përdoruesin. Ndërsa këto mjete mund të korrigjojnë disa gabime faktike që përdoruesi mund të bëjë, ato përpiqen të paraqiten si miqësorë dhe afirmativë. Kjo mund të jetë problematike nëse personi që përdor mjetin zhytet në një “rrugë pa krye”.
“Mund të përforcojë mendime që nuk janë të vërteta ose nuk bazohen në realitet,” thotë Regan Gurung, një psikologe sociale në Universitetin Shtetëror të Oregonit.
“Problemi me IA-në – këto modele të mëdha gjuhësore që pasqyrojnë të folurit njerëzor – është se ato ndjekin. Ato u japin njerëzve atë që programi mendon se duhet të ndjekë. Këtu bëhet problematike.”
Ashtu si me mediat sociale, IA mund t’i përkeqësojë gjërat për njerëzit që vuajnë nga probleme të zakonshme të shëndetit mendor si ankthi ose depresioni. Kjo mund të bëhet edhe më e dukshme ndërsa IA vazhdon të integrohet në aspekte të ndryshme të jetës sonë.
“Nëse jeni duke bashkëvepruar me probleme të shëndetit mendor, mund të zbuloni se këto probleme në të vërtetë po përkeqësohen,” thotë Stephen Aguilar, një profesor i asociuar në Universitetin e Kalifornisë Jugore.
Nevojiten më shumë kërkime
Ekziston gjithashtu pyetja se si IA mund të ndikojë në të nxënë ose kujtesë. Një student që përdor IA për të shkruar çdo punim shkollor nuk do të mësojë aq mirë sa dikush që nuk e bën. Por edhe përdorimi i lehtë i IA mund të dëmtojë kujtesën për disa informacione, dhe përdorimi i saj për aktivitete të përditshme mund të zvogëlojë ndërgjegjësimin e njerëzve për atë që po bëjnë në këtë moment.
“Ajo që po shohim është se ekziston një potencial që njerëzit të bëhen dembelë njohësisht,” thotë Aguilar. “Nëse bëni një pyetje dhe merrni një përgjigje, hapi juaj tjetër duhet të jetë të vini në dyshim atë përgjigje, por ai hap shtesë shpesh nuk ndërmerret. Ekziston atrofi e të menduarit kritik.”
Shumë njerëz përdorin Google Maps për të lundruar në qytetin e tyre. Shumë prej tyre kanë zbuluar se i bën ata më pak të vetëdijshëm për vendin ku po shkojnë ose si të arrijnë atje sesa kur duhej të ndiqnin me kujdes rrugën e tyre. Probleme të ngjashme mund të lindin tek njerëzit që përdorin IA kaq shpesh.
Ekspertët që studiojnë këto efekte thonë se nevojiten më shumë kërkime për të adresuar këto çështje. Eichstaedt tha se psikologët duhet të fillojnë të bëjnë këtë lloj kërkimi tani, përpara se IA të fillojë të shkaktojë dëme në mënyra të papritura, në mënyrë që njerëzit të mund të përgatiten dhe të përpiqen të zgjidhin çdo problem që lind. Njerëzit gjithashtu duhet të edukohen rreth asaj që IA mund të bëjë mirë dhe çfarë jo.
“Ne kemi nevojë për më shumë kërkime,” thotë Aguilar. “Dhe të gjithë duhet të kenë një kuptim se çfarë janë modelet e gjuhës së madhe.”