Upotreba umjetne inteligencije, vještačke inteligencije, već kako ko više voli, odnosno, kako se sada najčešće označava – prosto kao AI, mijenja naš mozak. U smislu da mijenja kako mozak radi, kako pamti i koji su mu kapaciteti.  Često koristimo analogiju kako smo prestali pamtiti brojeve telefona otkako imamo pametne telefone, ali nekako ta analogija gubi smisao sa generacijama koje su rođene u digitalnom okruženju i koje nikad nisu imale potrebu pamtiti brojeve telefona…

Ok, ne moramo pamtiti brojeve telefona. Ali nam nova tehnologija nije oslobodila mozak da bude korisniji i da budemo više ljudi, da pamtimo priče, učimo. Da učimo iz priča. Dovelo nas je do toga da ne znamo pričati priče, da nam je teško čitati tekstove duže od 300 riječi.

S AI stvari postaju gore – ljudi pitaju umjetnu inteligenciju da im isplanira put, trening, da im bude konsultant, ljubavnik, psihoterapeut, lajfkouč, sve kako bismo uštedjeli vrijeme. Ali to vrijeme koje smo trošili da sami nešto isplaniramo, smislimo, imalo je svoje mjesto u mozgu, pa i u duši. Proces donošenja odluka je kognitivna djelatnost koja zahtijeva određenu metodologiju, čak i onda kada je nismo svjesni. Prikupljanje informacija, balansiranje želja i mogućnosti, utvrđivanje ciljeva, biranje puta djelovanja, stavljanje prioriteta, i sve to treba još rovući kroz neki filter sopstvenih i društvenih moralnih vrijednosti – šta je dobro, a šta ne, šta je pošteno.

Kognitivna predaja (cognitive surrender): termin koji trebate upamtiti

Puštanje AI da donosi odluke umjesto nas je potpuno izmijenilo način donošenja odluka. I jasno, neki ljudi konsultuju AI kako bi uštedjeli vrijeme, jer teror produktivnosti tjera na to, a drugima je prosto lakše. I to ne bi bilo toliko strašno da svi do jednog ne prekontrolišemo i ne propitamo savjete i odluke koje nam je AI servirao. Posebno kroz prizmu moralnih načela. Većina ljudi, pokazala su studije, ne propituje ono što im AI izbaci, već ih uzima kao zdravo za gotovo. Ovdje više nije problem da li će AI izbaciti nešto što je netačno, nečinjenično, opasno ili nemoralno (što se može desiti), nego je pitanje nečega što sad zovemo kognitivna predaja (cognitive surrender). Dakle, usvajanje prije verifikacije informacija. Zvuči poznato? Već preko deceniju većina ljudi to radi na društvenim mrežama. Pa što bi s AI bilo drugačije.

Usput – društvene mreže nas i jesu pripremile da mozak bacimo na otavu i ne mislimo, ne verificiramo. Niko ne verificira da li su neki stihovi Rumijevi ili Šekspirovi i da li je Šekspir zaista napisao neki set rečenica i da li se nešto zaista dogodilo i kako. I to prolazi influenserima i motivacionim govornicima. Niko ne traži da budemo eruditi – nego samo da provjeravamo informacije.

Scrutinize: divna engleska riječ

Engleska riječ scrutinize upravo podrazumijeva razmatranje nečega, propitivanje ne uzimanje zdravo za gotovo. To znači proučiti nešto vrlo temeljno da bi se nešto otkrilo i shvatilo.  Podvrći nešto ispitivanju. U procesu uzimanja zdravo za gotovo onoga što nam AI servira, mi ne dolazimo do istine, do otkrića, otkrovenja, epifanije, kako hoćete to nazvati. Mi samo konzumiramo ultraprocesirani produkt. Baš kao i sa ultraprocesiranom hranom, slično se događa sa ultraprocesiranom kognicijom – ona usporava naš kognitivni metabolizam, izaziva poremećaje apetita za informacijama i mi tražimo sve više junk informacija.

Scrutinize ima veze sa običajem u ranom hrišćanstvu/kršćanstvu koji se zvao skrutinij, to je obred očišćenja u korizmi, a koristi se i za ispitivanje, propitivanje ispitanika prije stupanja u neko zvanje – to je posljednja provjera, recimo, prije čina ređenja u đakona. To je obred da li je taj neko zreo za tu funkciju, da li je dorastao, je li njegov moral i način razmišljanja vrijedan pozicije.

Eksperimenti pokazuju kako ljudi, kada mogu, predaju svoje kognitivne sposobnosti AI-u – čak oko 80% ljudi to učini

Sad se vratimo na naučnike i eksperimente. Na Univerzitetu Pennsylvania pri Wharton School of  Bussines hteli su empirijski provjeriti je li istinita hipoteza o tome kako AI tehnologija doslovno mijenja naš način donošenja odluka, sam proces, odnosno da se ljudi više oslanjaju na AI nego na sopstveni mozak. U jednom od njihovih eksperimenata, objavljenom u Computers in Human Behavior 2024. godine na oko 1300 ispitanika, njih oko 80% se oslonilo na AI alate. Ispitanici su pratili AI savjete čak i onda kada su oni bili u konfliktu sa kontekstom situacije i protiv njihovih interesa, odnosno, loši po ispitanike.

Sa istog univerziteta dolazi i rad postavljen u januaru 2026. na preprint stranici Univerziteta Pennsylvania. On upravo govori o tome govori o tome kako generativna umjetna inteligencija (AI) mijenja način na koji ljudi razmišljaju i donose odluke — i uvodi novi teorijski model nazvan Tri-System Theory (teorija tri sistema mišljenja).

Šta ovo znači?

Prije AI-a smo imali dva sistema mišljenja – Sistem 1 koji je brz i intuitivan, automatski (gut feeling), i Sistem 2, koji je spor i analitičan, svjestan. Oba nam trebaju i koristimo ih u različitim situacijama. Ponekad koristimo Sistem 1 čak i onda kada imamo vremena da promislimo – recimo kada dijelimo dezinformaciju koja nam stvara strah ili gnušanje, paniku. Ali taj nam je sistem potreban za brze reakcije ako postoji neposredna opasnost (vidimo medvjeda u šumi, recimo, ili je nastupio požar, zemljotres, nego se davi).

No sada imamo i Sistem 3: umjetna kognicija izvan mozga. On može biti proširenje naših sposobnosti, dopuniti naše razmišljanje, služiti za ideaciju ili može potpuno zamijeniti naše razmišljanje. Razmišljanje je hibridno – čovjek i AI. u tom smislu, iako nismo integrisani s AI, mi jesmo na neki način kiborzi.

Ova preprint donosi i taj zanimljiv nalaz kognitivne predaje, kada ljudi prihvate odgovor AI-ja bez preispitivanja. To znači da zanemaruju vlastitu intuiciju (Sistem 1), preskaču analizu (Sistem 2) i jednostavno vjeruju AI-u (Sistem 3).

U ovom istraživanju su učesnici rješavali zadatke koji traže logičko razmišljanje i mogli su birati hoće li odgovoriti sami ili potražiti pomoć AI asistenta poput ChatGPT. Ključno je da AI nije uvijek bio pouzdan — istraživači su ga namjerno podešavali da ponekad daje tačne, a ponekad pogrešne odgovore, bez znanja učesnika. Na taj način su pratili koliko često ljudi koriste AI, koliko im to pomaže ili odmaže, te koliko su sigurni u svoje odgovore. Eksperiment je proveden u tri varijante: osnovnoj, s vremenskim pritiskom i s nagradama za tačnost. Cilj je bio razumjeti ne samo da li se ljudi oslanjaju na AI, nego i kako se njihovo ponašanje mijenja u različitim uslovima odlučivanja.

Oni učesnici istraživanja koji su imali veće povjerenje u AI, a manju potrebu za kognicijom i fluidnom inteligencijom su pokazivali veću predaju Sistemu 3.

Korporativno forsiranje AI nad uposlenicima: niko ne razmišlja kako to djeluje na kognitivne sposobnosti

Treba dodati da korporacije sve više prisiljavaju uposlenike koristiti AI modele, forsiraju ovaj model, najvjerovatnije kako bi na kraju smanjili borj uposlenika, jer bi jednu osobu upregle više. Ali ovo je također nešto što bih nazvala corporative forced cognitive surrender – kognitivna predaja na koju prisiljavaju korporacije.

Namjerno ili ne, kompanije na ovaj način praktično zaglupljuju uposlenike praveći od njih AI zombije koji će na kraju biti nepotrebni kompanije. Gpvprimo o uposlenicima koji bez zahtjeva i naredbe više ne mogu sami misliti i uraditi neku potrebnu radnju a da im nije upućen zajtjev. Ne mogu sami smisliti korake rješenje, algoritam niti su u stanju improvizirati i rješavati nove situacije, što u suštini i jeste definicija inteligencije.

Biće zanimljivo jednog dana ako nestane struje.

Ljudi vole da su na autopilotu i ne ulažu energiju u učenje, razumijevanje

Realno, koliko to ljudi želi da prolazi proces spoznaje i propituje stvari? I prije je to bio manji procenat ljudi. Ali je bila i manja šteta koju su stvarali ljudi koji uživaju u autopilotu. Sada se ta šteta amplificira i ima pogubnije dejstvo jer je outsourcanje kognitivnih funkcija veće nego bilo kad u istoriji. Nikada nismo imali alat koji nam baš toliko može pustiti mozak na pašu…

To, pored potpuno kaskanja za podučavajem empatije, logike, logičkih grešaka, filozofije, psihologije i načina na koji mislimo te podučavanja etike, predstavlja savršenu oluju za propast naše vrste, još u kombinaciji sa AI ratovanjem i donošenjem odluka za napade na vojne ciljeve…

Jedino rješenje može biti jačanje onoga što je ljudsko u nama, sada više nego ikad. Govorim o vrlo strukturiranom podučavanju empatije i etike, jačanju ne samo medijske, naučne i digitalne pismenosti, nego prije svega socijalne i emotivne intelgencije. Inače smo osuđeni da postanemo limeni ljudi,  bez mozga, bez srca, bez inherentne mudrosti i – bez muda.

Lukavstvo je pamet bez morala, a mudrost je pamet s moralom. Borba za opstanak ljudske vrste počinje otporom. Za početak, otporom prema kognitivnoj predaji, koja ima tendenciju da uništi svijet. A uništavanje je daleko jednostavnije nego stvaranje.

Istinsko učenje zahtijeva napor, potrošnju energije i vremena, a učenje je ono što nas, pored empatije i etike, čini ljudima. Inženjer Sir John Lazar je u obraćanjuna Witts univerzitetu spomenuo i koncept kognitivne istrajnosti (kognitivna izdržljivost, cognitive endurance) kao protuotrov kognitivnoj predaji. To je čin predavanja razumijevanju materije, razmišljanju, samostalnom obavljanju zadatka i promišljanju o njemu.

Izvor: naukagovori.ba