• Non-consensual AI „undress“ aplikacije nisu tehnološka bizarnost niti incident, već novi oblik digitalnog seksualnog nasilja — s mjerljivim posljedicama po živote žena, njihovo mentalno zdravlje i pravo na javni prostor.
  • Slučaj Grok pokazuje da problem nije u „zloupotrebi alata“, nego u dizajnu i odgovornosti platformi: veliki AI sistemi mogu i proizvode seksualizirane slike bez pristanka, uz predvidivu i nesrazmjernu štetu po žene.
  • Pokušaji da se ovaj problem riješi autorskim pravima i individualnom „zaštitom lika“ promašuju suštinu — pristanak, ljudsko dostojanstvo i zaštita od nasilja ne mogu se svesti na tržišni spor.

Nauka govori je među prvima istraživala fenomen tzv. undress/nudify aplikacija, AI aplikacija koje vam mogu skinuti odjeću. I da, naravno, ZAŠTO BI IKO KORISTIO ove aplikacije da skine muškarce? Naravno da će uglavnom djevojke i žene biti žrtve. Kada bolje razmislim, da je ovaj svijet imalo empatičan i normalan, umjetna inteligencija bi se stvarno koristila za bolje dijagnosticiranje raka i kreiranje lijekova, a nikako se ograničeni resursi ne bi trošili za ovakve gluposti, unižavanja i psihopatološke eksperimente.

Znate, kada se žena skine gola svojom voljom, ona je k*rva, ali ako je neko skine mimo njene volje to je ok. Jer patrijarhatu je ok samo i privlačno samo ono zabranjeno – kada nije slobodnom voljom, nego protiv nje, prisilno, makar i digitalno. Odatle sva ta paljenja na silovanja.

Skidanje žena bez pristanka u digitalnom svijetu je odraz mizoginije

„Incident” u kojem je X- Elon Muskov AI, Grok, na zahtjev korisnika skinuo ženu, nije incident. To je odraz mizoginije, pa i gejmerske kulture ponižavanja (koja je vrlo mizogina, incelska), i u kojoj je to ok. To je pravilo. Svaka ljubaznost i poštovanje žena su incident.

Da se razumijemo – ne samo što nije ok, nego je i krivično djelo, barem po novim članovima zakona kod nas u „zaostaloj” BiH.

U Indiji strah od poniženja i sramote da će se nečija fotografija iskoristiti za skidanje dovodi do toga da se žene povlače iz online prostora i, po starom ženskom običaju, smanjuju se i ućutkuju same sebe. Sramota nije biti go. Sramota je drugo biće poniziti.

Grok nije riješio problem skidanja. Samo je učinio da jedino oni koji plaćaju pretplatu i imaju malu plavu kvačicu mogu to uraditi.

I da – Grok je kreirao undress sliku Rene Good, žene koju je ICE ubio u Minneapolisu. Onda su na površinu isplivali i Grok-generirani sadržaji koji prikazuju maloljetnike. E sad zamislite da je neko pomoću AI kreirao sliku Charliea Kirka kako vrši fellatio Trumpu ili ima mikropenis, Ili Petera Thiela kako spolno opći? I zapravo postoji li išta što ovu grupu ljudi može posramiti? Kada to kažem, grupu ljudi, ne mislim samo na MAGA. Mislim na cijeli dijapazon onih kojima je duhovito skinuti neku ženu pomoću AI.

Nema pristanka? Zdravo.

Ovaj slučaj jasno pokazuje kako se tehnologija može pretvoriti u alat nasilja kada se koristi bez etičkih i pravnih ograničenja. Undress aplikacije i slični alati ne proizvode „bezazlene“ deepfakeove i tralalala brain rot, već non-consensual seksualizirane slike, što predstavlja oblik digitalnog seksualnog nasilja.

Ključno je da pristanak ne postoji – a bez pristanka nema ni „slobode izražavanja“, ni „šale“, ni tehnološke neutralnosti. Ovakav sadržaj se, uz sveprisutnu pornografiju normalizira, odnosno, mladim ljudima nije jasno da tu ima nešto što je duboko neetično i da je u pitanju krivično djelo. Ponižavanje drugog bića je apsolutni moralni pad.

Tehnologija nije neutralna. Nije istina da samo od nas ovisi da li će se koristiti u dobre ili loše svrhe

Slučaj s Grokom dodatno je problematičan jer pokazuje da veliki, resursima bogati AI sistemi nisu imuni na zloupotrebe nego da ih zapravo podstiču i normaliziraju. Ako model može generisati ili olakšati kreiranje ovakvog sadržaja, odgovornost nije samo na korisniku, već i na kompaniji koja je model razvila i pustila u opticaj. Tehnologija nije moralno neutralna kada su posljedice predvidive. Ovo je prvi put da imamo tehnologiju koja je sama po sebi problem. Tehnologija NIJE NEUTRALNA. Ovo je grm u kojem leži zec izbjegavanja odgovornosti.

Znate previše puta čujem „ali to je samo tehnologija, od ljudi ovisi da li će se ona koristiti za dobre ili loše svrhe”.

Undress aplikacije nisu opći alati koje je „neko pogrešno iskoristio“. One su namjenski dizajnirane da uklanjaju odjeću sa ženskih tijela, proizvode seksualizirani sadržaj (uključujući i ponudu BDSM i shibari praksi tinejdžerima, što im stvara dodatnu seksualnu konfuziju), funkcionišu bez ikakvog mehanizma pristanka. To nije neutralna funkcija – to je ugrađena pretpostavka da je tuđe tijelo dostupno za manipulaciju. S napomenom – žensko tijelo, pretežno.

Ako je zloupotreba očigledna, masovna i ponovljiva, onda više ne govorimo o pogrešnoj upotrebi, nego o strukturnom riziku. Ovo nije slučajni, nego namjerni ishod. Neutralnost prestaje tamo gdje postoji sistematski nesrazmjer štete.

Disbalans ugroženosti i povlačenje žena iz digitalnog prostora

Posebno zabrinjava činjenica da su mete gotovo uvijek žene. Time se postojeći obrasci mizoginije i kontrole nad ženskim tijelom samo preseljavaju u digitalni prostor, gdje su šteta, sram i trauma često trajni, a uklanjanje sadržaja gotovo nemoguće. Međutim, kako ovaj tip tehnologije nesrazmjerno više cilja žene i djevojke, pa i maloljetnike, a potom i neke druge manjinske grupe (LGBTIQ, nacionalne manjine), ne možemo trtljati o nekoj neutralnosti.

Tvrdnja o neutralnosti tehnologije se često koristi da se depolitizira nasilje, prebaci krivica na pojedinca, izbjegne regulacija, te kompanije zaštite od odgovornosti. U tom smislu, „tehnologija je neutralna“ nije opis stvarnosti, nego retorička strategija. Bolje rečeno retorička obmana.

Primjer iz Indije neće biti usamljen – ovo će biti sistemski proces tjeranja žena iz online sfere, utišavanja njihovog glasa iz straha da ne budu osramoćene pred porodicom. To je ono kako se djeluje na utišavanje žena u politici – ako se napravi lažna slika političarke, njen glas više nije validan, jer ona je prokurvana. Nebitno što se ašićare vidi da je to fejk, ali ona je osramoćena i njen glas i misao se ne pika.

Za razliku od muškaraca koji mogu proći sa otimanjem i ukidanjem pomoći onima kojima treba, uništavanjem zdravstvenog sistema (nemojte misliti da mislim samo na SAD – itekako mislim i na BiH i region, gdje su uglavnom muškarci uništavali socijalnu državu i javno zdravstvo), mogu silovati, iskorištavati nepunoljetne osobe i biti teflon ljudi, na koje se ništa ne lijepi. A žene ne mogu biti teflon, njima najmanja packa može uništiti život i karijeru.

Postavljanje autorskih prava na svoj lik nije elegantno rješenje – ovaj potez bi samo produbio problem i nejednakost

Ovdje se treba osvrnuti i na mišljenja onih koji su duboko zagazili u neoliberalni nemoral – da se ovaj problem zloupotrebe slika u svrhe kreiranja soft ili hard pornografskog sadržaja može riješiti stavljanjem autorskih prava na svoj lik. O ne, ne i ne!

Na prvi pogled zvuči pragmatično: ako imaš prava nad vlastitim likom, možeš tužiti one koji ga zloupotrebljavaju. Međutim, autorsko pravo je pogrešan alat za ovaj problem. Autorska prava su historijski osmišljena da štite kreativna djela, ne ljudsko dostojanstvo, tjelesni integritet ili pristanak. Ne štite osobu zato što je osoba, već zato što je „nosilac intelektualnog vlasništva“.

Ključni problem ovog pristupa je prebacivanje tereta na žrtvu. Žena (ili bilo ko ko je žrtva) bi morala aktivno „štititi“ svoj lik, dokazivati vlasništvo, pokretati postupke, snositi troškove i stres. To je klasičan primjer responsibilizacije žrtve, a ne sankcioniranja nasilnika. Problem undress aplikacija nije krađa identiteta, već seksualno nasilje bez pristanka. Autorsko pravo ne poznaje kategoriju pristanka tijela — samo dozvole za korištenje djela.

Većina žena i drugih ugroženih, žrtava nema resurse za parnice

Autorska prava su teritorijalna, spora i skupa. Deepfake i AI sadržaj se šire globalno, trenutno i anonimno. Većina žena nema resurse da vodi višestruke međunarodne sporove.

Ova vrlo loša ideja je odraz neoliberalnog mindseta u kojem je pojedinac tržišni subjekt-objekt. To je prostituiranje svog lika, umjesto da zaštita ljudskog dostojanstva bude moralni imperativ!

To je tipična neoliberalna logika: privatizacija zaštite od nasilja. Umjesto da društvo i država postave jasne granice, teret se prebacuje na pojedinca – najčešće onog koji je već u neravnopravnom položaju. Ovo nije tržišni spor. Ovo je atak na ljudska prava i mentalno zdravlje, kreiranje trajne traume.

Treba primijetiti da Elon Musk sve više i više mrzi žene. Mada prije nije bio takav, ali svo to insistiranje na IVF, muškom potomstvu ima neku mizoginu stranu. I sad on tvrdi da je Grokov incident (ponovimo, nije incident u pitanju nego sistemska podrška mizoginiji i uklanjanju žena s interneta) samo razlog, casus belli za regulatorna tijela da cenzurišu njegovo čedo.

A znamo da je u svijetu laissez-faire kapitalizma tvrdnja da neko nešto cenzuriše zapravo dog whistle za „oni su komunjare”. Regulacija bilo čega i sve što što miriše na socijalnu državu, na etatizam, za ovu grupaciju suludo moćnih je komunizam. A svijet, posebno SAD su trenutno u trećem valu Crvene panike i valu neomakartizma.

Kreiranje seksualiziranih slika je problem moći i slobode bez morala

Evropska komisija je proglasila Grokove gole slike ilegalnim, čime je na EU navukla dodatni bijes razmaženog nasljednika krvavih smaragda, da mislim na Elona Muska, koji je, opijen trilijarderstvom nečega što posjeduje na računu i vezama sa Trumpovom administracijom počeo prijetiti EU. Grok će biti test otpora EU, pored krize sa Grenlandom.

Mjesec dana prije Grok skandala, Bruxelles je kaznio Elonovu mrežu X sa 120 miliona eura zbog kršenja vodećeg zakona bloka o platformama, Zakona o digitalnim uslugama (DSA). Kazna je izazvala žestoku reakciju Washingtona. Američka administracija nametnula je zabranu putovanja i zabranu izdavanja US vize bivšem povjereniku Europske unije za digitalnu politiku i arhitektu digitalnih usluga Thierryju Bretonu, te četvorici aktivista za dezinformacije.

Malezija i Indonezija su sredinom januara 2026. postale prve zemlje koje su zabranile X-ov Grok zbog ovih eksplicitnih sadržaja koje ovaj AI može proizvesti na zahtjev korisnika.

Kreiranje seksualiziranih AI slika bez pristanka (a budumo realni, ko to daje pristanak?) nije tehnički problem, već problem moći, pristanka i odgovornosti. Ono ne nastaje zato što „nismo još našli pravi pravni trik“, već zato što je dopušteno da se tehnologije razvijaju i plasiraju bez jasnih granica o tome šta se ne smije raditi ljudima.

Regulacija, regulacija, regulacija

Suštinsko rješenje mora početi od pristanka kao osnovnog principa: ako osoba nije dala jasan, informisan pristanak, takav sadržaj ne smije biti generisan, dijeljen ni monetiziran. To podrazumijeva zakonsku regulaciju, ali i aktivnu odgovornost onih koji razvijaju i distribuiraju AI sisteme, uključujući obavezna tehnička ograničenja i sankcije.

I da – ovo podrazumijeva i slike i snimke koji nisu nastali pomoću Generativne umjetne inteligencije nego u stvarnosti. Ako osoba nije dala pristanak za objavu ovakvih stvari, oni koji to dijele su samo papani i bezobrazne, bezdušne nekulturne sirovine. A znamo da ima grupa muškaraca u kojima se dijele ovakvi trofeji. To na silu manifestiranje alfa mužjaka je samo vanjski simptom nesigurnosti i kompleksa. Džentlmen to nikada ne radi.

Na kraju, važno je jasno imenovati stvar: ovo nije „kontroverzna upotreba AI-a“, nego digitalni oblik nasilja. Dok god ga ne tretiramo kao nasilje, a ne kao nuspojavu inovacija, problem neće biti riješen — samo će postati sofisticiraniji.

Napomena: Ovo nije informativna vijest nego argumentirani esej, opinion piece i objavljen je u toj rubrici, kao kolumna. Sve činjenične tvrdnje su potkrijepljene izvorima. Vrijednosni sudovi su eksplicitni i jasno odvojeni od činjenica.

Napomena: 15.1. 2026. BBC je javio kako je X implementirao mjere koje sprječavaju Grok da skida odjeću. To je došlo nakon vijesti da Pentagon želi inkorpororati Grok u svoje sisteme i nakon raširene zabrinutosti za seksualizirane AI deepfejkove.

Naslovna ilustracija je kreirana pomoću alata GAI.