Nauka

OpenAI: novi alati i rizici sintetičkog glasa po demokratiju

OpenAI je nedavno lansirao inovativni alat vještačke inteligencije sposoban da reprodukuje ljudski glas s izuzetnom preciznošću. Ovaj tehnološki domet nudi širok spektar potencijalnih aplikacija, ali istovremeno izaziva zabrinutost zbog moguće zloupotrebe, naročito u širenju dezinformacija.

OpenAI predstavio Voice Engine: 15 sekundi audio zapisa stvarne osobe dovoljno da rekreira glas

Novi alat, nazvan Voice Engine, omogućava generisanje autentičnog glasa bilo kog pojedinca koristeći samo 15 sekundi snimljenog audio zapisa kao ulaz. Međutim, zbog rizika od potencijalne zloupotrebe, OpenAI provodi testove kako bi bolje razumio moguće implikacije ove tehnologije.

Voice Engine je prvobitno razvijen 2022. godine, sa početnom verzijom koja je integrisana kao značajka za pretvaranje teksta u govor u ChatGPT, vodećem AI alatu organizacije. Ipak, zbog opreza kompanije, koje je vjerovatno generisano čitavom gužvom oko svjedočenja Sama Altmana pred Komitetom Senata SAD, njegova puna moć nikada nije javno otkrivena.

OpenAI je izrazio želju za započinjanjem dijaloga o odgovornom implementiranju sintetičkih glasova i prilagođavanju društva ovim novim mogućnostima. Na temelju ovih razgovora i rezultata testova, kompanija će donijeti informisanu odluku o mogućoj daljoj implementaciji tehnologije.


Opasnosti kloniranja glasa

U kontekstu globalne godine izbora, OpenAI se aktivno angažuje u smanjenju prijetnje od štetnih dezinformacija. Ipak, brz razvoj tehnologije koja omogućava kreiranje ubjedljivih glasovnih klonova od izuzetno kratkih audio snimaka izaziva sumnju i strah od novih mogućnosti širenja dezinformacija.

Iako tehnologija kloniranja glasa nije nova, sa modelima sinteze glasa prisutnim još od 2022. godine, inovacija leži u tome što OpenAI razmatra mogućnost široke distribucije svoje tehnologije glasa, što bi praktično omogućilo bilo kome da klonira bilo čiji glas. Ova ideja izaziva oprez kompanije u potpunom puštanju tehnologije u upotrebu.

Korišćenje tehnologije poput Voice Engine za širenje dezinformacija može imati ozbiljne posljedice, posebno u kontekstu izbora i medijskih izveštaja o ratu.

Sposobnost stvaranja ubjedljivih glasovnih klonova može omogućiti zlonamjernim akterima da manipulišu javnim mnjenjem stvaranjem lažnih izjava ili poruka od političkih lidera ili drugih autoriteta. Kada se koristi u političkim kampanjama ili tokom sukoba, tehnologija kloniranja glasa može doprinijeti povećanju polarizacije društva. Korišćenje lažnih glasovnih poruka ili izjava tokom izbornih kampanja može narušiti integritet izbornih procesa, dovodeći do sumnje u regularnost izbora i potkopavanja demokratskih principa. Ovo može dovesti do širenja lažnih informacija koje mogu uticati na izborne rezultate ili percepciju javnosti o određenim događajima.

Sa sve naprednijom tehnologijom generisanja glasova, građani mogu postati nesposobni da razlikuju autentične izjave od falsifikovanih. To može izazvati opštu dezorijentaciju i smanjiti poverenje u izvore informacija.


Oprez OpenAI

U svom blogu, OpenAI je podijelio primjere stvarnih aplikacija tehnologije. Ovi primjeri uključuju asistenciju u čitanju za slabovidne osobe ili djecu, terapeutsku primenu kod pacijenata koji oporavljaju glas, kao i prevoditeljske aplikacije. Ovi primjeri ukazuju na potencijalne koristi tehnologije, ali istovremeno naglašavaju potrebu za odgovornom implementacijom radi sprečavanja zloupotrebe.

„Mi se nadamo započeti dijalog o odgovornom implementiranju sintetičkih glasova i kako se društvo može prilagoditi ovim novim mogućnostima”, rekao je OpenAI u tom blogu.

„Na temelju tih razgovora i rezultata ovih testova malog obima, donijećemo informisaniju odluku o tome hoćemo li i kako implementirati ovu tehnologiju u većem obimu.”

 

Twitter
Anketa

Da li je opozicija u Srpskoj trebala učestvovati na mitingu u Banjoj Luci ili nije?

Rezultati ankete
Blog