Vještačka inteligencija je postala ključni igrač u digitalnom svijetu, a napredak koji je postignut sa AI modelima kao što su ChatGPT, DALL-E ili Gemini to samo potvrđuje. Međutim, za obuku ovih AI modela potrebni su ljudski kreirani podaci, a upravo je to postalo gorući problem. Kompanije za vještačku inteligenciju suočavaju se sa nedostatkom podataka koje bi koristile za obuku svojih AI modela. Ovo je dovelo do drame i kontroverzi u vezi sa korištenjem podataka bez dozvole i pitanja o budućnosti vještačke inteligencije.
Nedavno je objavljeno da je anonimni entitet iz AI sektora sklopio dogovor sa Redditom da plaća 60 miliona dolara godišnje za pristup njegovoj ogromnoj bazi podataka korisnika. Ovo je pokazatelj da su podaci korisnika postali ključni resurs u AI svijetu. Ovo nije izolovan slučaj, jer je jedna druga velika publikacija već potpisala ugovor sa OpenAI-jem o korištenju njegovih medija u ChatGPT-u.
Redditori su reagovali na ovu vijest na svoj prepoznatljiv način. Neki su izrazili zabrinutost zbog korištenja njihovih podataka bez njihove dozvole, dok su drugi istakli poznatu frazu „Kada nešto koristite besplatno, vi ste proizvod“. Uz to, iako se spominje značajna suma od 60 miliona dolara godišnje, još uvijek nije poznato ko tačno plaća za te podatke. Ovo je izazvalo sumnju i nezadovoljstvo među korisnicima Reddita.
Osim toga, povećao se i strah od toga kako će se podaci korisnika koristiti u budućnosti. Postavlja se pitanje da li bi kreatori vještačke inteligencije mogli biti primorani da koriste sadržaj generisan od strane vještačke inteligencije za obuku budućih AI modela. Ovo dodatno komplikuje već kompleksnu situaciju u vezi sa korištenjem ljudski kreiranih podataka u AI sektoru.
Ova situacija postavlja i moralna pitanja vezana za privatnost i sigurnost podataka korisnika. Korisnici su zabrinuti zbog mogućeg zloupotrebe njihovih podataka i nedostatka nadoknade za korištenje istih. Također, postoji i zabrinutost da li bi kreatori AI modela trebali biti odgovorni za korištenje podataka korisnika bez njihove eksplicitne dozvole.
Nastavak ove situacije mogao bi imati dalekosežne posljedice ne samo za industriju vještačke inteligencije, već i za sve korisnike koji dijele svoje podatke na internetu. Ovo postavlja pitanje o odgovornosti kompanija za vještačku inteligenciju i potrebi za transparentnošću i zaštitom privatnosti korisnika.
U svakom slučaju, ova situacija naglašava važnost podataka i informacija u digitalnom dobu. Njihova vrijednost i uloga u obuci vještačkih inteligencija sve više postaje evidentna, a sa tim dolazi i pitanje njihovog korištenja i zaštite. Neizvjesnost i nedoumice oko ove teme ukazuju na potrebu za jasnim regulativama i smjernicama koje će obezbijediti ravnopravnu zaštitu interesa svih relevantnih strana.
U zaključku, situacija oko korištenja podataka koje su kreirali ljudi u vještačkoj inteligenciji predstavlja kompleksan problem sa dubokim moralnim i pravnim implikacijama. Njegovo rješenje zahtijeva pažljivo razmatranje, transparentnost i suradnju svih učesnika kako bi se obezbijedio fer tretman podataka korisnika i osigurala odgovornost kreatora vještačke inteligencije.