Vještačka inteligencija izmišlja rečenice u transkripciji

Slobodan Perić аватар

Nova studija je otkrila da alat za transkripciju sa vještačkom inteligencijom „Visper“ koji promoviše tehnološki gigant „OpenAI“ nije tako pouzdan i tačan na ljudskom nivou kao što se prvobitno mislilo. Stručnjaci su otkrili da se u transkripcijama pojavljuju izmišljene rečenice, što može predstavljati ozbiljan problem, posebno kada se ovaj alat koristi u medicinske svrhe.

Softver koji je razvila kompanija „OpenAI“ ponekad dodaje izmišljene dijelove teksta ili čak čitave rečenice, što je potvrdilo više od deset softverskih inženjera, programera i akademskih istraživača. Ovi izmišljeni dijelovi, poznati u industriji kao halucinacije, mogu sadržavati rasističke komentare, nasilnu retoriku ili čak izmišljene medicinske tretmane.

Prema stručnjacima, ove izmišljotine mogu biti problematične jer se „Visper“ koristi u različitim industrijskim granama širom svijeta za prevođenje i transkripciju intervjua, generisanje teksta u potrošačkim tehnologijama i kreiranje titlova za video-zapise. Takođe, zabrinjavajuće je što se neki medicinski centri žure da počnu koristiti alate zasnovane na „Visperu“ za transkripciju konsultacija pacijenata sa ljekarima, uprkos upozorenjima iz kompanije „OpenAI“ da alat nije pogodan za „domene visokog rizika“.

Istraživači su pronašli halucinacije u osam od svakih deset audio-transkripcija koje su pregledali, dok je drugi inženjer otkrio suvišne dijelove teksta u polovini od preko 100 sati „Visperovih“ transkripcija koje je analizirao. Treći programer je pronašao halucinacije u gotovo svim od 26.000 transkripata koje je napravio pomoću „Vispera“.

Čak i dobro snimljeni kratki audio-zapisi imaju problema sa ovim alatom. Nedavno istraživanje je otkrilo 187 halucinacija u preko 13.000 jasnih audio-isječaka koje su pregledali kompjuterski naučnici.

Neispravni transkripti mogu imati ozbiljne posledice, posebno kada je u pitanju medicinska dokumentacija. Alati poput „Vispera“ trebali bi biti precizni i pouzdani kako bi se izbjegle greške koje mogu imati ozbiljne posledice po pacijente. Zbog toga je važno da kompanije koje razvijaju ovakve alate unaprijede svoje tehnologije kako bi se osigurala tačnost i pouzdanost u njihovom korištenju.

Stručnjaci su također istakli da je potrebno provoditi stroge kontrole kvaliteta kada se koristi alat za transkripciju sa vještačkom inteligencijom kako bi se identifikovale moguće greške i halucinacije. Takođe je važno obučiti medicinsko osoblje i druge korisnike ovih alata kako bi bili svjesni potencijalnih problema i kako bi ih mogli ispraviti pravovremeno.

Iako tehnologija vještačke inteligencije donosi brojne prednosti i olakšava mnoge procese, važno je da se koristi odgovorno i sa pažnjom. Greške poput izmišljenih rečenica u transkriptima mogu imati ozbiljne posledice, posebno kada je u pitanju medicinska dokumentacija. Zbog toga je važno da kompanije koje razvijaju ove tehnologije ozbiljno shvate problem halucinacija u transkriptima i preduzmu odgovarajuće korake kako bi ih otklonile.

U zaključku, iako alat „Visper“ može biti koristan u mnogim oblastima, potrebno je da kompanija „OpenAI“ unaprijedi svoj softver kako bi se osigurala tačnost i pouzdanost u transkripcijama. Takođe je važno da korisnici ovih alata budu svjesni mogućih grešaka i halucinacija kako bi ih mogli prepoznati i ispraviti na vrijeme. Samo na taj način se može osigurati sigurnost i tačnost u korištenju vještačke inteligencije u transkripciji i drugim oblastima.

Slobodan Perić аватар