Kineski regulator interneta Uprava za sajber prostor je počela testirati modele vještačke inteligencije (AI) različitih tehnoloških kompanija kako bi utvrdila da li su u skladu sa osnovnim socijalističkim vrijednostima.
Prema informacijama iz Finansijskog tajmsa (FT), regulator je naložio kompanijama poput Bajtdensa, Alibabe Munšot i 01.AI da se podvrgnu obaveznom testiranju njihovih AI modela. Tokom testiranja, veliki jezički modeli moraju odgovarati na različita pitanja, uključujući ona koja se odnose na politiku i ideologiju.
Već godinu dana ranije, kineski regulator je uveo pravila za chatbotove koja propisuju da AI modeli ne smiju kršiti javni moral ili promovirati rušenje socijalističkog sistema ili nacionalnog jedinstva. Prema FT, mnogi jezički modeli nisu uspeli zadovoljiti ove kriterijume.
Prema izvještaju portala B92, ByteDance je postigao najviši nivo usklađenosti sa bezbednosnim standardima od 66.4%, dok je GPT 4.0 američke kompanije Open AI postigao samo 7.1%.
Ovo testiranje AI modela je samo jedan od koraka koje Kina preduzima kako bi osigurala da tehnološke kompanije funkcionišu u skladu sa državnim propisima i vrijednostima. Ovaj potez kineskog regulatora može imati značajan uticaj na buduće razvoj AI tehnologija u zemlji.
Uvođenje testiranja AI modela može imati duboke posledice na tehnološku industriju u Kini. Kompanije koje ne uspeju zadovoljiti kriterije propisane od strane kineskog regulatora mogu se suočiti sa restrikcijama u radu ili čak zabranom.
Sve veći nadzor nad vještačkom inteligencijom od strane državnih organa može dovesti do promjena u načinu na koji kompanije posluju i razvijaju AI tehnologije. Ovaj potez Kineske regulatorne agencije također može uticati na međunarodnu zajednicu tehnoloških kompanija koje posluju u Kini.
Ovo testiranje AI modela također ukazuje na sve veću zabrinutost država u vezi sa mogućim negativnim uticajem tehnologija vještačke inteligencije na društvo i politiku. Prema Kineskom regulatoru, AI modeli koji ne poštuju državne propise i vrijednosti mogu predstavljati veliki rizik za stabilnost društva.
Uvođenje testiranja AI modela i propisa za chatbotove samo su neki od koraka koje Kina preduzima kako bi osigurala da tehnologija vještačke inteligencije služi društvenom napretku i stabilnosti. Ovaj potez će imati dalekosežne posledice na tehnološku industriju u zemlji i može postaviti presedan za buduće regulative u vezi sa AI tehnologijama širom sveta.
U zaključku, testiranje AI modela od strane Kineskog regulatora interneta Uprave za sajber prostor pokazuje sve veći nadzor nad tehnološkim kompanijama u zemlji i naglašava važnost usklađenosti sa državnim propisima i vrijednostima. Ovaj potez će imati duboke posledice na razvoj AI tehnologija u Kini i može postaviti tone za buduće regulative u vezi sa vještačkom inteligencijom širom sveta.