Header
Početna > Radovi > Kreativnost je napustila razgovor: cijena uklanjanja predrasuda jezičnih modela

Kreativnost je napustila razgovor: cijena uklanjanja predrasuda jezičnih modela

Kreativnost je napustila razgovor: cijena uklanjanja predrasuda jezičnih modela

Korištenjem procesa nazvanog RLHF (Reinforcement Learning from Human Feedback) nastoji se velike modele umjetne inteligencije učiniti manje pristranim i sigurnijim, no istovremeno može doći do smanjenja kreativnost tih modela. U praksi, iako ovi modeli umjetne inteligencije postaju bolji u izbjegavanju uvredljivog ili rizičnog sadržaja, oni također gube sposobnost generiranja širokog raspona novih ili raznolikih ideja.

Činjenica da su AI chatbotovi i generatori teksta sigurniji može ih slučajno učiniti dosadnijima. Što više dizajneri rade na uklanjanju pristranosti ili rizičnog sadržaja iz AI-a, manja je vjerojatnost da će smisliti nove i zanimljive odgovore. To znači da korisnici i tvrtke moraju odabrati pravu vrstu AI-a za posao: kreativnu, ali rizičniju za brainstorming i pisanje ili sigurniju, ali repetitivniju za korisničku podršku ili osjetljive kontekste.

Što smo naučili?

• Sigurnost ima svoju cijenu: Metode poput RLHF-a koje filtriraju neželjene pristranosti i toksični sadržaj dobro funkcioniraju, ali također čine modele manje kreativnima. Istraživači definiraju kreativnost kao sposobnost modela da koristi širok raspon jezičnih struktura i izražava različite ideje.

• Smanjena raznolikost: Članak opisuje tri eksperimenta u kojima se uspoređuju „osnovni“ modeli umjetne inteligencije (neusklađeni) s onima koje je RLHF učinio sigurnijima („usklađeni“ modeli). Usklađeni modeli generiraju manje raznolika imena, pozadine, stilove teksta i recenzije proizvoda. Na primjer, prilikom stvaranja izmišljenih profila kupaca, usklađeni modeli više puta koriste ista imena i osobnosti, dok osnovni modeli pokazuju mnogo veću raznolikost.

• Modeli se „zaglave“: Istraživanje otkriva da sigurniji modeli umjetne inteligencije imaju tendenciju upadanja u neku vrstu ponavljanja, držeći se nekoliko „sigurnih“ predložaka ili opcija čak i ako se od njih traži kreativnost. To se naziva „kolaps načina rada“, gdje je model zaključan samo u mali skup mogućih odgovora.

• Kompromis za tvrtke i korisnike: Sigurni i dosljedni modeli umjetne inteligencije najbolji su za situacije poput korisničke podrške ili moderiranja sadržaja. Kreativniji i manje filtrirani modeli poželjniji su za zadatke