Header
Početna > Radovi > Fenomen AI halucinacija (5/6)

Fenomen AI halucinacija (5/6)

Fenomen AI halucinacija (5/6)

Jedan od najvećih izazova pri korištenju modela umjetne inteligencije je njihova sklonost da izmišljaju podatke, a taj fenomen naziva se haluciniranje. Problem nije samo u tome što AI modeli pogriješe nego što to čine tonom koji zvuči potpuno točno i profesionalno.

Upravo zato je neophodno kritičko promišljanje. Odgovore uvijek trebamo preispitati, provjeriti izvore i koristiti tehnologiju kao alat za potporu, a ne kao zamjenu za vlastitu prosudbu.

AI modeli ne znaju što je istina

Modeli umjetne inteligencije nisu enciklopedija niti baza podataka nego statistički sustav. Njihov zadatak je predvidjeti koja riječ (ili dio riječi) statistički najbolje odgovara onoj prethodnoj.

Dakle, ako AI-ju postavite pitanje o osobi koja ne postoji, neće uvijek odgovoriti „ne znam“. Umjesto toga, složit će rečenice koje zvuče kao biografija jer je naučio da se na takva pitanja odgovara tim stilom. Imitira formu, ali ne provjerava točnost sadržaja.

Dvije vrste AI memorije

Stručnjak Andrej Karpathy objašnjava da AI koristi dvije vrste „znanja“:

  • Spremljeno znanje (iz treninga): To su informacije koje je AI model prikupio dok je „čitao“ internet tijekom svog stvaranja. To znanje je često nesigurno. Ako ga pitate nešto specifično, pokušava se „prisjetiti“ detalja, što često dovodi do pogrešaka i izmišljanja.
  • Trenutno znanje (kontekst): To su informacije koje sami upišete ili učitate u chat. U tom trenutku AI model ne mora pogađati jer je dobio sve potrebne podatke.

Alati kao pomoć

Najnoviji modeli imaju još jedan koristan trik – korištenje vanjskih alata. Kada AI-ju postavite pitanje o nečemu što nije u njegovu „sjećanju“ (poput rezultata utakmice od sinoć), sada može prepoznati svoje neznanje. Umjesto da izmisli odgovor kako bi zvučao uvjerljivo, on će reći: „Samo trenutak, moram to provjeriti.“

Tada se spaja na tražilicu, dohvaća stvarne podatke i stavlja ih u svoju radnu memoriju. To je digitalni ekvivalent situacije u kojoj čovjek kaže: „Nisam siguran, daj da proguglam.“ Zahvaljujući tim alatima, šanse za halucinacije postaju znatno manje jer AI više ne mora pogađati, nego informaciju može provjeriti u stvarnom vremenu.

Kako osigurati točnost?

Najveća pogreška koju korisnici rade je traženje informacija koje AI mora „izvući iz glave“. Da biste spriječili halucinacije, koristite metodu pružanja izvora.

Manje pouzdano: „Sažmi mi prvo poglavlje knjige Ponos i predrasude.“ (AI se oslanja na ono što je nekada pročitao).

Puno pouzdanije: „U nastavku ti šaljem tekst prvog poglavlja knjige. Molim te, sažmi ga: [ZALIJEPLJEN TEKST].“

Kada AI ima tekst izravno u razgovoru, ne mora se oslanjati na statističko pogađanje nego obrađuje podatke koje ste mu upravo dali.

Pročitajte prethodne članke iz serijala:

  1. Kako nastaje baza znanja kojom se služi ChatGPT?
  2. Zašto “najpametniji” modeli griješe na najjednostavnijim zadacima?
  3. Može li AI znati sve, a ne znati razgovarati?
  4. Škola lijepog ponašanja: kako AI uči postati koristan asistent?

Izvor: Analiza tehničkog predavanja Andreja Karpathyja: Deep Dive into LLMs like ChatGPT.

U sljedećem, završnom nastavku: Saznajte kako AI uči stvarno razmišljati i zašto mu je ponekad potrebno dopustiti da „priča sam sa sobom” kako bi došao do točnog rješenja.