Iako mnogi od nas možda nisu svesni, veštačka inteligencija postaje nezaobilazna činjenica u našem društvu.
Uprkos tome što je već decenijama sastavni deo naše svakodnevice, nagli napredak online AI alata, poput ChatGPT, izaziva veliko zanimanje i brigu.
Lažni video zapisi
Ovi veštački inteligentni alati pružaju različite funkcionalnosti. Na primer, ChatGPT može odgovarati na pitanja i pružiti korisne informacije, kao što su preporuke za vikend aktivnosti.
Iako ti alati nisu savršeni, postaju sve bolji u vođenju prirodnih razgovora s korisnicima, čak i prepoznajući kada naprave grešku i izraze duhovite primedbe. No, kao što to često biva s novim tehnologijama, postoje i izazovi i zabrinutosti. U poslednjim nedeljama pojavili su se problemi s AI deepfake aktima, gde je korišćena veštačka inteligencija za stvaranje lažnih video zapisa s Tejlor Svift (Taylor Swift).
Jedna od veb stranica koja je izazvala kontroverze je PimEyes, koja koristi veštačku inteligenciju za identifikaciju slika korisnika na internetu. Ova stranica nazvana je „najuznemirujućom AI veb stranicom na internetu“. Njeno delovanje je jednostavno: korisnici učitavaju svoju fotografiju, a AI analizira i pronalazi slične slike na internetu.
Etička načela
Ova situacija postavlja pitanja o privatnosti i sigurnosti korisnika na internetu, što postaje sve važnije pitanje s porastom upotrebe veštačke inteligencije u različitim kontekstima.
Osim zabave i korisnosti, primena veštačke inteligencije može dovesti do neočekivanih situacija. Nedavno je kompanija DPD isključila svog AI chatbota nakon što je korisnik naterao bota da piše pesme i izražava psovke. To podseća na to da tehnologija nije uvek u potpunosti predvidiva i može delovati na neočekivane načine.
U zaključku, dok veštačka inteligencija obećava mnogo koristi, rastući su i izazovi i etička pitanja koja prate njeno prodiranje u različite aspekte našeg života. Važno je razvijati i primenjivati veštačku inteligenciju s pažnjom kako bismo osigurali da donosi koristi bez ugrožavanja privatnosti i etičkih načela.