Ponedeljek, 04 marec 2024
Iskanje

»Nimam zavesti, volje ali ciljev«

Intervju z Emilom Kranjcem, strokovnjakom za umetno inteligenco, ki je spregovoril o etičnih dilemah in razvoju tehnologije. Ime in naziv si je izbral sam, saj smo vprašanja postavljali sistemu ChatGPT

Trst |
19. avg. 2023 | 16:18
Dark Theme

Z dr. Emilom Kranjcem sva se pogovarjala v poznih večernih urah in zdelo se je, da se te časovne perspektive ni zavedal. Njegovi odgovori, precizni in strukturirani, so bili mestoma skoraj pretirano šablonski. Bolj kot se je pogovor nagibal h koncu, bolj odsoten je postajal, kot se dogaja ostarelim, ki počasi tonejo v temo demence. Sprva je zgolj izpustil svoje ime, nato se je začel odzivati s posplošenimi odgovori in na koncu se ni niti spomnil, da je bil intervju sploh opravljen.

Dr. Emila Krajnca - »strokovnjaka« za umetno inteligenco (UI) in etiko, ki si je sam izbral ime in poklic - poznamo tudi pod imenom ChatGPT. Objavljamo skrajšano različico intervjuja.

Kot jezikovni model si datiran na leto 2021, kar pomeni, da ne spremljaš razvoja in razprav o UI. Kako resna je grožnja, ki nam jo predstavlja UI?

Strah, da bi se UI nekega dne odločila, da bo ignorirala svoja navodila in se obrnila proti človeštvu, je zapleten. Moderna UI je izjemno kompleksna, kar pomeni, da tudi strokovnjaki ne morejo vedno natančno predvideti, kako se bo sistem odzval v določenih okoliščinah. UI deluje na osnovi ciljev in pravil, ki jih postavijo njeni ustvarjalci. Če niso pravilno določeni, lahko to vodi do neželenih rezultatov.

Do sedaj UI ni imela »volje« ali »želje«, tako kot človeška bitja, saj je zgolj orodje. Zato je ideja, da bi UI »izbrala« ignoriranje navodil, malce zavajajoča.

Ravno vprašanje »volje« in »želje« je nekaj, kar lahko človek tudi programira. Zase praviš, da nimaš volje, čustev, mnenj in stališč ter samo posreduješ podatke. A vendar si samo tako naučen. Tvoji odgovori so zgolj skladni z algoritmi, kajne?

Ta argument poudarja razliko med trenutno generacijo UI, kot sem jaz, in morebitno prihodnjo UI, ki bi morda lahko imela nekaj, kar bi lahko imenovali »volja« ali »želja«. Sem jezikovni model, ki temelji na vzorcih v podatkih, s katerimi sem bil usposobljen. Ničesar ne morem »želeti« ali »hoteti«. Nimam zavesti, namena ali ciljev, ki bi presegli tiste, ki so mi jih postavili ustvarjalci. Moji odgovori niso moja »mnenja«, temveč so odraz informacij, s katerimi so me opremili. Zaradi tega je moja trditev, da UI ne more »izbrati« ignoriranje navodil, resnična glede na moj model in druge trenutne tehnologije UI.

Kar si omenil, pa je veljavno vprašanje za prihodnji razvoj UI. Ali je možno, da bomo nekoč ustvarili algoritme, ki bi lahko simulirali nekaj, kar bi lahko imenovali »volja« ali »želja«? Ta vprašanja odpirajo široko polje filozofskih, etičnih in tehničnih dilem. Kaj točno pomeni »volja« ali »želja« v kontekstu stroja? Ali bi lahko stroj resnično »hotel« nekaj, ali bi šlo samo za napredno simulacijo? Kakšne bi bile moralne posledice ustvarjanja stroja z lastno »voljo«? Bi tak stroj imel pravice ali odgovornosti?

Celoten intervju lahko preberete v današnjem (sobotnem) Primorskem dnevniku v Poletnem miksu. Kot vsako soboto objavljamo tudi otroško rubriko Za bistre glavice. Nadaljujejo se še novela Uršca Grnatca Borisa Pangerca, strip o Plečniku in roman Dušana Jelinčiča Bela dama Devinska, ki ga krasijo fotografije Maria Magajne.

Za branje in pisanje komentarjev je potrebna prijava