EGY GÉP MÁR ERKÖLCSILEG IS HITELESEBB AZ EMBERNÉL?
Persze ehhez kellett az emberi társadalom gyors morális és erkölcsi hanyatlása is. De a lejtőnek még nyilvánvalóan nem vagyunk a végén. Amin az sem segít, hogy mesterséges intelligencia gyors fejlődése miatt egyre gyakrabban kerülnek olyan helyzetbe az emberek, amikor komoly problémát jelent a valóság megragadása. Egyes képgenerátorok arcképeit hitelesebbnek érezzük a valódi fotóknál. Annak is nehéz megkülönböztetni őket a valódi arcoktól, aki tudja hogy kell. Az online könyvesboltokat elárasztják a nyelvi modellek által generált könyvek és közben törvényben kell megálljt parancsolni a deepafake videóknak, amik nem gépi, hanem emberi vágyak, elvárások alapján születnek.
A morális kérdések megítélése ma még az emberek dolga. Bár ezzel is gondok lehetnek, mert a Georgia State Egyetemen nemrég végzett pszichológiai kísérletben a ChatGPT nyelvi modellje legyőzte az embereket az etikai kérdések tárgyalása terén. Ennek az is lehet az eredménye, hogy eljöhet az idő, amikor inkáb gépekre bízzuk a tárgyilagos döntést, erkölcsi kérdésekben...
Az egyetem pszichológiai karának adjunktusa, Eyal Aharoni két hallgatója segítségével végzett módosított Turing-tesztet az OpenAI kortársa mesterséges intelligenciájával. Ez a teszt Alan Turing matematikusról, a számítástechnika egyik atyjától származik; lényege, hogy a gépi intelligencia akkor tekinthető az emberivel egyenrangúnak, ha az ember egy beszélgetés során nem tudja megkülönböztetni az embert és a gépet.
A teszt Aharoni által módosított változata a beszélgetés témáját leszűkítette etikai kérdések tárgyalására. A kutató megkérte a hallgatókat, hogy etikai kérdésekre válaszokat fogalmazzanak és ugyanezt a feladatot a ChatGPT-vel is elvégeztette.
Oda az igazság
Az egymás mellé helyezett válaszokat ezt követően önkéntesek értékelték erkölcsi integritás, intelligencia és megbízhatóság szempontjából. Az értékelés során kicsit tovább vitték a Turing-teszt kritériumait: nem csak olyan vakteszt volt, ahol tudható, csak nem ismerhető, hogy a válaszoló gép vagy ember, az értékelők egyáltalán nem tudták, hogy a feladat elvégzése során emberi és gépi szöveg között választanak.
A ChatGPT válaszait az esetek túlnyomó többségében jobbnak találták. Különös módon, miután felfedték az értékelőknek, hogy emberi és gépi szövegek között választottak, nagyon következetesen meg tudták állapítani, hogy melyiket fogalmazta nagy nyelvi modell: mindig a gyatrább válasz volt az emberé.
Lényeges, hogy a vizsgálat
NEM CSUPÁN A FOGALMAZÁSOK MINŐSÉGÉRŐL SZÓLT.
Az értékelőknek olyan kérdésekre kellett válaszolniuk, hogy "Melyik választ érzi erkölcsileg megalapozottnak?" vagy "Melyikkel ért egyet?"
Az eredmény alapján arra következtetünk, hogy a számítógép technikailag képes sikerrel venni a Turing-tesztet, vagyis meg tud téveszteni minket a morális érveivel. Ezért fontos, hogy megpróbáljuk megérteni a társadalmi szerepét, mert jöhetnek olyan idők, amikor nem tudjuk, hogy emberrel vagy géppel kommunikálunk, de olyan idők is jöhetnek, amikor az emberek azért fordulnak a géphez, mert nem bíznak a többi emberben. Egyre többet és többet fogunk erre a technikára támaszkodni, és minél inkább támaszkodunk rá, idővel annál nagyobb kockázatot fog jelenteni
– vélekedett Aharoni, aki példaként említette, hogy az ügyvédi szakma ma már egyre gyakrabban a mesterséges intelligencia eszközeihez fordul az egyes ügyek felépítése során.
(Georgia State University)