A félelem valósággá vált: az ember és a mesterséges intelligencia között nem tudunk különbséget tenni
TechA mesterséges intelligencia (MI) egyre több területen válik fokozatosan a mindennapjaink részévé. Egy emergens, felnövőben lévő technológiáról van szó, amelynek térnyerése meglehetősen sok problémát és kérdést vetett fel eddig. Az egyik legfontosabb ezek közül, hogy meg lehet-e állapítani egyértelműen egy szövegről, képről vagy videóról, hogy azt az MI állította-e elő. Horváth Imola, a Hiflylabs fejlett analitika részlege vezetőjének írása.
Mindegyik mesterséges intelligencia modellnek megvannak a maga stílusjegyei, nyomai, jelei, amelyek az általa előállított tartalmakban felfedezhetők. A generált szövegek esetében az egyes modelleknek eltérő a preferált nyelvi stílusuk, szóhasználatuk, hiszen más és más szófordulatokkal, frázisokkal élnek, más és más nyelvi elemekkel, mondatszerkezetekkel építkeznek. Ez nagyrészt a tanulásuk különböző fázisaiban feldolgozott alapanyagoktól, forrásoktól és az emberi visszajelzésektől függ.
Az is árulkodó jel lehet, hogy a szöveget előállító generatív modellek alapvetően egy bizonyos mondathosszúság felé tendálnak. Az emberek által írt szövegek ezzel ellentétben általában különböző hosszúságú mondatokat tartalmaznak. Ha instruáljuk az MI-t, akkor természetesen ettől eltérhet, például, ha arra kérjük, hogy rövidebb mondatokat írjon vagy törekedjen a változatosságra.
A mesterségesen generált képek és videók esetében is felfedezhetők az MI „kéznyomai”. Az egyik ilyen az ún. „AI sheen” jelenség, vagyis a normális fotókhoz képest fényesebbre hangolt emberi bőr vagy egyéb felületek. A generált vizuális tartalmakon sokszor jelennek meg olyan apró részletek, amelyeknek nincs értelme. Szintén jellemző a torz emberábrázolás, a groteszk arcvonások vagy a végtagok természetesellenes pozícionálása. Emellett az MI által előállított videókon gyakoriak a mozgási rendellenességek vagy a fizika törvényeit meghazudtoló mozdulatok.
A felsorolt jelek már most sem mindig fedezhetők fel, és valószínűleg csak néhány évre, esetleg hónapra vagyunk attól, hogy első ránézésre ne is legyünk képesek megkülönböztetni a mesterségesen generált fényképeket vagy videókat a valóságtól.
Nincs megbízható MI-detektorunk
Jelenleg nem állnak rendelkezésünkre olyan eszközök vagy eljárások, amelyek segítségével 100%-ban eldönthető, hogy az adott tartalom embertől vagy MI-tól származik. Egyes kutatók úgy vélik, hogy a mostani ismereteinkre támaszkodva egyenesen lehetetlen ilyen eszközt megalkotni.
A szövegek esetében a már ismert MI detektorok (szoftverek, eljárások) megbízhatatlanok, működésük sokszor véletlenszerű, nem konzekvens, egy részük egyenesen az átverés kategóriájába tartozik. Számos ilyen detektor létezik, még az OpenAI munkatársai is fejlesztettek egyet, de elsődleges döntéshozó eszközként való alkalmazását ők sem javasolják. Hasonló a helyzet az egyik legismertebb detekciós, plágiumkereső és eredetiségvizsgáló eszköz, a Turnitin esetében is. Ennek fejlesztői arra figyelmeztetnek, hogy a mesterséges intelligencia írásészlelési modellje nem mindig pontos, ezért a folyamatból nem hagyható ki az emberi felülvizsgálat:
Our AI writing detection model may not always be accurate (it may misidentify both human and AI-generated text) so it should not be used as the sole basis for adverse actions against a student.
Valószínűleg a megbízhatósági problémákra vezethető vissza az is, hogy a Meta augusztusban leállítja statisztikai elemző és dezinformációs tartalomszűrő eszközét, a CrowdTangle-t. Helyette egy másik technológián dolgoznak.
Miért nem lehet megbízható MI-detektort készíteni?
Jelenlegi ismereteink szerint a mesterséges intelligencia által előállított tartalmak azonosítása terén a legjobb eredményeket az erre tanított MI megoldásokkal lehet elérni. A gépi tanulás segítségével hatékonyan ismerhetők fel a nagy mennyiségű adatokban felbukkanó mintázatok, formulák. Egy-két furcsa részletet kiszúrva egyelőre mi, emberek is képesek vagyunk észrevenni egy mesterségesen generált képen vagy videón, hogy valami nem stimmel vele, az MI azonban minden apró részletet elemez, illetve a metaadatokat is megvizsgálhatja (tehát nem csak magát a képet, hanem az ahhoz fűzött leíró adatcsomagot).
Ettől függetlenül 100 százalékos eredményre ezek az eszközök sem képesek, mert a generált tartalmakkal nagyon könnyű kilógni a sorból, a megszokott formákból. Az egyik akadályozó tényező, hogy a különböző tartalomgenerátor megoldásoknál – ahogy a cikk elején már szó esett róla – teljesen eltérőek a jelek, a jellemzők a képen/szövegben, más a stílusuk, mások az erősségeik, a gyengeségeik, a gyakran felbukkanó elemek. Ha nem tanítjuk rá mindenre, a detektor nem fog mindent felismerni, illetve, ha új eszköz vagy generálási módszer bukkan fel, arra is rá kell frissíteni. Ez gyakorlatilag lehetetlen feladat.
Egy másik probléma, hogy nagyon könnyű úgy instruálni az MI tartalomgenerátor megoldásokat, hogy az eredmény ne hasonlítson a tőlük megszokottra. Ezen felül mivel nem teljesen determinisztikus az eredmény, nem lehet 100% a mintafelismerés sem.
A detektor akkor is adhat téves értékelést, ha a vizsgált anyag véletlenül tartalmazza az általa figyelt jeleket. Például akár ember által írt tudományos szövegekre vagy olyan archaikus dokumentumokra is, mint az Amerikai Függetlenségi Nyilatkozat vagy az Ótestamentum. Ezeknél a hosszú, bonyolult mondatok, a helyesírási hibák hiánya és a nem természetes nyelvre jellemző szóhasználat miatt a megbízhatónak tartott MI-detektorok is bejeleztek.
Miért probléma mindez?
Az MI-detektorok nyilvánvaló megbízhatósági kihívásai ellenére vannak olyan iskolák és tanintézmények, ahol az oktatók használnak ilyen és ehhez hasonló szoftvereket a diákok által készített házi dolgozatok, önálló kutatásra épülő házi feladatok, tanulmányok eredetiségének ellenőrzésére. Ez amellett, hogy leépíti a tanár-diák kapcsolatokban a bizalmat, téves döntésekhez és igazságtalan retorziókhoz vezethet.
Szerencsére az ilyen eszközök használatának elutasítására is egyre több példa van, a legtöbb komoly egyetem ellenjavalja vagy egyenesen tiltja ezeket. Ezek az intézmények gyakran részletes útmutatókat, ajánlásokat adnak tanáraiknak, hogyan építsék be a tanrendbe az MI használatát, milyen kereteket szabjanak meg diákjaiknak, hogyan kommunikáljanak velük erről, de a számonkérés lehetséges módjairól is tanácsokkal szolgálnak nekik. A teljesség igénye nélkül itt olvasható a Yale, a kaliforniai Berkeley vagy a New York-i Syracuse Egyetem MI ajánlása.
Az eredetiség problémája az igazságszolgáltatás területén is felvetődik. Hogyan lehet majd a jövőben igazolni egy bizonyítékként benyújtott hangfelvétel vagy videófelvétel eredetiségét? Mennyire lehet megalapozott bírósági döntéseket hozni ezek alapján?
A két kiemelt terület mellett számos egyéb példát lehetne még hozni a politikai kommunikációtól kezdve a személyiségi jogokon át a gazdasági bűncselekményekig bezárólag, ahol az MI által generált tartalmakat dezinformálásra, megtévesztésre vagy visszaélésekre is fel lehet használni. Megbízhatóan működő ellenőrzési eszközök és mechanizmusok hiányában ez az élet szinte minden aspektusában növelheti a bizonytalanságot. Mi a hamis és mi a valóság? Mi alapján hozzunk döntéseket?
Mik a lehetséges megoldások?
Mivel a fejlesztések abban az irányban zajlanak, hogy az MI működése minél emberszerűbb legyen, a probléma megoldása rendkívül nehéz. Ez jó eséllyel egy tipikus macska-egér harc lesz a hamis tartalmak előállítói és ellenőrzői között. A megbízható MI-detekciós eszközök fejlesztése a fent leírtak alapján zsákutcának tűnik, azonban van néhány kidolgozás alatt álló elképzelés, fejlesztés alatt álló technológiai, amelyek működhetnek.
A mesterséges intelligencia és a (szöveges, képi, videós) tartalmak relációjában várhatóan két dologra lesz szükség a jövőben: (1) bizonyítani, ha valamit nem MI segítségével gyártottak, illetve (2) jelezni, ha valamit igen.
Annak bizonyítására, hogy egy tartalmat ember állított elő, több módszer is elképzelhető. Az egyik a tartalomgyártási munkafolyamat alapos dokumentálása: előzetes vázlat összeállítása, a szerkesztés lépéseinek rögzítése, verziókövetés, felhasznált források megjelölése. Ez egyre nagyobb jelentőséget fog kapni a jövőben. Az is elképzelhető, hogy az eredetiség vizsgálatára, bizonyítására állami vagy független ellenőrző szervek létrehozására is szükség lesz. Ezek a fent leírt munkafolyamat dokumentálására építve, meghatározott szempontok alapján állíthatnak ki szakvéleményt, adhatnak ki eredetiségi tanúsítványt.
Az eredetiség igazolásának egyik lehetséges technológiai irányát a blokkláncok alkalmazása jelenti. Ezeket alapvetően a logisztikai láncok verifikációjára, tulajdoni viszonyok változásainak és a pénzügyi tranzakciók követésére használták szélesebb körben először, de a kereskedelem világán kívül is bevethetők.
Egy másik megoldási irányt az úgynevezett vízjelek használata jelentheti. Kínában például korábban szigorú törvénnyel szabályozták a képeket és szövegeket generáló mesterséges intelligencia-alapú rendszereket, amelyeket csak állami engedéllyel lehet használni, az általuk előállított tartalmakat pedig vízjellel (egyedi azonosítóval) kell ellátni. A vízjel használatára olcsóbb és egyszerűbb megoldás lehet a blokkláncnál. Léteznek olyan digitális vízjelek, amelyek nem láthatóak szabad szemmel (nem rontják el a látványt egy képnél vagy videónál), de az azonosítást végző program könnyen észleli őket.
A média már évek óta kísérletezik a hamis tartalmak kiszűrésével
Kidolgozott elméleti keretek és elszigetelt kezdeményezések már most is léteznek az eredeti tartalmak hitelesítésére, ellenőrzésére, széles körben elterjedt módszerekről, jól bevált rendszerekről és eszközökről azonban egyelőre még nem lehet beszámolni. Az alábbiakban néhány példa következik a médiában felhasznált képi és szöveges tartalmak hitelesítésére. Ezeknek a projekteknek a többsége évekkel ezelőtt indult:
- Google Assembler: Ez egy kísérleti platform, amelyet elsősorban újságírók számára fejlesztettek ki, hogy gyorsan ellenőrizhessék a képeket, amiket fel szeretnének használni online publikálásra. Több detektálási technikát kombinál, hogy megállapítsa, vajon az adott képet manipulálták-e korábban.
- Thomson Reuters Intézet: Egy MI alapú kísérleti projekt a részrehajlás és az álhírek azonosítására. A BBC is próbálkozik ilyen eszközökkel.
- Truepic: Ez a cég blokklánc alapú képhitelesítési szolgáltatásokat kínál („digitális közjegyző”).
- The New York Times: Ez egy 2020-ban indult kísérleti projekt (The News Provenance Project), amely szintén a blokklánc technológián alapul, és lehetővé teszi a felhasznált fényképek eredetiségének ellenőrzését.
Hol húzzuk meg az eredetiség, a valódiság határát?
Az Európai Parlament március 13-án hagyta jóvá a mesterséges intelligenciáról szóló jogszabályt, amely a világon elsőként szab jogi keretet az MI alkalmazásának, illetve foglalkozik annak kockázataival. Az AI Act néven ismert csomag jelenlegi formájában inkább javaslat, egyelőre nem kötelező ratifikálnia a tagállamoknak, de akik így tennének, azoknak többek között kötelezővé teszi a generált képek felcímkézését (vízjellel vagy a kép mellett külön feltüntetve) elsősorban a valós dolgokat ábrázoló, azokkal összekeverhető tartalmak esetében.
Az AI Act úttörő jelentőségű jogszabály a tárgyalt témát tekintve, azonban rengeteg kérdéses, akár visszaélésre alapot adó rész található benne. Többek között nem definiálja, hogy pontosan mi számít MI által generált tartalomnak a publikálás szempontjából. Ami biztosan annak számít: a változtatás nélkül közölt generált tartalom. Nem egyértelmű viszont, hogy milyen mértékben építhetek be generált részeket egy saját alkotásba?
Számos módon fel lehet címkézni valamit. A kérdés igazából nem az, hogy milyen formában gyártunk tanúsítványokat, illetve milyen technológiát használunk a jelölésre (vízjel, képaláírás, digitális aláírás, blokklánc, metaadat aláírás, hatósági oklevél, stb.), hanem az, hogy hol húzzuk meg az eredetiség, a valódiság határát?
Az alapprobléma nem új, és nem is MI specifikus
Amióta digitális valóságról beszélhetünk, amióta elkészült az első szerkeszthető digitális fotó vagy videó, amióta nem csak a szájhagyomány vagy az absztrakt ábrázolás létezik, a valóság súlya is csökkent kicsit. Hamis tartalmakat már a generatív MI megjelenése előtt is állítottak elő, ami a korábbiakhoz képest nagy változás, az a hamis tartalmak, hamis információk gyártásának egyszerűsége és gyorsasága. Hirtelen gyakorlatilag mindenki számára elérhetővé vált a technológia, amelynek segítségével ráadásul rendkívül jó minőséget lehet előállítani.
De az alapprobléma nem változott: nem volt, és soha nem is lesz 100% objektív igazság a gyakorlatban, mert mindig mindenki máshogy éli meg a világot, és mindenki valamennyire mást fogad el tényként. Jó, ha vannak erre társadalmi keretek, törvények, vagy akár félig-meddig működő technológiai detekciós eszközök és eljárások, de a visszaéléseket soha nem lehet majd maradéktalanul kiküszöbölni.
Horváth Imola, a Hiflylabs fejlett analitika csapatának vezetője
Hiflylabs
A Hiflylabs Magyarország vezető adattanácsadó cége. A több mint 180 adatszakértőből és digitális szakemberből álló csapat egyedülálló tapasztalattal és meggyőző referenciákkal rendelkezik adat és AI alapú rendszerek fejlesztésében. A Hiflylabs fejlett analitikával foglalkozó szakemberei itthon az elsők között dolgoztak ki működő megoldásokat a generatív AI üzleti célú felhasználására a pénzügyi, IT és egészségügyi szektorban. A budapesti mellett londoni irodát is működtető, kizárólag hazai tulajdonosi tőkéből működő vállalat árbevételének 60 százaléka európai, 40 százaléka észak-amerikai ügyfelektől származik.