Az adatok időállapota: késletetett. | Jogi nyilatkozat

Az MI egy politikai svájci bicska

Elemzések2024. júl. 24.Horváth Imola

2024-ben közel 40 különböző országban tartanak politikai választásokat, amelyek során a Bloomberg becslése szerint a világ népességének 41%-a adhatta, adhatja le a voksát valamilyen módon. Június elején fejeződött be az indiai parlamenti választás, túlvagyunk az Európai Parlamenti választásokon és az önkormányzati választásokon, nemrég választott az Egyesült Királyság és Franciaország, de idén kerül sor az amerikai elnökválasztásra is. Nagy kérdés, hogy a mesterséges intelligencia által kínált egyre fejlettebb eszközök hogyan és milyen mértékben befolyásolhatták, befolyásolhatják a voksolások végeredményét? Horváth Imola, a Hiflylabs fejlett analitika részlege vezetőjének írása.

A politikai kommunikáció és a választási kampányok számítottak a mesterséges intelligencia (MI) egyik fő felhasználási területének már a generatív modellek megjelenése előtt is.

Az elmúlt bő egy évtizedben más technológiák formájában számos esetben alkalmazták ezeket a megoldásokat és eszközöket. A politikai kampányok régóta az adatok elemzésén alapulnak, vagyis adatvezérelten működnek, elég csak a közvélemény-kutatásokra gondolni.

Nem számít újkeletű technikának a közhangulat mérése, az úgynevezett

sentiment-elemzés,

illetve a közösségi médiahasználat elemzése, az ebben rejlő mintázatok azonosítása sem.

Ez utóbbihoz kapcsolódóan a manipulációt,

az MI indukálta véleményformálást is ki kell emelni.

Gyakorlatilag a 2010-es évektől kezdve az online felületeken és a közösségi médiában a bemért mintázatok alapján automatikusan működő, intelligens algoritmusok etetik a létező előítéleteinket és próbálnak befolyásolni bennünket döntéseinkben, véleményünk alakításában.

Részben ennek következtében lett egyre polarizáltabb, egyre megosztottabb a társadalom, ami a közbeszéd tematizálásának végletességében, a kommunikált üzenetek egyszerűsödésében, valamint az emberek közélethez és politikához fűződő viszonyának megváltozásában is megfigyelhető.

Finomhangolt politikai tartalmak automatizált tömeggyártása

A korábbiakhoz képest fontos változás, hogy a fejlett generatív modellek megjelenésével sokkal könnyebb és gyorsabb tartalmat gyártani különböző formátumokban, és azokat politikai célokra is felhasználni.

A fent leírt MI technikákkal kapott eredményekre és elemzésekre építve minden eddiginél egyszerűbbé vált a választóknak szánt üzenetek előállítása és finomhangolása, legyen szó egy kampánybeszédről, egy blogbejegyzésről, egy Facebook kommentrőlposztról, egy szlogenről vagy egy videóról.

A finomhangolt, választási körzetekre, szűkebb közösségekre vagy akár egyénekre szabott tartalmak segítségével

sokkal hatékonyabban lehet megszólítani a célcsoportokat, ezzel is erősítve a személyes elkötelezettséget. A generatív modellek jól használhatók az online felületeken és a közösségi médiában történő kommunikációban is, akár egy természetes emberi nyelven, az adott jelölt stílusában kommunikáló chatbot formájában. A folyamat ráadásul teljesen automatizálható, a politikai tartalmak célzott és automatizált tömeggyártásához most már minden technikai feltétel adott.

Manipulálás és megtévesztés

Szigorú szabályozás és megfelelő ellenőrzési eszközök hiányában lényegében csak a pártok leleményességén, szándékán vagy visszafogottságán múlik, hogy mennyire élnek vissza a mesterséges intelligencia adta lehetőségekkel.

Ezek ugyanis számos eszközt kínálnak a választók manipulálására és megtévesztésre, kétségek ébresztésére, illetve a politikai ellenfelek lejáratására.

Mostantól sokkal könnyebb a valóságtól nem egyértelműen megkülönböztethető tartalmat gyártani és azt politikai célokra használni. Különösen igaz ez a komoly tőkével rendelkező politikai szereplőkre, akik ezeket a módszereket felskálázva nagyobb hatást érhetnek el, mint korábban valaha.

Erre lehet példa az álhírek gyártása, amelyeket az új MI technológiák segítségével – megadott szempontok alapján előállítva – nagy mennyiségben, több változatban és több felületen is lehet terjeszteni. De ugyanez a helyzet a közösségi médiacsatornákon publikált politikai témák és tartalmak alatt megjelenő kommentek tömeges generálása terén is.

Deepfake tartalmak

Külön érdemes kiemelni a deepfake technológiát,

vagyis az MI által generált olyan hamis fotókat, hanganyagokat vagy videófelvételeket, amelyeken létező emberek digitális hasonmásai szerepelnek. Ezen a módon bárki ábrázolható bármilyen helyzetben, és bárkinek a szájába adható bármilyen mondanivaló úgy, hogy az a célközönség tagjaiban ne keltsen gyanút.

Ezek az eszközök elsősorban a nagy világnyelveken működnek igazán jól, de már magyarul is lehet velük megfelelő minőségű, hihető hang- vagy akár videófelvételeket generálni.

A deepfake tartalmak politikai felhasználására sajnos egyre több példát lehet felsorolni. Tavaly februárban a chicagói polgármesterválasztás során az egyik jelöltről terjedt el egy olyan, MI által generált hamis videó, amelyben az illető a halállal végződő esetekben is helyeselte a rendőri brutalitást. Bár az anyagról hamar kiderült, hogy nem valós, jó eséllyel rontotta az illető esélyeit, aki végül el is bukta a választást.

Egy másik, viszonylag friss példa a márciusi Moszkva melletti terrortámadással kapcsolatos deepfake videó, amelyen az ukrán nemzetbiztonsági tanács elnöke olyan dolgokat állít, amelyeket a valóságban soha nem ejtett ki a száján.

Felértékelődik a józan ész szerepe

Egyre többen, köztük kutatók, civil szervezetek, politikusok és állami vezetők fejezik ki aggodalmukat azzal kapcsolatban, hogy milyen veszélyeket rejt, milyen problémákat okozhat a mesterséges intelligencia a választási folyamatokban, és miként sérülhetnek ennek következtében a demokratikus alapelvek.

Aggodalmuk részben arra vezethető vissza, hogy egyelőre nem állnak rendelkezésünkre olyan megbízható eszközök, amelyek segítségével egyértelműen meg lehetne állapítani, hogy a kérdéses tartalmakat, videókat, hangfelvételeket vagy fényképeket az MI állította elő vagy sem.

Problémát jelent az is, hogy

a mesterséges intelligencia használatának nemzetközi szabályozása még kezdeti szakaszban tart. Ezen a téren az Európai Unió jár az élen. Jó hír, hogy az erről szóló jogszabályokról az Európai Tanács elnöksége és az Európai Parlament tárgyalói ideiglenes megállapodásra jutottak, rossz hír viszont, hogy a csomag várhatóan csak 2025-ben léphet hatályba.

Óhatatlanul felmerül a kérdés, hogy szabályozás és hatékony MI-detekciós eszközök hiányában hogyan védekezhetnek a választók a mesterségesen előállított hamis, manipulatív tartalmakkal szemben?

Olyan időket élünk, amikor a mesterséges intelligencia, tehát az MI mellett egyre nagyobb jelentősége lesz a TI-nek, vagyis a természetes intelligencia használatának. A józan paraszti észnek, a kritikus gondolkodásnak, a minél szélesebb körű tájékozódásnak, a források ellenőrzésének. Nem szabad minden információt feltétel nélkül elfogadnunk, ami szembejön velünk az online térben. Meg kell próbálnunk a dolgok mögé nézni, és sokkal óvatosabbnak lenni.

Emellett fontos az is, hogy megismerjük a technológiát. Tisztában kell lennünk vele, hogy mire képes a mesterséges intelligencia, milyen eszközöket és lehetőségeket kínálnak a fejlett generatív modellek. Ahogy azzal is, milyen veszélyeket és kockázatokat rejtenek, és milyen módon lehet visszaélni használatukkal.

Horváth Imola, a Hiflylabs fejlett analitika csapatának vezetője