NEMZETI KÖZSZOLGÁLATI EGYETEM
Államtudományi és Nemzetközi Tanulmányok Kar

Mediatizáció és társadalom: igazság, bizalom, technológia

Mediatizáció és társadalom: igazság, bizalom, technológia

Mediatizáció és társadalom: igazság, bizalom, technológia (Mediatization and Society: Truth, Trust, Technology) címmel rendezett kétnapos nemzetközi konferenciát a Nemzeti Közszolgálati Egyetem Tudomány és Társadalom Kutatócsoportja, valamint a European Communication Research and Education Association (ECREA) Mediatizáció Szekciója október 9-én és 10-én, az NKE John Lukacs Társalgójában.

A konferenciát Falyuna Nóra, a Tudomány és Társadalom Kutatóműhely vezetője, nyitotta meg, aki üdvözölte a résztvevőket, és megköszönte az ECREA Mediatizáció Szekciójának a közös konferenciaszervezés lehetőségét, amely a Kutatóműhely kiemelt nemzetközi tevékenységei sorába jól illeszkedik. Bartóki-Gönczy Balázs, a Nemzeti Közszolgálati Egyetem Államtudományi és Nemzetközi Tanulmányok Karának tudományos dékánhelyettese köszöntőjében a Tudomány és Társadalom Kutatóműhely tevékenységét méltatta, kiemelve, hogy ez a csoport negyedik rendezvénye, amely nemzetközi résztvevőkkel vizsgálja az MI kulturális és demokratikus hatásait. Hangsúlyozta, hogy a félretájékoztatás korszakában, ahol a bizalom és az igazság megkérdőjeleződik, a konferencia témája – a közbeszédet aláásó összeesküvés-elméletek és a társadalmi polarizáció – kiemelten fontos. A rendezvény alkalmat adott Fehér Katalin Generative AI, Media, and Society(Generatív MI, média és társadalom) című, a Taylor & Francis kiadó gondozásában megjelent könyvének magyarországi bemutatására, amely a generatív MI társadalmi hatásait elemzi.

Fehér Katalin, az ECREA Mediatizáció Szekció társelnöke és a Nemzeti Közszolgálati Egyetem docense a szervezők munkáját méltatta. Köszönetet mondott az esemény operatív megszervezéséért, valamint a konferencia szakmai tartalmának és inkluzív jellegének kialakításáért. Fehér Katalin kiemelte a Kutatóműhely és a Q2-es besorolású KOME együttműködését, amelynek köszöngetően 2026-ban különszámot jelentetnek meg a szimpózium témáiról.

Ezt követően Simone Natale, a Torinói Egyetem docense Mesterséges intelligencia és a megtévesztés automatizálása című nyitóelőadásban a generatív mesterséges intelligencia (MI) térnyerésének hatásait vizsgálta a kommunikációs folyamatok automatizálására nézve. Kiemelten vizsgálta a csalás fogalmának átalakulását az MI és a digitális média korában, különös tekintettel a Replika nevű MI-alapú társalkalmazásra. A Replika, amely nagy nyelvi modelleken alapul, hasonlóan a ChatGPT-hez, nem pusztán technológiai eszköz, hanem olyan platform, amelynek célja a társadalmi interakció, és gyakran kifejezetten az erotikus beszélgetés. A felhasználók letöltik az alkalmazást, létrehoznak egy avatárt, meghatározzák annak nevét, nemét és jellemzőit, majd társalgásba kezdenek vele. A digitális média és MI elismert kutatója szerint ez az alkalmazás jól példázza azt az ellentmondásos dinamikát, amely az MI és a felhasználók közötti kapcsolatot jellemzi: bár a felhasználók tudják, hogy egy érzelem- és empátiamentes szoftverrel kommunikálnak, mégis mély, érzelmileg jelentős kapcsolatot alakítanak ki vele. Ez a jelenség nem egyszerű hiszékenység, hanem egy köztes állapot, ahol a tudatosság és az érzelmi bevonódás egyszerre van jelen, újragondolásra késztetve a csalás hagyományos fogalmát.

Simone Natale a csalást kommunikációs jelenségként definiálta, amely jelek és reprezentációk használatával hamis benyomást kelt, de többcsatornás és sokrétű, a technológia fejlődésével folyamatosan változik. Az MI kezdettől fogva fontos kérdéseket vet fel a csalás fogalmát illetően, amit jól mutat Alan Turing 1950-ben készült tesztje is. Turing nem azt kérdezte, hogy a gépek képesek-e gondolkodni, hanem egy játékot javasolt:  egy kérdező anélkül beszélget valakivel vagy valamivel, hogy látná, és el kell döntenie, emberrel vagy géppel kommunikál-e. Ha a gép meggyőzi a kérdezőt, hogy ember, átmegy a teszten, ami lényegében a csalás sikerét jelenti. Simone Natale hangsúlyozta, hogy a Turing-teszt történetében a programozók gyakran manipulatív stratégiákat alkalmaztak, például sértő válaszokkal terelték el a figyelmet a gép korlátairól, hogy emberibbnek tűnjön.

Az előadó három kulcsfontosságú szempontot emelt ki, amelyek miatt újra kell gondolni a csalást az MI korában. Először is, a csalás nem ellentéte a normális észlelésnek, hanem annak szerves része. Példaként említette, hogy egy erdőben sétálva egy furcsa alakú fát állatnak láthatunk, ami evolúciós mechanizmus a túlélés érdekében. A közösségimédia-platformok algoritmusai arra késztetik a felhasználókat, hogy alábecsüljék, miként használják fel adataikat. Az MI esetében a felhasználók tisztában vannak azzal, hogy például a ChatGPT szoftver, mégis szociális kereteket vetítenek rá, amit az olyan tervezési döntések erősítenek, mint az „én” névmás használata vagy az érzelmi tónus, amely bizalmat épít. Simone Natale megkülönböztette az erős csalást, amikor egy gépet embernek hisznek, a banális csalástól, amelyben a felhasználók tudatosan szociális jelentéseket társítanak a géppel való interakcióhoz.

Másodszor, az MI automatizálja a csalást az emberi tudás gyűjtése és beépítése révén. A modern média történetében, például a mozi esetében, az emberi érzékelés ismerete – mint az, hogy gyors képek a mozgás illúzióját keltik – tette lehetővé a technológia fejlesztését. Ma a deep learning hatalmas adatmennyiséget elemez, például emberi chatszövegeket, hogy imitálja a közösségi jelleget vagy kreativitást. A Replika például emberi beszélgetésekből tanulja a „múlt” mesélését, hogy hitelesebbnek tűnjön. Végül, Simone Natale az ágencia kérdését vizsgálta, amely túlmutat a szándékosságon. A csalás nem csak a hamis információ (szándékos) és a téves információ (nem szándékos) közötti különbségről szól, hanem egy háromszög eredménye, amelyben a csaló, az algoritmus és a becsapott egyaránt aktív szerepet játszik. Az algoritmusok szándék nélkül is ágenciával, cselekvőképességgel bírnak, például a nagy nyelvi modellek gyakran „hallucinálnak”, vagyis hamis információkat gyártanak, mert nyelvhez, nem pedig a valósághoz kötődnek.

Simone Natale azt a következtetést vonta le, hogy mivel a digitális platformok és az MI normalizálják a csalást, a lényeg nem az, hogy megértsük, hogy jelen van-e csalás, hanem az, hogy mik az eredmények, és milyen lehet a különböző megtévesztő formák potenciális hatása. A kommunikáció automatizálása magában foglalja a megtévesztés automatizálását is. Szükség van arra, hogy túllépjünk a szándékosság szűk fókuszán.

Az előadást egy panelbeszélgetés követte, amelyet Tomasz Gackowski, az ECREA Mediatizáció társelnöke és a Varsói Egyetem professzora moderált, és amelyen Fehér Katalin Generative AI, Media, and Society című könyvének bemutatója is helyet kapott. A panel résztvevői Simone Natale, Bieke Zaman, a KU Leuven professzora, Demeter Márton, az NKE kutatóprofesszora és Fehér Katalin voltak. Tomasz Gackowski Simone Natale-hoz intézett kérdéssel indította beszélgetést: hogyan különbözik az MI által gyorsított csalás a hagyományos álhírektől, és hogyan befolyásolja az információterjesztés léptékét? Simone Natale hangsúlyozta, hogy a szándékosság helyett az ágenciára kell fókuszálni, mivel a szoftverek dinamikái gyakran nem köthetők egyértelmű szándékhoz. Az MI átláthatósága – különösen a nagy nyelvi modellek esetében, amelyek működése még a fejlesztők számára is részben átláthatatlan – tovább bonyolítja a helyzetet. Simone Natale szerint a modelleket természeti jelenségként tanulmányozzák, ami új megközelítést igényel.

Fehér Katalin könyvére térve a szakemberek a generatív MI evolúciós ugrásként való értelmezését vitatták meg. Fehér Katalin szerint az MI által létrehozott szintetikus tartalmak – például szövegek, képek vagy videók – új minőséget hoznak, amely a humán és gépi, úgynevezett együttműködő intelligencia eredménye. Hivatkozott Ethan Mollick professzorra, a Pennsylvaniai Egyetem Wharton School of Business intézetének docensére, aki szerint a generatív MI együttműködő intelligenciaként funkcionál, ám a szintetikus tartalmak arányának növekedése (várhatóan 2030-ra meghaladja az autentikus tartalmakat) kihívásokat vet fel az eredetiség és az igazság ellenőrzésében. Fehér Katalin szerint a társadalomtudományoknak nagyobb szerepet kell vállalniuk az MI hatásainak vizsgálatában, mivel a kutatások 80-85 százaléka jelenleg a műszaki területekről származik.

Bieke Zaman a generatív MI társadalmi hatásairól beszélt, kiemelve, hogy az MI-t gyakran hatékonyságnövelő eszközként népszerűsítik, ám kritikátlan használata lustasághoz és a kognitív készségek gyengüléséhez vezethet. Példaként említette, hogy a diákok rövid távon motiváltabbak lehetnek az MI használatától, de hosszú távon a komplex problémák megoldásához szükséges készségek elsorvadhatnak. Zaman a szabályozás szükségességét hangsúlyozta, megjegyezve, hogy Európában erősebb a szabályozási szándék, de a technológiai iparban való lemaradás hatalmi feszültségeket szül. A „négyszeres hélix” modellt javasolta, amelyben tudósok, döntéshozók, iparági szereplők és civilek együtt alakítják a szabályozást.

Demeter Márton a tudományos kutatás és az MI kapcsolatára fókuszált, kiemelve, hogy az MI-t jelenleg eszközként kezelik, nem társszerzőként, bár sok kutató valójában ko-intelligenciaként használja. A tudományos írás szerkezete – különösen az angolszász akadémiai területeken –, már most is automatizált, ami megkérdőjelezi a kreativitás szerepét. Demeter szerint az MI nem végezhet empirikus kutatást, például interjúkat vagy felméréseket, így a humán ágencia továbbra is kulcsfontosságú. Az etikai kérdések és a felelősség azonban még megoldatlanok, különösen a hitelesség és az eredetiség terén.

A beszélgetésen felmerült a bizalom eróziójának problémája is, amely minden területet érint: politikát, médiát, tudományt és a mindennapi kommunikációt. A szakértők egyetértettek abban, hogy az MI által generált tartalmak elmossák a szakmai határokat, például az újságírók és influenszerek, vagy a szakértők és az automatizált összefoglalók között. A résztvevők hangsúlyozták a kritikus gondolkodás és az alapvető készségek fontosságát, valamint a társadalomtudományok szerepét az MI által támasztott kihívások megértésében és kezelésében.

A két nap során az érdeklődők megismerhették az AI szerepét a hírgyártásban és az újságírásban, az automatizáció és az algoritmusok hatását az igazság koncepciójára, valamint az AI által formált válságkezelési eszközöket és gyakorlatokat. Szó esett a generatív AI demokrácia-konstrukciójáról, a digitális kori politikai kommunikációról, a háborús dezinformáció vizuális és szöveges formáiról, valamint a konfliktusmegelőzés kommunikációs stratégiáiról. Továbbá a résztvevők hallhattak a generatív AI tudományos alkalmazásairól, valamint a tudománykommunikáció és közbizalom mediatizált társadalomban betöltött szerepéről, a tudományos bizonytalanságok kommunikációjáról, az ADHD-influencerek tapasztalati szakértelméről, az egészségügyi szakértelem mediatizált konstruálásáról, valamint az egészségügyi narratívák határokon átnyúló vizsgálatáról. A konferencián az értékes előadásokon túl néhány poszterbemutatóra is sor került, amelyek kitértek a rövid hírvideók minőségi kérdéseire, valamint a nem nyugati identitások AI-ábrázolására és az algoritmikus igazság geopolitikai hatásaira.

 

Szöveg: Sallai Zsófia

Fotó: Szilágyi Dénes