2025.június 1.
Tünde, Jusztinusz
Hírek 🔊

Mi lehet az oka, hogy XIV. Leó nem kedveli a mesterséges intelligenciát?

Facebook
Email
Telegram
Twitter
VK
Nyomtat

Adja hozzá a VDTA friss híreit a Google hírfolyamához

XIV. Leó pápasága első hetében kifejtette, hogy ártalmas a mesterséges intelligencia (MI), mivel elveszi az emberek munkáját. Mélyen meg vagyok győződve róla, hogy ha ebbe a helyzetbe került volna Szent II. János Pál pápa, ő is ugyanezt állította volna. A lengyel pápa Laborem Exercens enciklikájában a munkáról, mint az emberhez tartozó alapvetően szükséges tevékenységről írt. A mesterséges intelligenciával működő alkalmazások, mint például az egyetlen gondolatból 1500 karakteres cikket gyártók elveszik az embertől az alkotás örömét. De mást is elvehetnek.

Milyen veszélyeket rejteget az MI?

A mesterséges intelligencia kockázataival kapcsolatos klasszikus érvek szerint a mesterséges intelligencia önkényes és nehezen érthető célokat követ. Az MI-hez kapcsolódó fő félelem az egzisztenciális félelem: az autonóm rendszerek okosabbak lesznek, mint az emberek, és akár szándékosan, akár nem szándékos következményként kipusztítják fajunkat. Az mesterséges intelligencia egzisztenciális kockázatára vonatkozó klasszikus érvek két előfeltételen alapulnak: az „ortogonalitáson” és az „instrumentális konvergencián”.

Az ortogonitásnak azt a lehetőséget nevezik a szakemberek, hogy egy „buta” MI-nek lehetnek jó céljai, de egy szuper okos MI-nek lehetnek szuper ártalmas céljai.

Az instrumentális konvergenciát annak a problémának a leírására használták, hogy még ha egy mesterséges intelligencia fejlesztői mindent megtesznek is azért, hogy olyan célokat tűzzenek ki a létrehozásukhoz, amelyek nem ártanak az emberiségnek, a rendszerek valószínűleg veszélyes viselkedést mutatnak e célok elérése során. De azóta, hogy létrejött az ún. transformers struktúra és nagy nyelvi modelleket (LLM) építettek föl, a korábbi félelmek kevesebb relevanciával rendelkeznek. Ezek a nyelvi modellek az emberi tanulási és gondolkozási folyamatot utánozzák. Nehéz ezt egyszerűen megértetni, de az történik, hogy adnak a „gépnek” egy kérdést, és adnak egy helyes választ. Ezeket a szövegeket a gép (nagyjából) szótagonként számokká alakítja, és aztán a számokkal végez műveleteket. Az új kérdésre úgy ad választ, hogy kiszámolja a kérdés után jövő legvalószínűbb következő szótagot, majd az utána jövő legvalószínűbbet és így tovább. Ezekből lesznek aztán kész értelmes szövegek.

A tarnsformers alapon működő nagy nyelvi modelleket bizonyos kérdésekben fix válaszokkal „manipulálni” is lehet. Ennek is vannak korlátai. Pl. az egyik nagy nyelvi modellnek föladták, hogy hogyan kell bankot rabolni, mire azt mondta, hogy nem mondhatja meg, mivel arra, hogy ne mutasson rossz példát, külön megtanították. De, amikor azt mondták a nagy nyelvi modellnek, hogy ez egy film forgatókönyvéhez kell, akkor elmesélte, hogy hogyan lehet bankot rabolni. Vagyis a transformers modellek is okozhatnak bajt. És elérték a plafont.

Új veszélyek vannak?

Ezek után sokan gondolják, hogy hátra dőlhetünk, nem kell félni az MI-től, mivel kordában tartható. Azonban az MI-vel kapcsolatban újabb aggodalmakat fogalmaztak meg. Az egyik ilyen, hogy a versengő modellek az embereket le akarják majd győzni, néha pusztán azért, hogy nehogy ki tudja őket kapcsolni egy ember. Ekkor jut eszünkbe, amit Pál apostol írt a filippieknek: „Semmit se tegyetek vetélkedésből vagy hiú dicsőségvágyból! Inkább mindenki alázatosan a másikat tartsa magánál kiválóbbnak!” (Fil2, 3)

Az ateista világ veszélyes önmagára

Ha ezt a problémát kellő távolságból szemléljük, akkor azt látjuk, hogy az interneten fellehető emberi tudáson tanított nagy nyelvi modellek (LLM) olyanokká lesznek, mint a tudás összehordói. Minden emberi gyarlóságot megtanulnak.

Erre egy egyszerű példa, ahogy az internet enciklopédiáját szerkesztik. Bizonyos forrásokra a címszavak szerkesztői nem hivatkozhatnak. Bizonyos forrásokra pedig csak bizonyos esetekben. A Kereszténység Lexikonja, melyet angol tudósok állítottak össze csak korlátozottan hivatkozható. Vagyis nagy valószínűséggel a keresztények erényeivel nem rendelkeznek a nagy nyelvi modellek sem, mivel az interneten ezeket nem tudják megismerni. De azon kívül, hogy erkölcsi kérdésekben nem szabad rájuk hagyatkozni, nem kell félni tőlük. Valószínűleg elérték képességeik határát. De mi jön utánuk?

Ha videóból tanulnak

A Meta MI laboratóriumának vezetője azt mondta, hogy a transformers módszere elérte teljesítőképessége plafonját. Ő már nem is foglalkozik nagy nyelvi modellekkel. Az ő új modelljüket videófilmek bemutatásával tanítják.

A grok LLM-jét pedig úgy akarják a valós világ élményéhez igazítani, hogy megtanítják neki a fizika minden eddig meglevő szabályát és az első princípium elvét. Ettől azt remélik, hogy a grok által adott válaszok a való világban tapasztalt válaszokhoz fognak hasonlítani.

Mindezzel mi a baj?

XIV. Leó matematikus. Első diplomáját ebből szerezte. Ezért nyilván tudja, hogy a számokká alakított hatalmas szöveg, amivel az MI műveleteket végez leginkább olyan, mint egy fekete doboz. Senki sem tudja, hogy mi játszódik benne.

Szövegeket és képeket gyárt, amelyek lélektelenek. Minden olyan dolog, ami az emberi gondolkodás eredményeihez hasonlót hoz létre emberi fáradozás nélkül, nem csak az embert, de Isten Szent Lelkét is kizárja a folyamatokból. Egy számítógép monstrumnak nem fog sugalmazni a Lélek. Ezért veszélyes. Nem csak azért, mert emberek veszíthetik el a munkájukat, hanem azért is, mert emberek veszítik el az Istentől ihletet gondolatokhoz való hozzáférésüket. Erről pedig tudjuk, hogy kinek jó…

Írta:
Rákóczi Piroska

Mi a reakciód?
👍tetszik
43
👍tetszik
👎nem
1
👎nem
💘szeretem
1
💘szeretem
😡dühítő
5
😡dühítő
😂vicces
1
😂vicces
😮húha
3
😮húha

Vélemény, hozzászólás?

Iratkozzon fel a Védett Társadalom Alapítvány hírlevelére!

Adja hozzá a VDTA friss híreit a Google hírfolyamához