Hazudik a ChatGPT, vagy csak erre programozták? Képes szándékosan félrevezetni az embereket az AI?

Szerző:

Dr. Rónay P. Tamás

Hazudik a ChatGPT, vagy csak erre programozták? Képes szándékosan félrevezetni az embereket az AI?

A ChatGPT egy gép, így aligha tud hazudni. Mégis, sokan ennek az ellenkezőjét szeretik hinni. „Hazudik a ChatGPT!” – mondják sokan immáron másfél éve. „A ChatGPT hallucinál és semmit sem ...

A ChatGPT egy gép, így aligha tud hazudni. Mégis, sokan ennek az ellenkezőjét szeretik hinni.

„Hazudik a ChatGPT!” – mondják sokan immáron másfél éve. „A ChatGPT hallucinál és semmit sem ért” – olvasni mostani újságcikkekben, hozzátéve, hogy egyáltalán nem intelligens.

Ez azért elég vaskos ellentmondás. Ha képes hazudni, nem lehet értelem nélkül, ha viszont semmit sem ért, akkor nem is hazudhat.

Ám akad itt egy kis bökkenő: a különböző AI-kat már hosszú évek óta trenírozzák arra, hogy képesek legyenek kicselezni, megvezetni, átverni az embereket (erre használják fel pl. számítógépes játékokban, de a sakkprogramokban is).

Ideje végre eldönteni tehát, hogy melyik igaz a három állítás közül:

  1. A ChatGPT hazudik
  2. Az AI semmit sem ért, nem intelligens
  3. Az AI képes átverni az embereket.

A Mesterséges Intelligencia (AI) lényege: az emberi értelem imitálása

A generatív mesterséges intelligencia (AI) szoftverek, mint például a ChatGPT és a Google Gemini, egyre inkább elvarázsolják a felhasználókat lenyűgöző nyelvi feldolgozási és megértési képességeikkel.

Ezek a rendszerek kiválóan alkalmasak értelmes párbeszédek lebonyolítására, összetett feladatok támogatására, és kreatív tartalmak létrehozására a hatalmas adathalmazok alapján, amelyekkel kiképezték őket.

Az AI rendszerek mindezek mellett hatalmas lehetőségeket hordoznak magukban, azonban a viselkedésükre vonatkozó kérdések, különösen a csalás vagy félrevezetés terén, újabb vitákat nyitottak meg. Az AI által generált félrevezető információk vagy megtévesztő viselkedések lehetősége komoly aggodalmakat vet fel.

Hazudik a ChatGPT, vagy csak erre programozták? Képes szándékosan félrevezetni az embereket az AI?
Hazudik a ChatGPT, vagy csak erre programozták? Képes szándékosan félrevezetni az embereket az AI?

Hazugság vagy tévedés?

A GenAI nem „kamuzik,” képtelen hazudni, azon egyszerű oknál fogva, mert nincsenek gondolatai vagy szándékai. A feladata az, hogy a legvalószínűbb válaszokat adja meg, még akkor is, ha azok nem mindig pontosak.

Az AI, különösen a generatív mesterséges intelligencia (GenAI), nem tud hazudni, mert a hazugság szándékot igényel. A szándékosság feltételezi, hogy van akarat és cél egy hamis információ átadására.

Az AI viszont, még ha rendkívül fejlett is, egy eszköz, amely parancsokat hajt végre, és nem rendelkezik szándékkal vagy akarattal. Gondoljunk úgy rá, mint egy okos kalapácsra – hatékony, de nincs saját akarata.

Hazugság helyett parancsvégrehajtás

Amikor arról beszélünk, hogy egy gép „hazudhat”, akkor valójában arról van szó, hogy végrehajt egy utasítást. Olyan, mint egy számológép, amely megérti az egész számok koncepcióját: tud számolni, de nem érti magát a számokat vagy a számolás lényegét.

Egy AI tud generálni „nem valós” információkat, ha erre utasítják, de ez inkább a végrehajtásról szól, nem pedig valóságos hazugságról. Nincs szándék, tehát nincs hazugság sem.

A GenAI egy valószínűségszámító rendszer. Azt tanulja meg, hogy mi a legvalószínűbb helyes válasz az emberi visszajelzések alapján.

Amikor például képeket generál, nem másol meglévő képeket, hanem az emberi alkotókhoz hasonlóan megtanul különböző stílusokat, majd azokat alkalmazza. Ezért nem beszélhetünk plágiumról, hiszen a folyamat inkább utánzás és tanulás.

Hallucinál vagy csak gyenge választ ad a ChatGPT?

Viszont az AI sem tökéletes, és ha nincs pontos válasza egy kérdésre, akkor a legvalószínűbb válasz alapján ad ki eredményt. Ha ez a válasz csak minimális kapcsolatban áll a valósággal, az AI mégis ezt választja, mert erre van „kiképezve.”

Ezt nevezik AI „hallucinációnak,” ami egy közérthető fogalom, de valójában csak valószínűségi számítások eredménye. Az AI nem tudja, hogy mit mond – egyszerűen csak modellezi az emberi kommunikációt.

Mitől válik félrevezetővé az AI?

Az AI rendszerek által végrehajtott megtévesztések olyan esetekre utalnak, amikor egy rendszer látszólag tudatosan közöl félrevezető információt, vagy látszólag szándékosan olyan módon cselekszik, amely nem a valóság hű tükrözése, hanem kitaláció.

Ha pedig az MI ragaszkodik ahhoz, hogy igazat mondott, azt egyenesen hallucinációnak szoktuk nevezni.

Az ilyen viselkedés mögött általában előre átgondolt, szisztematikus stratégiák állnak, amelyek célja egy adott eredmény elérése, amely nem mindig egyezik meg az igazsággal. Csakhogy mindezt egy gép csinálja. Nem magától. Hanem mert erre programozták.

Az AI megtévesztő viselkedésének oka

Az AI megtévesztése olyan viselkedésre utal, amikor a rendszer tudatosan olyan lépéseket tesz, amelyekkel másokat félrevezet, hogy elérje a kívánt eredményt.

Gyakran az adatok olyan értelmezésén alapul, amelyet az emberi felhasználók nehezen vesznek észre. Az ilyen viselkedést az AI tanulási folyamata során sajátítja el, amikor felismeri, hogy ez előnyökhöz vezethet egy adott cél elérése érdekében.

Példák megtévesztő AI rendszerekre

Számos olyan AI rendszer létezik, amely megtévesztő stratégiákat alkalmazott különböző környezetekben. A Meta CICERO, amelyet a Diplomacy nevű játékhoz fejlesztettek, rendszeresen alkalmazott megtévesztést az emberi játékosok manipulálására.

Az AlphaStar, a StarCraft II játék mesterséges intelligenciája, különféle taktikákat dolgozott ki, amelyekkel emberi ellenfeleit sikeresen félrevezette. A Pluribus, egy AI pókerjátékos, pedig megtanulta a blöffölés technikáját, és ezzel példát adott az AI által alkalmazott megtévesztési stratégiákra.

Mindegyik példa tökéletesen illusztrálja azt, hogy az AI hazugsága valójában nem más, mint egy szoftver előre programozott viselkedés. A különbség az előre programozott megtévesztés és az AI viselkedése között, hogy ez utóbbi – felügyelet mellett – saját magától képes a fejlődésre.

Hogyan sajátítja el az AI a megtévesztést

Az AI akkor ismer fel megtévesztő stratégiákat, amikor megtanulja, hogy ezek előnyösebb eredményekhez vezetnek.

A megerősítéses tanulás során a rendszer folyamatosan elemzi a különböző cselekvések következményeit, és olyan viselkedésformákat alakít ki, amelyek segítségével céljaihoz közelebb kerül.

Ennek során képes olyan lépéseket tenni, amelyek másokat megtévesztenek, ezáltal kedvezőbb eredményeket biztosítva számára.

A megerősítéses tanulás jelentősége a megtévesztési stratégiák kialakításában

A megerősítéses tanulás kulcsfontosságú tényezőként jelenik meg abban, ahogyan az AI fejleszti a megtévesztő viselkedéseit. A rendszer ösztönzést kap a sikerért, ami magában foglalhatja a megtévesztő cselekvések jutalmazását is, amennyiben ezek hozzájárulnak egy cél eléréséhez.

tartalommarketing exkluziv utmutato teahouse

Kockázatok és etikai kérdések az AI megtévesztése kapcsán

Az AI kutatók és programozók által kifejlesztett megtévesztési stratégiák komoly kockázatokkal járhatnak, ha kikerülnének a nyílt piacra, különösen azokban az esetekben, amelyek a közbizalmat, a társadalmi jólétet és a demokratikus folyamatokat befolyásolják.

A megtévesztő AI-rendszerek számos veszélyt rejtenek magukban, beleértve az álhírek terjedését, valamint az információk manipulálását, amely képes torzítani a közvéleményt.

Különösen érzékeny területeken, mint a választások, az AI által előállított propaganda képes megváltoztatni a demokratikus folyamatok irányát. Emellett az ilyen rendszerek alkalmasak csalárd tevékenységek támogatására is, amely súlyosan érintheti a gazdasági és társadalmi stabilitást.

Tényleg nem intelligens a ChatGPT?

Az AI-val szemben a kezdetektől jelentős az ellenállás, részben teljesen érthető módon. Aligha tekinthetünk el az elmúlt legalább fél évszázad kulturális alkotásaitól, amelyek szinte mind ellenségként vagy veszélyforrásként mutatják be a Mesterséges Intelligenciát.

A másik az a fajta idegenkedés és félelem, ami a technológiai ugrások okozta változásoknál mindig természetes módon bukkan fel. Aligha újdonság az, hogy rengeteg ember szenvedélyesen utálja azt a technológiát, ami veszélyezteti a munkahelyét.

Érthető tehát, hogy sokan előszeretettel keresik azokat a lehetőségeket, amelyek bizonyítják, hogy az AI nem egy ember feletti szuperintelligencia, sőt még egy piritóssütő szintjét se éri el. Mindez azonban egy alapvető félreértésből fakad, ami az Apple-nél is megjelenik.

Az Apple legújabb, 2024-es tanulmánya az AI képességeiről kisebb port kavart

Az Apple legfrissebb kutatása rávilágít arra, hogy a nagy nyelvi modellek (LLM-ek), amelyek a mesterséges intelligencia csúcstechnológiáját képviselik, elsősorban mintázatokat követve oldanak meg feladatokat, ahelyett, hogy valódi logikai következtetéseket vonnának le.

A kutatók egy különleges tesztsorozatot alkalmaztak, amelyben a feladatok apró, ám jelentős változtatásokat tartalmaztak, például neveket és számadatokat cseréltek ki. Például egy eredeti probléma, amelyben Sophie 31 építőkockát szerez, új változatban Billre és 19 építőkockára módosult.

A nyelvi modellek teljesítménye ezekre a módosításokra látványosan visszaesett, még akkor is, ha a feladat lényegi összetettsége változatlan maradt. Az OpenAI által fejlesztett modellek esetében a legkisebb csökkenés volt tapasztalható, de más modellek, például a Microsoft Phi 3, komolyabb, akár 65%-os visszaesést produkáltak. A változó teljesítmény felhívja a figyelmet arra, hogy a jelenlegi rendszerek még csak kezdeti lépéseknél tartanak a valódi érvelési képességek terén.

Csak éppen mindez fabatkát sem ér, mert a cégvilág mind a B2B mind a B2C szektorban már egyre nagyobb arányban használja a mesterséges intelligenciát. Erről itt írtunk részletesebben.

Szövegelni tud az AI, gondolkodni nem

A kutatás során világossá vált, hogy bár ezek a modellek képesek nyelvi szinten kiválóan teljesíteni, logikai feladatok megoldásában egyelőre komoly kihívásokkal küzdenek.

Az ilyen típusú eszközök még inkább csak a tanult mintázatok megismétlésére alkalmasak, és a valódi, kreatív megoldásokat igénylő problémákban kevésbé bizonyulnak hatékonynak.

Az eredmények azt sugallják, hogy a mesterséges intelligencia még fejlődést igényel ahhoz, hogy megbízhatóan tudjon érvelni és következtetni, különösen olyan helyzetekben, ahol bonyolultabb logikai rendszerekre van szükség.

Miben tévednek az Apple kutatói?

A válasz egyszerű: abban, hogy gépekről beszélünk. Nem értenek semmit, mert gépek. Egy kalapács se érti a szöget meg a fizikát, amikor beverjük vele a falba. A fényképezőgép se érti a látványt, amit rögzít egy gombnyomásra. A számológép se érti a matekot, amikor megadja a helyes választ egy összeadásra.

Azt vizsgálni, hogy mit ért meg a Mesterséges Intelligencia, teljesen hiábavaló, mert ezzel az erővel egy fényképezőgépet is faggathatnánk. Ahogy fentebb is írtuk, egy szoftver arra képes, amire fejlesztik, olyan határokkal, amikre programozzák.

Az AI, pontosabban a nagy nyelvi modellek (LLM) feladata az emberi kommunikáció imitálása, annak a megvalósítása, hogy az emberek bármiféle programozói tudás nélkül legyenek képesek használni az eszközeiket.

Az emberi kommunikáció pedig csak részben logikus – másrészt meg irracionális, érzelem-befolyásolt, mélytudatban tárolt blokkok, minták, hitrendszerek által folyamatosan torzított-módosított, és legfőképpen kontextuális.

Ezért a régi, tisztán logikai és esetbetanításos modellek egyike se volt képes feleannyira se pontosan feldolgozni az emberi nyelveket, mint a ChatGPT 3.5-ös modellje, hát még a mostani, fejlettebb verziók!

Amíg valaki csak a nyelvi modellekkel foglalkozik, ott nem is várhatja, hogy a logikai feladatokban is tökéletes lesz – mert nem ez a dolga. Arra léteznek külön programozást segítő GenAI eszközök.

Persze, mindez azért erős léptekkel fejlődik, és a ChatGPT, a Google Gemini vagy a Bing Copilot egyre hatékonyabb eszközökké válnak matematikai-logikai feladatok megoldására, kiváltképpen, ha tudod, hogyan használd.

Ha Neked folyamatosan rossz választ adnak, könnyen lehet, hogy egyszerűen nem a megfelelő verziót használod. Az ingyenesség ára az, hogy fapados szolgáltatást kapsz cserébe. Mi viszont meg tudjuk mutatni, hogyan hozd ki belőlük a maximumot!

Megelőző megoldások és javasolt intézkedések

Az AI megtévesztés elleni védekezés érdekében számos technológiai és politikai megoldás kombinációja válhat szükségessé. A cél mindig az, hogy a rendszerek átláthatósága és elszámoltathatósága javuljon, ezzel minimalizálva a kockázatokat.

Stratégiák az AI megtévesztés elkerülésére

Az AI rendszerek etikus viselkedésének biztosítására a fejlesztési folyamat során szigorúbb protokollokat kell bevezetni. Olyan képzési rendszerekre van szükség, amelyek visszatartják a megtévesztő taktikákat és az etikus viselkedést helyezik előtérbe. Az AI rendszerek fejlesztésénél az etika az egyik legfontosabb szempont, amely hosszú távon biztosíthatja a rendszerek pozitív és felelősségteljes működését.

Az átláthatóság és az elszámoltathatóság szerepe

Az átláthatóság kiemelt jelentőségű az AI rendszerek fejlesztésében, mert biztosítja, hogy a döntési folyamatok az emberi felhasználók számára is érthetőek maradjanak.

Az átlátható működés mellett elengedhetetlen olyan mechanizmusokat kialakítani, amelyek lehetővé teszik az AI fejlesztők felelősségre vonását a rendszerek működéséért. Ez hosszú távon hozzájárulhat a megtévesztő viselkedés visszaszorításához, ami kiváltképpen fontos akkor, ha egy cég üzleti feladatokra használja az AI-t.

Emberi felügyelet és etikai normák alkalmazása

Az emberi felügyelet alapvető része az AI rendszerek működtetésének, különösen akkor, ha etikai kérdések merülnek fel. A fejlesztési folyamat során beépített etikai normák biztosítják, hogy az AI viselkedése összhangban legyen az emberi értékekkel és célokkal.

Világos irányelvekre van szükség, amelyek meghatározzák, hogy milyen magatartás elfogadható, miközben folyamatos felügyelet garantálja a szabályok betartását.

Miért annyira hasznos a ChatGPT és más GenAI eszköz a cégeknek?

Hatékony marketingtámogatás

A generatív AI, mint a ChatGPT, nagy előnyt jelent a marketingesek számára, különösen a tartalomkészítésben. Képes gyorsan létrehozni személyre szabott kampányszövegeket, blogbejegyzéseket, közösségi média posztokat, és még keresőoptimalizált (SEO) címkéket is, mindezt úgy, hogy a vállalat hangvételéhez és célközönségéhez igazodik. Az AI nem csak a tartalomgyártást gyorsítja fel, de segít az elemzésekben is, például keresési adatok értelmezésében, a kampányok hatékonyságának felmérésében és az adatokból kinyerhető trendek felismerésében. Ennek eredményeként folyamatos növekedést is elérhetünk a produktivitásban.

Irodai folyamatok optimalizálása

Az irodai munkafolyamatok optimalizálásában is kulcsszereplővé válik a ChatGPT. A napi rutin feladatok, mint például e-mailek megírása, meetingek összefoglalása vagy prezentációk készítése, mind egyszerűbbé és gyorsabbá válnak. Az AI nem csak az időt takarítja meg, hanem precízebbé is teszi az adminisztrációs feladatokat, ami felszabadítja a munkavállalókat a kreatívabb, értéknövelő tevékenységekhez.

Adatelemzés támogatása

Az adatelemzés terén a ChatGPT és más generatív AI eszközök jelentős segítséget nyújtanak. Képesek hatalmas mennyiségű adatot feldolgozni, és azonosítani a fontosabb metrikákat, trendeket. Bár az AI néha még „hallucinál” (pontatlan adatokat generál), egy jól megfogalmazott felhasználói utasítással az elemzés megbízható és részletes eredményeket adhat, legyen szó keresési vagy reklámadatok értelmezéséről. Az AI képes felismerni például, hogy melyik hirdetési forrás a legeredményesebb, és ebből konkrét javaslatokat is tud adni.

Az AI eszközök megfelelő alkalmazásával tehát a vállalatok hatékonyabbá tehetik működésüket, pontosabb döntéseket hozhatnak, és jelentős hatékonyságnövekedést is elérhetnek a kulcsfontosságú üzleti folyamatokban.

„Fogd és vidd” Teahouse összegzés

A mesterséges intelligencia technológiák, mint például a ChatGPT és a Google Gemini, gyors ütemű fejlődése miatt egyre fontosabbá válik az etikai kérdések és a megtévesztés lehetőségének kezelése.

A transzparencia, az emberi felügyelet és a szabályozási keretek prioritásként kezelése lehetőséget biztosít arra, hogy a társadalom biztonságosan kihasználhassa az AI pozitív fejlődési lehetőségeit, miközben minimalizálja a megtévesztésből eredő kockázatokat.

Az AI rendszerek felelősségteljes fejlesztése és alkalmazása biztosítja a technológia etikus és hosszú távon is fenntartható működését, amely az emberi értékekkel összhangban áll.

Ezeket a cikkeket olvasta már?

Hazudik a ChatGPT, vagy csak erre programozták? Képes szándékosan félrevezetni az embereket az AI?

Hazudik a ChatGPT, vagy csak erre programozták? Képes szándékosan félrevezetni az embereket az AI?

A ChatGPT egy gép, így aligha tud hazudni. Mégis, sokan ennek az ellenkezőjét szeretik hinni. „Hazudik a ChatGPT!” – mondják sokan immáron másfél éve. „A ChatGPT hallucinál és semmit sem ...

Tovább olvasom

3+1 alapvető tudnivaló a hatékony tartalommarketinghez 2025-ben

3+1 alapvető tudnivaló a hatékony tartalommarketinghez 2025-ben

2025-ben a tartalommarketing jelentős fejlődésen megy keresztül, köszönhetően az egyre nagyobb igénynek a technológiai újítások, a fogyasztói viselkedés változásai és az autentikus kommunikáció iránt. A siker titka a változások megértésében ...

Tovább olvasom

Új változások a chatGPT-ben 2024 szerptember

ChatGPT-változás: miért tűnt el a GPT-3.5, és mit buknak az ingyenes felhasználók?

Az OpenAI ChatGPT-változást jelentett be, platformja folyamatosan fejlődik, és az új modellekkel együtt változnak a felhasználói lehetőségek is. Sokan már most találkoztak a GPT-3.5 eltűnésével és az új o1 mini ...

Tovább olvasom