A mesterséges intelligencia veszélyei: AI adathalászat, hamisítás, botnet, politikai támadások, pénzügyi csalások

Szerző:

Dr. Rónay P. Tamás

A mesterséges intelligencia (MI, vagy AI) komoly veszélyforrást jelenthet, kiváltképpen azáltal, hogy az életünk szerves részévé vált.  Még csak pár éve van velünk, ám az elmúlt fél évben annyira felgyorsultak az események, annyira sokakban tudatosult a mesterséges intelligencia kínálta lehetőségek, hogy ez törvényszerűen hozta magával a törvénytelenséget is.

A mesterséges intelligencia (MI, vagy AI) komoly veszélyforrást jelenthet, kiváltképpen azáltal, hogy az életünk szerves részévé vált. 

Még csak pár éve van velünk, ám az elmúlt fél évben annyira felgyorsultak az események, annyira sokakban tudatosult a mesterséges intelligencia kínálta lehetőségek, hogy ez törvényszerűen hozta magával a törvénytelenséget is.

Ráadásul az MI/AI terjedésével a kockázati tényezők számossága és mértéke is exponenciálisan nő.

A mesterséges intelligencia, azaz MI/AI az életünk szerves része lett

A Siritől és az Alexától kezdve a személyre szabott hirdetéseken, szoftvereken át egészen önvezető autókig és emberként társalgó chatbotokig egyre több helyen találjuk meg a mesterséges intelligenciát. 

Vegyen a kezébe egy újabb okostelefont és akár az asszisztens funkciója, akár a fényképezőgép részeként, de megtalálja az AI-t.

Ebben a cikkben a mesterséges intelligencia szoftverek használatának fő veszélyeit vizsgáljuk meg.

A mesterséges intelligencia veszélyei - generált kép Dall-e programmal.
A mesterséges intelligencia veszélyei – generált kép Dall-e programmal.

Mit jelent az AI magyarul?

Az AI egy angol rövidítés, artifical intelligence, vagyis az AI jelentése magyarul mesterséges intelligencia. 

Az MI rövidítés valós, ám két okból is nehezen terjed: egyfelől mert az AI-val sokkal többször találkozni a különböző médiumokban (könyvek, filmek, játékok, újságcikkek), másfelől mert a MI rövidítés egy személyes névmás is, így túl sokszor okozhat félreértést.

Milyen előnyökkel bír az MI? 

A tanulási és alkalmazkodási képességének köszönhetően a mesterséges intelligencia képes forradalmasítani az iparágakat és javítani a hatékonyságot. A helyzet azonban korántsem ennyire egyszerű – hiszen, mint minden ember alkotta dolog – a kőbaltától az atomenergiáig használható jó és ártó célokra. 

Ez a felhasználója szándékától függ. A MI egyre szélesebb körű alkalmazása azonban aggodalmakat és veszélyeket is rejt magában.

Mi az a chatbot? Mi a ChatGPT?

A chatbotok olyan számítógépes programok, amelyek mesterséges intelligenciát használnak az emberi beszélgetés szimulálására. Egyre népszerűbbek különböző iparágakban, többek között az ügyfélszolgálatban, a marketingben és az értékesítésben.

A ChatGPT egy példa a mesterséges intelligenciával működő chatbotra, amely képes valósághű válaszokat generálni a felhasználói bejegyzésekre. Az AI használatának egyik legjelentősebb veszélye a hamis fiókok és botnetek létrehozása, ezekkel ugyanis rengeteg, kifejezetten súlyos kárt tudnak okozni kiberbűnözők.

Ilyen típusú csalások eddig is voltak, de ezekkel az alkalmazásokkal a trollgyárak is szintet léphetnek.

A chatbotok szerepe a hamis fiókok létrehozásában

A chatbotok ugyanis arra is felhasználhatók, hogy hamis fiókokat láttassanak valósnak a közösségi médiaplatformokon, mivel képesek interakcióba lépni más felhasználókkal, és legitimnek feltüntetni a profilt.

Néhány nagyobb, keleti országban, de sajnos Magyarországon is a hamis fiókokat különböző célokra használják, többek között propaganda terjesztésére és a közvélemény manipulálására.

A fake profilok használata a politikai kampányokban egyre gyakoribbá válik, és a mesterséges intelligenciával működő chatbotok megkönnyítik e fiókok létrehozását és kezelését.

Chatbotok és botnetek

Mik azok a botnetek? – A botnetek olyan fertőzött számítógépek hálózatai, amelyeket hackerek távolról irányítanak. A hackerek ezeket a botneteket különböző kibertámadások végrehajtására használják, beleértve az adathalászatot, a DDoS-támadásokat és a rosszindulatú programok terjesztését.

A mesterséges intelligencia által vezérelt botok egyre kifinomultabbak, és képesek kikerülni a hagyományos biztonsági intézkedések általi észlelést.

Hamis profilokat is lehet chatbotokkal üzemeltetni. Kép forrása: 0fjd125gk87
Hamis profilokat is lehet chatbotokkal üzemeltetni. Kép forrása: 0fjd125gk87

A botnetek veszélyei

Ezeket különböző rosszindulatú tevékenységekre, többek között DDoS-támadásokra, spamelésre és rosszindulatú programok terjesztésére használhatják. A mesterséges intelligencia által vezérelt botok egyre kifinomultabbak, és képesek kikerülni a hagyományos biztonsági intézkedések általi észlelést.

Magyarországon a botneteket különböző kibertámadásokhoz, többek között kormányzati webhelyek elleni DDoS-támadásokhoz használták. 2021-ben az Interpol például több ország rendőrségének összehangolt munkájával felszámolt egy botnetet, amely többek között kórházi számítógépek megfertőzéséért volt felelős Magyarországon és más országokban.

Mire használják a botnetet? A botnetet különböző kibertámadások végrehajtására használták, többek között adathalászatra, rosszindulatú programok terjesztésére és DDoS-támadásokra.

A botnetek használata egyre gyakoribbá válik, és a mesterséges intelligencia által vezérelt botok megkönnyítik e hálózatok létrehozását és kezelését. A hackerek a mesterséges intelligencia segítségével kifinomultabb és nehezebben felderíthető botokat hozhatnak létre. Ezek jelentős fenyegetést jelentenek a kiberbiztonságra Magyarországon és más országokban.

A közösségi médiaplatformok harctérré váltak

A közösségi médiaplatformok a hamis fiókok és botnetek népszerű célpontjává váltak. Ezeket a platformokat gyakran használják propaganda terjesztésére, a közvélemény manipulálására és kibertámadások végrehajtására.

A Facebook, a Twitter és más közösségi médiaplatformok lépéseket tettek a kamuprofilokkal elkövetett csalások és a botnetek elleni küzdelem érdekében. Mesterséges intelligencia alapú eszközöket használnak a hamis fiókok és a gyanús tevékenységek felderítésére és eltávolítására.

Ezek az eszközök azonban nem 100%-osak, és a hackerek folyamatosan új technikákat fejlesztenek ki az észlelés kijátszására.

Valósághű hamis fotók és videók

A képi csalások nyomán ma már az ember a szemének sem hihet teljes bizonyossággal. A mesterséges intelligencia lehetővé tette a valósághű hamisított fényképek és videók létrehozását is. A Deepfake technológia a mesterséges intelligencia segítségével olyan videókat hoz létre, amelyek valódinak tűnnek, de valójában manipuláltak.

Ezt a technológiát használták már politikusok, hírességek, sőt hétköznapi emberek hamis videóinak létrehozására.

A valósághű, manipulált fotók és videók használata súlyos következményekkel járhat

Hamis információk terjesztésére, valamint intézmények és egyének iránti bizalmatlanság keltésére használhatók. Zsarolásra és lejáratásra is felhasználhatók.

A mesterséges intelligenciával működő eszközök olyan képeket és videókat hozhatnak létre, amelyeket nehéz megkülönböztetni a valódiaktól, így könnyebbé válik a dezinformáció terjesztése és a közvélemény manipulálása. Például olyan szavakat adnak valaki szájába, melyek a valóságban soha nem hangzottak el. vagy olyan helyen, helyzetben ábrázolják nagyon élethűen, melyek soha nem történtek meg.

Manipulált képekkel akár a régmúlt események is “átértelmezhetők”, a történelemhamisítástól sem riad vissza az, akinek ez érdekében áll.

A Midjourney megjelenése

A Midjourney mesterséges intelligenciával működő eszközöket használ, hogy többek között olyan képeket hozzon létre, amelyek szinte megkülönböztethetetlenek a valódiaktól. A Midjourney technológiáját különböző célokra használják, többek között meseillusztrációk, művészi alkotásokra hasonlító képek, vagy közösségi média bejegyzések kísérő képeinek létrehozására.

A Midjourney megjelenése aggodalmakat is felvetett a valósághű hamisított fotókkal és videókkal való esetleges visszaélésekkel kapcsolatban. Ezek az eszközök álhírekben szereplő, hamis fotók létrehozására, propaganda terjesztésére és a közvélemény manipulálására használhatók.

A Dall-e veszélyei

A Dall-e az OpenAI által létrehozott, mesterséges intelligenciával működő eszköz, amely szöveges leírásokból képes valósághű képeket létrehozni. Az eszközt különböző képek, köztük állatok, tárgyak és jelenetek létrehozására használták. A Dall-e technológiája még fejlesztés alatt áll, de máris aggodalmakat keltett a valósághű hamisított fotókkal való esetleges visszaélésekkel kapcsolatban.

A Midjourney és a Dall-e megjelenése rávilágít a mesterséges intelligencia alapú eszközök felelősségteljes fejlesztésének és alkalmazásának szükségességére. Alapvető fontosságú annak biztosítása, hogy az AI-alapú eszközöket etikusan és felelősségteljesen használják, hogy elkerüljék a fogyasztóknak és a társadalomnak okozott esetleges károkat.

Az AI által generált félrevezető tartalmak kockázatai

Az AI által generált tartalom egyre gyakoribbá válik különböző iparágakban, többek között az újságírásban, a reklámban és a marketingben. Az AI-generált tartalom azonban félrevezető és pontatlan is lehet, ami potenciális károkat okozhat a fogyasztóknak.

Az AI-alapú chatbotok olyan tartalmakat hozhatnak létre és terjeszthetnek, amelyeket nehéz megkülönböztetni a valódiaktól. Ezek az eszközök hamis értékelések, félrevezető hirdetések és spam-üzenetek létrehozására egyaránt használhatók.

Az AI által generált félrevezető tartalmak kockázatai. Kép forrása: Fakhruddin Memon
Az AI által generált félrevezető tartalmak kockázatai. Kép forrása: Fakhruddin Memon

Az AI által generált tartalmak megjelenése a hagyományos újságírásra is veszélyt jelent

A mesterséges intelligencia által működtetett eszközök olyan híreket és jelentéseket hozhatnak létre, amelyeket nehéz megkülönböztetni a valódiaktól, ami potenciális kárt okozhat a pontos és megbízható információkra támaszkodó fogyasztóknak.

AI alapú pénzügyi csalások, fintech átverések

A pénzügyi csalások egyre gyakoribbá válnak, és a mesterséges intelligencia szerepet játszik ezekben az átverésekben. A mesterséges intelligenciával működő botok hamis befektetési lehetőségek létrehozására, a részvényárak manipulálására és személyes adatok ellopására használhatók.

Más pénzügyi átverések jellemzően olyan csalárd üzenetek vagy e-mailek küldését foglalják magukban, amelyek azt állítják, hogy egy legitim pénzügyi intézménytől származnak. Magyarországon egyre gyakoribbak a fintech csalások a közösségi médiaplatformokon, például a Facebookon.

Mostanában annyit változott a helyzet, hogy a csalók egyre inkább használhatnak mesterséges intelligenciával működő chatbotokat arra, hogy kapcsolatba lépjenek a felhasználókkal, és csalárd pénzügyi szolgáltatásokat vagy befektetési lehetőségeket kínáljanak nekik.

Ezek a chatbotok képesek emberi beszélgetéseket utánozni, így a felhasználók számára nehéz felismerni, hogy átverésekről van szó.

Adathalászat és csalás

Az adathalászat és a csalás a kibertámadások két leggyakoribb típusa. A mesterséges intelligencia felhasználható kifinomult adathalász- és csalási rendszerek létrehozására.

Mit jellent az adathalászat? – Az adathalászat olyan rosszindulatú tevékenység, amelyek során megtévesztő taktikákat alkalmaznak, hogy rávegyék az embereket érzékeny információik felfedésére vagy pénzügyi számláikhoz való hozzáférés megadására. Vagyis lehetőséget adnak a személyes adatokkal való visszaélésre.

A mesterséges intelligencia által vezérelt robotok felhasználhatók olyan adathalász e-mailek és SMS üzenetek küldésére, amelyek legitimnek tűnnek, például a posta, futárszolgálat, vagy bank üzeneteit, megjelenését másolják. Ezzel rávehetik az embereket személyes adataik megadására vagy rosszindulatú programok letöltésére.

A csalások mind gyakoribbá válnak az interneten, részben az AI chatbotok miatt. Kép forrása: Gerd Altmann
A csalások mind gyakoribbá válnak az interneten, részben az AI chatbotok miatt. Kép forrása: Gerd Altmann

Az adathalászat és a csalás az e-mailekben is elterjedt

A csalók gyakran küldenek csalárd e-maileket, amelyek úgy tűnnek, mintha egy törvényes szervezettől, például egy banktól vagy egy kormányzati szervtől érkeztek volna.

Az e-mailek általában egy olyan linket tartalmaznak, amely a felhasználót egy hamis weboldalra irányítja át, amely úgy néz ki, mint a törvényes szervezet weboldala. A hamis weboldal ezután arra kéri a felhasználót, hogy adjon meg érzékeny információkat, például a bejelentkezési adatokat vagy személyes adatokat.

Magyarországon egyre nagyobb gondot jelentenek az e-mailekben történő adathalászat. A csalók gyakran használnak mesterséges intelligencia alapú eszközöket, hogy valósághű hamis e-maileket hozzanak létre, amelyeket nehéz megkülönböztetni a valódiaktól.

Ezek az eszközök képesek meggyőző hamis logókat, aláírásokat és egyéb részleteket létrehozni, amelyekkel az e-mailek legitimnek tűnnek.

Mit lehet tenni az AI chatbotok okozta kockázatok ellen?

E kockázatok mérséklése érdekében elengedhetetlen, hogy a mesterséges intelligencia alapú eszközök használatához megfelelő szabályozások és etikai irányelvek álljanak rendelkezésre. Egyéni szintű tudatosságra van szükség: mindig nézze meg, hogy milyen email címről jött a levél. Ha gyanús karakterek, vagy végződések vannak benne, ha a telefonszám nem hazai, az legyen alapból gyanús. Először azt nézze meg hogy ki mondta és csak utána, hogy mit.

Megfelelő óvintézkedésekkel és tudatossággal minimálisra csökkenthetjük az adathalászatot.

Az ipari marketingnek és B2B marketingnek ezért most már magában kell foglalnia az AI etikus használatának ismeretét, az előnyeinek kihasználását és a felkészülést az MI okozta veszélyekre.

Milyen egyéb kockázatok merülnek fel a mesterséges intelligencia szoftverekkel való visszaélésből?

Az előző fejezetekben tárgyalt kockázatokon kívül számos egyéb kockázat is felmerül az AI-szoftverekkel való visszaélésből. Ezek a kockázatok a következők:

1.                  Elfogult döntéshozatal, véleménybuborék: az AI-algoritmusokat nagy adathalmazokon képzik ki, és ha ezek az adathalmazok elfogultak, az AI-rendszer döntései is elfogultak lehetnek. ha valaki csak azokkal az információkkal találkozik, melyek megfelelnek a világképének, az egyfajta beszűküléshez és észlelési torzulásokhoz vezet.

2.                  Munkahelyek megszűnése: az MI-rendszereket egyre gyakrabban használják rutinfeladatok automatizálására, ami bizonyos ágazatokban munkahelyek megszűnéséhez vezethet. Ez jelentős hatással lehet a gazdaságra, és súlyosbíthatja a jövedelmi egyenlőtlenségeket.

3.                  Kiberbiztonsági kockázatok: a mesterséges intelligenciával működő eszközöket a hackerek kifinomult kibertámadások indítására használhatják. Az AI-algoritmusok például felhasználhatók egy rendszer sebezhetőségének azonosítására vagy célzott adathalász-támadások indítására.

4.                  Adatvédelmi kockázatok: az MI-algoritmusok hatalmas mennyiségű személyes adat összegyűjtésére és elemzésére használhatók, amelyeket aljas célokra használhatnak fel. Az adatokat például célzott reklámok létrehozására vagy egyének megfigyelési célú azonosítására lehet felhasználni.

5.                  Etikai aggályok: a mesterséges intelligencia alkalmazása számos etikai aggályt vet fel, többek között az elfogultsággal, az átláthatósággal, az elszámoltathatósággal és a felelősséggel kapcsolatos kérdéseket. Etikai iránymutatásokra és szabályozásokra van szükség annak biztosítása érdekében, hogy a mesterséges intelligenciát felelősségteljes és etikus módon használják.

A chatbotok tényleg elhozzák a munkahelyi armageddont és a bűnözők kánaánját?

A mesterséges intelligencia technológia folyamatos fejlődésével párhuzamosan fontos, hogy tisztában legyünk a visszaélésekkel kapcsolatos kockázatokkal. Ezek a kockázatok közé tartozik a deepfake technológia, az elfogult döntéshozatal, a munkahelyek elvesztése, a kiberbiztonsági kockázatok, az adatvédelmi kockázatok és az etikai aggályok.

E kockázatok mérséklése érdekében alapvető fontosságú a mesterséges intelligencia használatára vonatkozó szabályozások és etikai iránymutatások kialakítása, az átlátható és elszámoltatható mesterséges intelligencia-rendszerek fejlesztése, valamint az egyének oktatása a potenciális kockázatok felismerésére és elkerülésére.

Fontos továbbá folytatni az olyan új mesterséges intelligencia-technológiák kutatását és fejlesztését, amelyeket a biztonság, a magánélet védelme és az etika szem előtt tartásával terveztek. Ezekkel a lépésekkel biztosíthatjuk, hogy az AI-technológiát a társadalom javára használjuk, miközben minimalizáljuk a lehetséges kockázatokat.

Ezeket a cikkeket olvasta már?

ChatGPT használati idő

Számít az idő? Ekkor használd a ChatGPT-t, mert gyorsabb!

Gondoltad volna, hogy az AI hatékonysága nemcsak attól függ, hogy MIT kérdezel, hanem attól is, hogy MIKOR teszed fel a kérdést? Pedig így van! A ChatGPT reakcióideje, teljesítménye és még ...

Tovább olvasom

ChatGPT hangalapú módja (ChatGPT VUI) megérkezett, és mostantól szóban is kommunikálhatsz az AI-val

ChatGPT hangalapú módja (ChatGPT VUI) megérkezett, és mostantól szóban is kommunikálhatsz az AI-val

A ChatGPT hangalapú módjával végre élőszóban beszélhetünk a Mesterséges Intelligenciával. A ChatGPT előfizetői november 22-én este próbálhatták ki először magyarul a ChatGPT VUI-ját, azaz hangalapú kezelőfelületét (Voice User Interface). Egyszerűbben ...

Tovább olvasom

Hazudik a ChatGPT, vagy csak erre programozták? Képes szándékosan félrevezetni az embereket az AI?

Hazudik a ChatGPT, vagy csak erre programozták? Képes szándékosan félrevezetni az embereket az AI?

A ChatGPT egy gép, így aligha tud hazudni. Mégis, sokan ennek az ellenkezőjét szeretik hinni. „Hazudik a ChatGPT!” – mondják sokan immáron másfél éve. „A ChatGPT hallucinál és semmit sem ...

Tovább olvasom