Connect with us

Hirdetés

technokrata

Így tolja a kiberbűnözők szekerét az MI

Adatvédelem

Így tolja a kiberbűnözők szekerét az MI

Így tolja a kiberbűnözők szekerét az MI

A mesterséges intelligencia eszközeinek elterjedésével ma már minden eddiginél könnyebb megszemélyesíteni valakit, és megtéveszteni másokat.

A Deloitte legfrissebb Tech Trends elemzése szerint napjainkra a mesterséges intelligencia és a deepfake elérte azt a minőséget, hogy bárkit úgy lehessen beállítani, mintha valamit mondott vagy tett volna. A generatív AI gyors fejlődésének köszönhetően a mesterségesen generált tartalom elérte azt a pontot, hogy nehéz megkülönböztetni, mi a valós és mi nem.

“Az AI eszközök elterjedésével a kiberbűnözők minden eddiginél könnyebben adják ki magukat másnak, és tévesztik meg áldozataikat. Sokan a hang- és arcfelismeréses hozzáférésellenőrzés megkerülésére, valamint adathalász kísérletekhez deepfake-et használnak. Kedvelt célpontjuknak számítanak a hatalmas mennyiségű adatot igénylő AI-alkalmazások. A biztonsági kockázatok ezért megsokszorozódnak minden egyes új tartalomgeneráló eszközzel, amely az internetre kerül”

– mondta Szöllősi Zoltán, a Deloitte Magyarország kockázatkezelési tanácsadás üzletágának partnere.

A pszichológiai manipulációt alkalmazó bűnözők fő módszere, hogy meggyőzzék a célpontot. Ez a stratégia ugyan nagyon hatékony, de esetenként sok személyes interakciót igényel a csaló és az áldozat között. A mesterségesen generált tartalom azonban lehetővé teszi a támadók számára, hogy sokkal kisebb időbefektetéssel hozzák létre ezt a személyes kapcsolatot.

A Deloitte felmérése során a megkérdezettek többsége úgy vélte, hogy képesek megkülönböztetni az AI és a valós emberek által létrehozott tartalmat. Mindössze 20 százalékuk kételkedett ebben. Ez abból adódik, hogy az emberek arra számítanak, hogy a mesterségesen generált tartalom valamilyen módon mesterkéltnek néz ki vagy annak hangzik. Azonban a valóságban kevesen tudnak megbízhatóan különbséget tenni a kettő között.

Négy alapvető kiberbűnözői AI-módszer

Javított adathalászat: Az adathalászat a kibertámadások leggyakoribb típusa. Általában nem az e-mailek minősége, hanem sokkal inkább a tömeges kiküldések miatt érik el a céljukat. A legtöbb címzett képes felismerni a kísérleteket, például a rossz nyelvtan miatt, vagy mert a feladót nem ismerik. A generatív AI-eszközökkel azonban gyorsan és egyszerűen, egyre meggyőzőbb üzeneteket lehet készíteni. Ráadásul a nyilvánosan elérhető MI-modellek minőségének javulásával a probléma csak egyre súlyosabb lesz.

Deepfake: A deepfake tartalmak évek óta léteznek, de egészen a közelmúltig nem voltak elég meggyőzőek ahhoz, hogy bűncselekmények elkövetéséhez használják őket. Manapság azonban egyre gyakrabban tapasztalható, hogy vállalkozások elleni támadásokat építenek rájuk. Egy brit energiaipari vállalat vezérigazgatójától például 243.000 dollárt szereztek meg csalók, akik a deepfake AI hangtechnológiát használva az anyavállalat vezetőjének adták ki magukat.

Prompt injektálás: A hackerek a virtuális asszisztensekkel rendelkező böngészőket és e-mail klienseket is használják. Ebben az esetben olyan rosszindulatú promptokat, parancsokat adnak ki, melyek arra utasítják a virtuális asszisztenst, hogy adatokat, banki, egészségügyi információkat továbbítson automatikusan az áldozat tudta nélkül.

Hamis információterjesztés: A cégek elleni közösségi médiakampányok nem számítanak újdonságnak. AI-eszközökkel azonban gyorsan hatalmas mennyiségű negatív tartalom hozható létre, mellyel a kiberbűnözők célba vehetnek vállalkozásokat. Míg korábban a támadóknak személyesen kellett ezeket a tartalmakat elkészíteniük, jelenleg MI-eszközökkel sokkal nagyobb mértékű félretájékoztatást tudnak előidézni.

“A generatív AI széleskörű elérhetősége és a tartalomgeneráló modellek fejlődésének üteme valószínűleg nagymértékben felerősíti a már korábban is észlelt problémákat. Kevés vagy nulla költséggel és gyakorlatilag technikai készségek nélkül bárki képes lesz olyan meggyőző anyagot létrehozni, amellyel pénzt vagy adatot tulajdoníthat el. Jó hír, hogy ugyanazok az eszközök, amelyeket a bűnözők az intézmények kifosztására használnak, felhasználhatók a támadások azonosítására, előrejelzésére és megelőzésére is. Éppen ezért az intézmények a káros tartalmak azonosítására és az alkalmazottak kockázatokkal kapcsolatos oktatására kidolgozott irányelvek és technológiák kombinációjával reagálhatnak”

– mondta Szöllősi Zoltán.

Hogyan védekezzenek a vállalatok az új fenyegetés ellen?

Amikor a generatív AI-eszközök nyilvánossá váltak, a hackerek előnyt élveztek, mivel ezek a modellek a legnagyobb technológiai cégek legerősebb hardvereihez és legnagyobb méretű adathalmazaihoz fértek hozzá. Eközben a mesterséges intelligenciával létrehozott tartalmakat felismerő rendszerek első generációjának nem volt megfelelő nagyságú adathalmaza a szintetikus tartalmak azonosításához. Szerencsére mindez mára már megváltozott. Bizonyos vállalatok egy petabájt méretű szöveg-, kép- és hangadatbázison tanítják a szintetikus médiafelismerő platformjukat. Egy ekkora adathalmazon alapuló vizsgálat során már apró jelek is mutathatják, hogy valamit AI-eszközzel hoztak létre.

Más eszközök is vannak már MI által generált tartalmak felismerésére: az Intel nemrég mutatta be a deepfake detektálóját, amely az adatokon túlmenően a videókon szereplő emberek arcán való véráramlást figyelve elemzi a videókat. Az ember szívének pumpálásával az erek színe enyhén megváltozik, amit a gépi rendszereknek nehéz utánozniuk (jelenleg).

Felkészül: a kvantumszámítógép

A kvantuminformatika még néhány évnyire van attól, hogy széles körben elérhetővé váljon, a folyamat azonban gyorsul. Könnyen lehet, hogy ez lesz a hackerek és a vállalatok harcának következő eszköze. A technológia egyik legígéretesebb felhasználási területe a kvantum gépi tanulás, amelynek révén kevesebb rendelkezésre álló adatból is lehet előrejelző modelleket létrehozni. Sokkal összetettebb modellek kidolgozását teszi lehetővé, mint ami ma a legfejlettebb hardverek segítségével lehetséges.

A kiberbiztonságukat javítani kívánó vállalatok számára a kvantum gépi tanulás a szintetikusmédia-szűrőket javíthatná. Ahelyett, hogy több milliárd adatra lenne szükségük ahhoz, hogy megtanulják felismerni a mesterségesen létrehozott médiát, a speciális szűrők már néhány példa megvizsgálása után megtanulhatják felismerni a hamisítványokat.

Forrás: Biztonságportál


További friss híreket talál a Technokrata főoldalán! Csatlakozzon hozzánk a Facebookon is!

További Adatvédelem

Hirdetés

Népszerű

Hirdetés

Technokrata a Facebookon

Hirdetés

IoT-Magazin.hu

Hirdetés

Kütyük

LG

Smart home

Így képzelik el a magyarok az álomotthonukat

2024. március 20. szerda

Office

Foglalj helyet, hogy helyet foglalhass!

2024. március 13. szerda

Smart home

Okoskészülék vagy hagyományos háztartási gép?

2024. február 28. szerda
Hirdetés

Dotkom

Műszaki-Magazin.hu

Hirdetés