Az Egyesült Királyságban és az Egyesült Államokban egyre terjed egy új, mesterséges intelligenciával elkövetett csalás.

Új módszer terjed a világ több országában, a csalók új fegyverrel rendelkeznek, a már így is széles arzenáljukban. Az új módszer lényege, hogy az elkövetők stresszhelyzetet teremtenek, például egy balesetre vagy vészhelyzetre hivatkoznak, és az áldozattól sürgős pénzügyi segítséget kérnek. Mindezt egy családtagjuk vagy ismerősük hangján, amit AI segítségével reprodukálnak. A brit lakosság negyede érintett lehet ebben az új csalásban, és bár a módszer egyszerűen kivitelezhető, hatékony védelmi stratégiákat is kifejlesztettek ellene.

Egyre több áldozat

A Starling Bank legújabb kutatása alapján az Egyesült Királyság lakosainak 28 százaléka találkozott már legalább egyszer az elmúlt évben ilyen típusú csalással. A módszer sokban hasonlít a Magyarországon is ismert unokázós csalásra, azonban itt valóban egy ismerős hang hívja az áldozatot.

Felkészületlen áldozatok

A felmérés szerint a brit lakosok csak harminc százaléka érzi magát felkészültnek egy ilyen típusú csalásra. A válaszadók jelentős része (46 százalék) nem is hallott még erről a technikáról, és nyolc százalék akár az összes megtakarítását is odaadná, ha úgy gondolja, egy szerettük van veszélyben. A csalók általában nyomás alatt tartják áldozataikat, és olyan helyzeteket kreálnak, amelyek rontják az áldozat ítélőképességét.

A közösségi médiát használják ki

A hangalapú csaláshoz szükséges anyagot gyakran a közösségi médiából szerzik be. Elég mindössze három másodpercnyi hanganyag egy videóból, hogy lemásolják valakinek a hangját. Az amerikai CBS újságírója, Mahsa Saeidi, maga is kipróbálta, milyen egyszerű ilyen csalást végrehajtani: mindössze egy 30 másodperces videóra és néhány dollárra volt szüksége a klónozáshoz.

Hogyan védekezhetünk?

A Starling Bank egy figyelemfelkeltő kampányt indított, amelyben azt tanácsolják az embereknek, hogy beszéljenek meg egy titkos kifejezést szeretteikkel, amelyet csak ők ismernek. Így könnyen ellenőrizhető, hogy a hívó valóban az-e, akinek mondja magát. Ez a módszer egyszerű, de hatékony védelmet nyújt a mesterséges intelligenciával elkövetett csalások ellen.

A brit és amerikai példák alapján egyértelmű, hogy a mesterséges intelligencia nyújtotta lehetőségeket a bűnözők is kihasználják.

(Forrás: Fintech.hu)
(Címlapkép: Depositphotos)


Ha tetszett a cikk:

és kövess minket a Facebookon!



Szólj hozzá

Vélemény, hozzászólás?