Oszustwa na wnuczka 2.0 – jak działa voice phishing z wykorzystaniem AI?

Jeszcze niedawno „oszustwo na wnuczka” kojarzyło się z telefonem od rzekomego krewnego, który nagle znalazł się w tarapatach i pilnie potrzebuje pieniędzy. Dziś ta metoda nabrała zupełnie nowego wymiaru – dzięki sztucznej inteligencji oszuści potrafią nie tylko podszyć się pod głos bliskiej osoby, ale i perfekcyjnie odegrać całą scenę, która wywoła w nas panikę i chęć natychmiastowego działania. Jak działa voice phishing z wykorzystaniem AI i dlaczego jest tak skuteczny?

Klonowanie głosu – technologia w rękach przestępców

Sztuczna inteligencja, która miała ułatwiać życie, coraz częściej staje się narzędziem w rękach oszustów. Dzięki algorytmom deepfake wystarczy kilka sekund nagrania głosu – choćby z TikToka, YouTube’a czy Facebooka – by program komputerowy mógł wygenerować dowolną wypowiedź w niemal idealnej imitacji głosu naszej córki, wnuczka czy brata. Oszuści nie muszą nawet znać szczegółów z życia ofiary – wystarczy, że mają jej próbkę głosu, a resztę załatwi AI.

Jak wygląda scenariusz oszustwa?

Wyobraź sobie, że odbierasz telefon. Po drugiej stronie słyszysz głos bliskiej osoby – roztrzęsiony, przestraszony, proszący o pomoc. „Mamo, miałem wypadek, potrzebuję pieniędzy na kaucję, zaraz oddam cię policjantowi” – to nie fikcja, lecz autentyczne przypadki z Niemiec, USA czy Polski. Głos brzmi identycznie jak twój syn czy córka, a presja czasu i emocje sprawiają, że nie zastanawiasz się, czy to na pewno prawda.

W kolejnych minutach rozmowy do akcji wkracza „policjant”, „adwokat” lub „lekarz”, który żąda natychmiastowego przelewu lub podania kodu BLIK. Często oszuści podszywają się także pod numer telefonu bliskiego, by jeszcze bardziej uwiarygodnić całą sytuację. W ten sposób, pod wpływem szoku i strachu, ofiara przekazuje pieniądze lub wrażliwe dane.

Dlaczego ta metoda jest tak skuteczna?

  • Realizm głosu – AI potrafi dziś sklonować głos na tyle wiernie, że nawet najbliżsi nie są w stanie odróżnić podróbki od oryginału.
  • Presja czasu i emocje – Oszuści celowo wybierają scenariusze pełne dramatyzmu – wypadek, porwanie, nagła choroba – by wyłączyć racjonalne myślenie i zmusić do szybkiego działania.
  • Podszywanie się pod numery – Dzięki technikom spoofingu, na ekranie telefonu wyświetla się numer bliskiej osoby, co dodatkowo usypia czujność.

Jak się bronić przed voice phishingiem 2.0?

  • Ustal rodzinne hasło bezpieczeństwa – unikalne słowo lub zdanie, które zna tylko wasza rodzina i które należy wymienić w każdej kryzysowej rozmowie.
  • Zadawaj pytania, na które tylko bliski zna odpowiedź – np. o szczegóły, które nie są dostępne publicznie1.
  • Nie działaj pod presją – jeśli rozmowa dotyczy pieniędzy lub danych, zawsze rozłącz się i oddzwoń na znany numer do bliskiej osoby lub skontaktuj się z kimś, kto może potwierdzić sytuację.
  • Ogranicz udostępnianie nagrań głosu w sieci – im mniej materiałów dostępnych publicznie, tym trudniej oszustom o próbkę do klonowania.
  • Zachowaj zdrowy sceptycyzm – nawet jeśli głos i numer telefonu się zgadzają, nie oznacza to, że po drugiej stronie jest faktycznie twój krewny.

Oszustwa na wnuczka 2.0 to połączenie klasycznej socjotechniki z najnowszą technologią deepfake. AI sprawia, że głos bliskiej osoby można podrobić w kilka minut, a emocje i presja czasu są najskuteczniejszą bronią przestępców. Kluczem do bezpieczeństwa jest ostrożność, ograniczone zaufanie i rodzinne procedury weryfikacji. Zanim przelejesz pieniądze lub podasz dane – upewnij się, że naprawdę rozmawiasz z tym, za kogo podaje się rozmówca. W cyfrowym świecie czujność to najlepsza tarcza.

Artykuł powstał we współpracy ze sklepem z oprogramowaniem antywirusowym Omegasoft.pl.