Z tego artykułu dowiesz się:
- Jak sztuczna inteligencja zmienia oblicze oszustw telefonicznych, czyniąc je psychologicznymi atakami.
- W jaki sposób technologia klonowania głosu potrafi imitować barwę, intonację i emocje, podszywając się pod bliskie osoby.
- Czym współczesne oszustwa głosowe różnią się od tradycyjnych schematów, takich jak oszustwo „na wnuczka”.
- Jakie praktyczne kroki można podjąć, aby chronić się przed atakami deepfake’owymi.
Kris Sampson pracowała z domu w Montanie, gdy na ekranie jej telefonu wyświetliło się zdjęcie i imię dorosłej córki. Po odebraniu usłyszała przerażony płacz. „To był jej głos” – wspomina Sampson w rozmowie z CNBC. Chwilę później do rozmowy włączył się agresywny mężczyzna, żądając pieniędzy przez PayPal i grożąc śmiercią dziewczyny. Choć Sampson słyszała wcześniej o oszustwach przez telefon, realizm głosu córki mówiącej „mamo” z tą samą intonacją sprawił, że sparaliżował ją strach. Dopiero po 20 minutach udało się potwierdzić, że córka jest bezpieczna w pracy. Tożsamości sprawcy nigdy nie ustalono.
Przypadek Sampson nie jest odosobniony. W Arizonie Jennifer DeStefano usłyszała w telefonie głos „porwanej” córki Brianny. Oszuści żądali miliona dolarów okupu. Matka była przekonana o autentyczności nagrania, dopóki nie skontaktowała się z córką przebywającą na obozie narciarskim.
Czytaj więcej
Hakerzy wykorzystują śmierć papieża i atakują. Publikują fałszywe treści i zdjęcia deepfake, aby skłonić internautów do kliknięcia w link. Eksperci...
W Polsce podobne oszustwa od lat funkcjonują jako metoda „na wnuczka” lub „na legendę”. Przestępcy podszywają się pod członka rodziny lub policjanta, wywołują presję czasu i żądają natychmiastowego przekazania pieniędzy. Często każą ofierze nie rozłączać się z rozmowy, by uniemożliwić weryfikację historii. Dzięki AI taki scenariusz staje się jednak znacznie bardziej przekonujący, bo oszuści mogą już nie tylko opowiadać historię, ale również perfekcyjnie imitować głos bliskiej osoby.
AI podrobi głos po trzech sekundach nagrania
Oszustwa polegające na podszywaniu się to najczęściej zgłaszane nadużycie w USA – wynika z danych Federalnej Komisji Handlu (FTC). Liczba takich przypadków wzrosła o 19 proc. w 2025 r., a straty przekroczyły 3,5 mld dol.
Ian Bednowitz z firmy LifeLock twierdzi, że oszustwa głosowe zmieniają sposób, w jaki korzystamy z telefonów. Przez dekady znajomy dzwonek i numer były sygnałem zaufania. Dziś to założenie przestaje działać. Narzędzia do klonowania głosu potrafią działać na próbkach trwających zaledwie trzy sekundy, które oszuści pozyskują z filmów publikowanych w mediach społecznościowych, nagrań poczty głosowej czy internetowych wywiadów.
Czytaj więcej
Firma, która stoi za Facebookiem, zaczęła wprowadzać nowe zastosowania dla technologii rozpoznawania twarzy. Swoje nietypowe rozwiązanie wykorzysta...
Eksperci ds. cyberbezpieczeństwa ostrzegają przed tzw. vishingiem (voice phishing). Nowoczesne modele generatywne potrafią nie tylko naśladować barwę głosu, ale też intonację i emocje: panikę, zadyszkę czy płacz. Dodatkowo przestępcy wykorzystują „spoofing”, czyli technikę podrabiania numeru telefonu wyświetlanego na ekranie ofiary. Jeśli ktoś ma zapisane imię córki w kontaktach, telefon może pokazać właśnie ten kontakt, mimo że połączenie przychodzi z serwera znajdującego się na innym kontynencie.
Czy każdy taki telefon to deepfake?
Eksperci podkreślają jednak, że nie każdy tego typu przypadek musi oznaczać wykorzystanie zaawansowanego deepfake’u, którego stworzenie dla przestępców to dodatkowy czas i koszty. Najczęściej wielu sytuacjach wystarczy sprawna manipulacja psychologiczna, odpowiednio odegrana scena i ofiara działająca pod wpływem ogromnego stresu. Psychologowie zwracają uwagę, że silny stres potrafi zaburzać percepcję i sprawiać, że mózg sam „dopowiada” znajome brzmienie głosu. W praktyce część oszustów może korzystać z AI, a część jedynie umiejętnie odgrywać role.
Nie zmienia to jednak faktu, że technologia rozwija się błyskawicznie. W 2025 r. naukowiec Sanket Badhe z Rutgers University stworzył system AI zdolny do autonomicznego prowadzenia oszukańczych rozmów telefonicznych. Algorytm sam wybierał ofiarę, klonował głos bliskiej osoby i reagował na odpowiedzi w czasie rzeczywistym, naśladując emocje i próbując wyłudzić pieniądze lub dane. W całym procesie nie uczestniczył żaden człowiek.
Najbardziej spektakularnym przykładem wykorzystania podobnej technologii był atak na menedżera bankowego w Hongkongu. Przestępcy użyli głosowego deepfake’u, podszywając się pod dyrektora firmy, który polecił wykonanie przelewu o wartości 35 mln dol. na „zakup nowej spółki”. Menedżer, rozpoznając głos swojego szefa, autoryzował transakcję.
Czytaj więcej
Globalna firma zajmująca się projektowaniem i inżynierią stała się celem oszustwa typu deepfake, w wyniku, którego jeden z jej pracowników w Hongko...
Fabryki oszustw działają jak korporacje
Bednowitz podkreśla w rozmowie z CNBC, że proceder oszustw telefonicznych stał się „uprzemysłowiony”. Zorganizowane sieci w Azji Południowo-Wschodniej i Afryce funkcjonują jak regularne korporacje – z działami HR, gotowymi skryptami rozmów i targetami sprzedażowymi. Często sami pracownicy takich „call center” są ofiarami handlu ludźmi i działają pod przymusem.
Eksperci ostrzegają, że gdy koszty mocy obliczeniowej dalej spadną, możliwe będzie prowadzenie milionów podobnych rozmów jednocześnie przez autonomiczne boty. To oznacza zupełnie nową skalę zagrożenia.
Czytaj więcej
Możliwość łatwego preparowania dowolnego głosu i obrazu przez coraz powszechniejszą sztuczną inteligencję daje narzędzie do przestępstw na niespoty...
Jak bronić się przed deepfake’owym telefonem?
Michael Bruemmer z Experian promuje zasadę „JDA” (Just Don’t Answer) – po prostu nie odbieraj telefonu od nieznanych numerów. Problem pojawia się jednak wtedy, gdy na ekranie wyświetla się kontakt bliskiej osoby.
Dlatego eksperci rekomendują stworzenie „rodzinnego hasła”, które należy podać w sytuacji zagrożenia. Jeśli dzwoniący „syn” czy „córka” go nie znają, może to być próba oszustwa. Pomocne bywają także pytania kontrolne, na które AI nie znajdzie odpowiedzi w sieci.
Drugą metodą jest weryfikacja dwukanałowa. W przypadku podejrzanego telefonu najlepiej się rozłączyć i samodzielnie oddzwonić do bliskiej osoby albo skontaktować się z jej miejscem pracy czy znajomymi. Specjaliści radzą też ograniczać publikowanie nagrań głosu w mediach społecznościowych.
Kris Sampson i jej rodzina korzystają dziś z własnego hasła bezpieczeństwa. – Jestem zdeterminowana, by nagłośnić ten problem, żeby żadna inna matka nie musiała przeżyć tego paraliżującego strachu – mówi.
Problem polega na tym, że prawo nie nadąża za technologią. Ściganie sprawców działających z innych kontynentów pozostaje niezwykle trudne. Eksperci apelują do operatorów telekomunikacyjnych o szersze wdrażanie standardów STIR/SHAKEN, które pozwalają weryfikować autentyczność numeru telefonu i utrudniają proceder spoofingu.
Jedno jest już pewne: czasy, gdy głos w słuchawce automatycznie oznaczał konkretną osobę, bezpowrotnie się skończyły.