Sztuczna inteligencja nie ogranicza się już tylko do pisania tekstu i tworzenia obrazów. Dziś potrafi również kopiować Twój głos z alarmującą dokładnością. Najbardziej niepokojące jest to, że aby to osiągnąć, oszuści nie potrzebują długich nagrań: wystarczy kilka sekund dźwięku zarejestrowanego podczas rozmowy.
Dlatego prosta odpowiedź, taka jak „tak”, „cześć”, a nawet „aha”, może stać się narzędziem do popełniania oszustw, kradzieży tożsamości i wyłudzeń finansowych.
Głos nie jest już tylko sposobem mówienia. Teraz to biometryczny punkt danych równie cenny jak odcisk palca czy twarz.
Twój głos to cyfrowy podpis.
Nowe technologie potrafią analizować ton, intonację, rytm i sposób, w jaki mówisz. W ten sposób tworzą cyfrowy model zdolny do odtworzenia Twojego głosu tak, jakbyś był Tobą.
Po uzyskaniu tego modelu przestępca może:
Dzwonić do członków rodziny, podszywając się pod Ciebie
Wysyłać wiadomości głosowe z prośbą o pieniądze
Autoryzować płatności
Uzyskiwać dostęp do usług wykorzystujących rozpoznawanie mowy
Wszystko to bez Twojej obecności.
Dlaczego powiedzenie „tak” jest tak niebezpieczne
Istnieje oszustwo znane jako pułapka „tak”. Działa ono w następujący sposób:
Dzwonią do Ciebie i zadają proste pytanie.
Odpowiadasz „tak”.
Nagrywają ten dźwięk.
Wykorzystują go do sfabrykowania domniemanej akceptacji umowy, zakupu lub autoryzacji.
Następnie nagranie jest przedstawiane jako „dowód” Twojej zgody na coś, mimo że nigdy do tego nie doszło.
Dlatego nie warto odpowiadać na telefony z bezpośrednim potwierdzeniem, gdy nie wiesz, kto dzwoni.
Nawet powiedzenie „cześć” może stać się przyczyną oszustwa.
Wiele automatycznych połączeń ma na celu jedynie potwierdzenie, że po drugiej stronie jest prawdziwa osoba. Kiedy mówisz „cześć”, system wie, że Twój numer jest aktywny i że Twój głos może zostać nagrany.
Co więcej, to krótkie powitanie daje im wystarczająco dużo materiału do rozpoczęcia podstawowego klonowania głosu.
Bezpieczniejsza strategia to:
Poczekaj, aż druga osoba się odezwie pierwsza.
Poproś ją o przedstawienie się.
Zapytaj, kogo szuka.
W ten sposób unikniesz ujawnienia swojego głosu, nie wiedząc, z kim rozmawiasz.
Jak sztuczna inteligencja sprawia, że te oszustwa są tak wiarygodne: Nowoczesne programy do klonowania głosu wykorzystują algorytmy, które:
Analizują wzorce mowy.
Odtwarzają emocje.
Dostosowują akcent i tempo.
W ciągu zaledwie kilku minut mogą wygenerować dźwięk, który brzmi jak głos prawdziwej osoby, a nawet naśladuje strach, naglącą potrzebę lub spokój.
Dlatego wiele ofiar wierzy, że rozmawia z członkiem rodziny, bankiem lub legalną firmą.
Wskazówki i zalecenia dotyczące ochrony głosu
Nie odpowiadaj „tak”, „potwierdź” ani „akceptuj” na nieznane numery.
Zawsze proś rozmówcę o identyfikację.
Unikaj udziału w ankietach i automatycznych połączeniach telefonicznych.
Rozłącz się, jeśli coś Cię niepokoi.
Regularnie sprawdzaj swoje wyciągi bankowe.
Blokuj i zgłaszaj podejrzane numery.
Jeśli ktoś podaje się za członka rodziny, rozłącz się i sam oddzwoń.
Drobne nawyki mogą wiele zdziałać.
W dobie sztucznej inteligencji Twój głos to cyfrowy klucz.
Jego ochrona jest równie ważna, jak ochrona hasła czy danych osobowych.
Dzięki uważności i prostym nawykom możesz korzystać z telefonu ze spokojem ducha, nie wpadając w niewidzialne pułapki.