Dzień dobry, z tej strony deepfake!

Deepfake voice a cyberprzestępstwa

Wyobraź sobie, że dzwoni telefon. Odbierasz, a tam Twój szef prosi Cię o przesłanie mu na prywatny adres mailowy (który zaraz Ci podaje) ważnych firmowych dokumentów. Słowo przełożonego rzecz święta, więc robisz to, o co poprosił. Nazajutrz dowiadujesz się, że cyberprzestępcy szantażują Twoją firmę ujawnieniem wysłanych dokumentów, a Ty zostałeś oszukany za pomocą narzędzi deepfake voice.

Sztuczna inteligencja to jeden z najbardziej gorących tematów ostatnich kilku lat. Możliwości jej wykorzystania budzą w nas zarówno nadzieję, jak i strach. Z jednej strony ułatwi nam pracę, a z drugiej strony wiele osób boi się, że pracodawca zastąpi ich właśnie AI. Również narzędzia wykorzystujące tę technologię trafiły pod przysłowiowe strzechy. Wiele osób zna i korzysta ze stron pomagających tworzyć teksty i grafiki. Sztuczna inteligencja jest również wykorzystywana powszechnie w systemach nawigacji, wyszukiwarkach internetowych i innych nieoczywistych, ale często odwiedzanych przez nasz miejscach. Warto jednak zachować czujność. AI pomimo użyteczności, może również posłużyć złym celom, takim jak cyberprzestępczość.

Deepfake voice – dzwonię do Pani w nietypowej sprawie

Jednym z narzędzi, które mogą wykorzystywać cyberprzestępcy jest deepfake voice. Sztuczna inteligencja, na podstawie skryptów, potrafi tworzyć całe wypowiedzi, które przekształca w dowolny głos. Do stworzenia takiej symulacji wystarczą bardzo niewielkie próbki oryginalnego głosu. Symulacja, jaka powstaje jest praktycznie nie do odróżnienia od oryginalnej wypowiedzi. Metoda ta jest bardzo często stosowana przy różnego rodzaju wyłudzeniach. Być może spotkaliście się z filmami w popularnych serwisach, na których celebryci, znani politycy i sportowcy polecają różnego typu inwestycje. Takie nagrania są bardzo często „legendowane” za pomocą dużych państwowych spółek, żeby dodać wiarygodności całemu przedsięwzięciu.

Deepfake voice jest też chętnie wykorzystywany w przypadku fałszywych rozmów telefonicznych, takich jak przykład podany na początku tego artykułu. Rozmowy takie mają na celu wyłudzenie od nas danych lub spowodowanie, żebyśmy wysłali na dany numer swoje loginy czy hasła. Warto pamiętać, że przestępcy bardzo często stosują również efekty psychologiczne, polegające na informowaniu ofiary o wypadku lub kłopotach kogoś bliskiego. W połączeniu ze znajomo brzmiącym głosem w słuchawce może to nas łatwo zmylić i doprowadzić do szkód finansowych.

Jak bronić się przed deepfake voice?

Przede wszystkim należy pamiętać, że pomimo tego, że narzędzia sztucznej inteligencji są coraz bardziej zaawansowane, to mamy przeciwko nim najlepszy oręż – nasz rozum. Jeżeli coś wydaje nam się dziwne w reklamie, którą widzimy, to z pewnością tak jest. Jeżeli odbieramy telefon i ktoś mówi nam znanym głosem, że potrzebuje pomocy – zweryfikujmy to. Rozumowe, i przede wszystkim spokojne podejście do treści, które widzimy w internecie, pozwoli nam bez problemu rozpoznać te, które zostały sfałszowane.

Tak jak znany piłkarz nie będzie polecał inwestycji w duży polski koncern paliwowy, tak Bank nigdy nie będzie prosił o podanie loginów i haseł w czasie rozmowy telefonicznej. Warto trzymać się tych prostych zasad, nawet wtedy, kiedy to co widzimy lub słyszymy wydaje nam się dość realistyczne.

Najprostszą metodą weryfikacji jest też poszukanie dodatkowych informacji w internecie za pomocą chociażby wyszukiwarki internetowej. Doprecyzujmy nasze wyszukanie za pomocą dopisku „fake news”. Jeśli już ktoś spotkał się z czymś podobnym, wyniki pomogą nam w rozszyfrowaniu oszustwa. W dobie wszechobecnych manipulacji, wszyscy musimy stać się adeptami sztuki „białego wywiadu”, żeby mieć narzędzia do weryfikacji znajdowanych treści.

Bank Pocztowy walczy z oszustami

W Banku Pocztowym szczególnie mocno przykładamy wagę do bezpieczeństwa naszych Klientów. Dlatego stworzyliśmy program „Cyberdojrzali. Bądź mądrzejszy od oszusta”, w ramach którego edukujemy w dziedzinie cyberbezpieczeństwa. Dużo przydatnych treści podanych jest w formie webinarów dostępnych na stronie www.pocztowy.pl/cyberdojrzali. Mamy nadzieję, że dzięki naszemu programowi, coraz większy odsetek społeczeństwa będzie wyczulony na niebezpieczeństwa związane z działalnością cyberprzestępców, w tym również na zastosowanie deepfake voice w oszustwach finansowych.

0 0 głosów
Ocena Artykułu
Subskrybuj
Powiadom o
guest
0 komentarzy
Wbudowane informacje zwrotne
Zobacz wszystkie komentarze
0
Proszę o komentarz.x