Przejdź do treści

Budda, banki i oszustwa z pomocą AI

robot piszący na komputerze

Wyobraź sobie, że siedzisz na zajęciach i nagle widzisz, że dzwoni do ciebie numer podpisany „BABCIA”. Twoja ukochana babcia nigdy nie dzwoni do ciebie w środku dnia, więc odbierasz z niepokojem. Słyszysz, jak mówi roztrzęsionym głosem, że złamała nogę, nie może wstać i boi się, że umrze. Biegniesz tyle ile masz sił w nogach albo jedziesz do niej, a w mieszkaniu okazuje się, że wszystko jest w porządku i twoja babcia pije sobie herbatę z miodem. Bo to nie dzwoniła babcia. Ktoś sklonował jej głos za pomocą AI. 

Podana przeze mnie sytuacją jest tylko jedną z wielu przykładów. Wpisz w wyszukiwarkę „AI scams” albo „klonowanie głosu” i zobacz, jak wielu ludzi dało się nabrać na telefon z banku lub od rodziny. W ciągu ostatnich kilku lat sztuczna inteligencja przeżywa swój ogromny rozkwit.

Jeśli wcześniej jej rozwój porównamy do kłusu wierzchowca, do teraz wsadziliśmy naszego konia do bolidu Formuły 1. ChatGPT pomaga nam się uczyć albo znajdować odpowiedzi na trudne pytania, Midjourney generować grafiki na Instagram, a kolejne programy przerabiają filmiki, analizują dla nas dane albo automatyzują obsługę klienta. Jednocześnie dobrze napisany program sklonuje nasz głos albo wygeneruje filmik, na którym mówimy, że zamierzamy zabić Kevina Spacey. Jak przestępcy wykorzystują sztuczną inteligencję? Czy i jak możemy rozpoznać oszustwo?

Przykłady oszustw AI z życia wzięte 

16 maja 2024 internetowy twórca, znany jako Budda, opublikował filmik na platformie Youtube, w którym ujawnił, że miał być szantażowany. Przestępcy mieli nękać go telefonami oraz grozić, że opublikują materiały dyskredytującego go. Dodatkowo w sieci można znaleźć reklamy internetowych kasyn reklamowane wizerunkiem tego twórcy. Sam twórca odcina się od tego typu reklam. Nie będę w tym artykule oceniał postępowania Buddy i tej całej zawiłej sprawy, jednak to, że dzięki AI można tworzyć takie treści, powinno budzić pewien niepokój. 

Na internetowych twórcach jednak się nie kończy. W lutym tego roku pracownik jednej z międzynarodowych korporacji przelał na konto oszustów… aż 25 milionów dolarów. Myślał, że bierze udział w wideokonferencji z zarządem swojej firmy, okazało się, że wszystkie osoby, z którymi rozmawiał, były sztucznie wygenerowane  i po prostu nieprawdziwe. 

Deepfake

Tak zwany deepfake to metoda, dzięki której można wygenerować nagranie z głosem danej osoby i dzięki temu włożyć jej w usta dowolny przekaz. Tak spreparowano na przykład orędzie prezydenta Wołodimira Zelenskiego w pierwszych tygodniach po pełnoskalowej inwazji Rosjan. Prezydent Ukrainy miał przekazać w nim, że żołnierze mają złożyć broń i wrócić do swoich domów.

Autor: screenschot – kanał France 24

Program do tworzenia deepfake’ów tworzy się na podstawie wielowarstwowych sieci neuronowych (deep learning). Składa się z dwóch części: generatora i dyskryminatora. Generator tworzy fałszywy obraz danej osoby, a następnie przesyła polecenia do drugiego algorytmu, aby ten ocenił, że film lub zdjęcie jest prawdziwe czy fałszywe. Program powtarza ten proces wielokrotnie, udoskonala treść, która coraz bardziej przypomina realne nagranie lub zdjęcie.

Klonowanie głosu i spoofing

Spoofing to wyłudzanie pieniędzy lub danych osobowych przed podszywanie się pod banki lub instytucje państwowe. Przestępcy wykorzystują programy, dzięki którym symulują, że dzwonią z numeru banku ZUSu czy urzędu miasta. Jest to proceder znany od lat, ale z pomocą sztucznej inteligencji wchodzi on na wyższy poziom.

Bo o ile nie znamy głosu wszystkich pracowników banku, to głos naszego chłopaka, córki albo innego krewnego znamy doskonale. I łatwiej przyjdzie nam uwierzyć słysząc taki głos w słuchawce, że naprawdę potrzebuje 50 złotych na naprawę samochodu albo bilety do kina dla dwojga.

Bez problemu znalazłem w internecie poradniki i odnośniki do stron klonujących głos. Przy odrobinie wysiłku sklonuję swój głos i użyję go przy tworzeniu rolek na Instagrama. Albo sklonuję wypowiedź kolegi mówiącego, że zrywa z narzeczoną. Sky is the limit

Jak rozpoznać, że oszukuje nas AI?

W ostatnich miesiącach wielokrotnie podnoszono kwestię regulacji wykorzystania sztucznej inteligencji. Unia Europejska już w 2023 zapowiedziała, że nałoży na wielkie koncerny obowiązek oznaczania fałszywych treści wygenerowanych przez sztuczną inteligencję. Zanim jednak politycy dojdą do ogólnoświatowego porozumienia i regulacji w tej kwestii, jesteśmy zdani na swój zdrowy rozsądek. Tutaj jednak zasady są podobne jak przy „normalnych” oszustwach czy manipulacjach. 

Po pierwsze – zachowaj zdrowy rozsądek. Nie wszystko co widzisz lub słyszysz w internecie, jest prawdą. Zwracaj uwagę szczególnie na treści mające wywołać emocje lub skrajne postawy. W przypadku nagrań wideo, które podejrzewasz, że mogły zostać stworzone za pomocą AI, szukaj nienaturalnych elementów. Zwróć uwagę, czy wypowiadane słowa zgadzają się z ruchami warg osoby mówiącej. Obserwuj ruchy postaci, czy robi pauzy w zdaniach, jak je formułuje i tak dalej. Mimo niebywałego rozwoju technologii, programy jeszcze nie są na tyle doskonałe, aby nie popełniać błędów. 

W przypadku oszustw za pomocą sklonowanego głosu jest kilka wskazówek, pomagających rozpoznać zagrożenie:

  • Nagle ktoś się z tobą kontaktuje
  • Jesteś pod presją, aby działać natychmiast, bez czasu na zastanowienie.
  • Dzwoniący pilnie prosi o pieniądze, zazwyczaj za pomocą przelewu, karty podarunkowej, aplikacji płatniczej lub kryptowaluty. Te metody płatności sprawiają, że odzyskanie pieniędzy po oszustwie jest prawie niemożliwe.
  • Dzwoniący prosi cię o podanie danych osobowych lub prywatnych informacji.
  • Jesteś proszony o zachowanie prośby dzwoniącego w tajemnicy.

(Tekst pochodzi ze strony Department of Consumer and Worker Protection z USA, został przetłumaczony w ramach ćwiczenia za pomocą Chatu GPT).

Sztuczna inteligencja to prawdziwy game changer. Już dzisiaj jest używana w wielu obszarach naszego życia, które może zautomatyzować i wspomóc nas w pracy. Jednocześnie możliwości AI pozwalają przestępcom jeszcze skuteczniej nas oszukiwać. Każdy medal i każda technologia ma dwie stron. Od ludzi zależy, którą z nich będziemy wykorzystywać. A na koniec tego artykułu przesłanie od prezydenta Andrzeja Dudy. I pamiętajcie – nie wierzcie we wszystko, co widzicie!

Autor nagłówka: obraz stworzony przez autora w programie Leonardo AI 

O autorze

Student kierunku Bezpieczeństwo Międzynarodowe i Dyplomacja.
Chce pisać o świecie i o ludziach, którzy go tworzą.
Prywatnie mól książkowy, koneser herbat oraz wielbiciel dalekich i bliskich podróży.