Nasza Loteria SR - pasek na kartach artykułów

AI może ukraść PESEL i pozbawić oszczędności!

OPRAC.:
Norbert Uram
Norbert Uram
AI może ukraść PESEL i pozbawić oszczędności!
AI może ukraść PESEL i pozbawić oszczędności! pixabay.com
Niemal 38% Polaków z doświadczeniem w korzystaniu ze sztucznej inteligencji (AI) obawia się, że ta technologia może zastąpić ich na stanowiskach pracy w przyszłości. Dodatkowo prawie 43% jest przekonanych, że AI zawsze udziela odpowiedzi zgodnych z prawdą. To zaufanie coraz częściej jest wykorzystywany przez cyberprzestępców. Wykorzystują oni AI do wyłudzania informacji osobistych, loginów i haseł do różnych kont, w tym bankowych. Również podszywają się pod członków rodziny użytkowników. Pomimo stosowania różnych metod, cel przestępców zawsze jest ten sam - wyłudzenie pieniędzy.

Czy AI zastąpi człowieka?

Sztuczna inteligencja od dawna wzbudza wiele kontrowersji i obaw. Wiele osób bowiem boi się, że pewnego dnia zostaną oni zastąpieni przez AI. Już teraz jest coraz chętniej wykorzystywana w różnych gałęziach gospodarki. Jednak odpowiedź na to, czy zastąpią nas maszyny nie jest jednoznaczna.

Według badania Deloitte Digital Consumer Trends 2023, przeprowadzonego na grupie ponad 2 tys. polskich internautów w wieku 18-65 lat, 47% respondentów słyszało o generatywnej sztucznej inteligencji, a ponad połowa z tej grupy korzystała z niej przynajmniej raz.

Niepokojące jest, że 43% respondentów z doświadczeniem w korzystaniu z AI błędnie uważa, że zawsze dostarcza ona odpowiedzi obiektywne i prawdziwe. Biorąc pod uwagę, jak często cyberprzestępcy wykorzystują AI, można przewidzieć, że coraz więcej osób będzie ofiarami wyłudzeń. Prokuratura Krajowa nie prowadzi na razie statystyk spraw, w których wykorzystano AI lub uczenie maszynowe (ML), ale analiza zaistniałych przypadków wskazuje, że przestępcy coraz częściej będą stosować tę technologię nie tylko do zdobycia dostępów do kont bankowych czy systemów biznesowych, ale także do stalkowania, wyłudzania danych osobowych oraz tworzenia fałszywych e-maili i SMS-ów.

Phishing - uważaj co klikasz!

– Kreatywność cyberprzestępców jest bardzo duża, zapewne jeszcze nie raz zostaniemy zaskoczeni ich pomysłami. Jednym z najprostszych zastosowań sztucznej inteligencji do wyłudzenia danych osobowych jest phishing, czyli wysyłanie e-maili podszywających się pod jakąś instytucję, w których jesteśmy proszeni o podanie danych osobowych, albo przekierowywani do fałszywych stron internetowych. Dotychczas można je było łatwo odróżnić, bo z reguły zawierały mnóstwo błędów gramatycznych czy ortograficznych. Wykorzystanie modeli językowych to eliminuje. Można AI nauczyć stosowania określonego stylu i zrobi to bezbłędnie – ostrzega Bartłomiej Drozd, ekspert serwisu ChronPESEL.pl.

To jednak nie wszystko. W ubiegłym roku Zespół Reagowania na Incydenty Bezpieczeństwa Komputerowego Komisji Nadzoru Finansowego (CSIRT KNF) ostrzegał m.in. przed wprowadzającymi w błąd reklamami platform inwestycyjnych, w których podszywano się pod znane instytucje lub osoby, w tym polityków. W kwietniu 2023 r. oszuści najczęściej wykorzystywali wizerunek Baltic Pipe (30 proc.), PGNiG (26 proc.), Tesli (11 proc.), spółek Skarbu Państwa (4 proc.) i banków (3 proc.).

– Takie reklamy zamieszczane w mediach społecznościowych również przekierowywały do fałszywych podstron z formularzami wymagającymi np. rejestracji. Pozyskane w ten sposób dane mogą prędzej czy później zostać wykorzystane do wyłudzeń – dodaje Bartłomiej Drozd.

Przykłady można mnożyć. W 2023 roku pojawiły się reklamy stworzone przy pomocy AI, które prowadziły do oficjalnego sklepu Google Play. Zachęcano w nich do pobrania niebezpiecznej aplikacji, której instalacja pozwoliłaby przestępcom przejąć kontrolę nad komputerem czy smartfonem. W ten sposób mogą oni uzyskać dostęp do znajdujących się na urządzeniu danych osobowych czy loginów i haseł do kont bankowych. Z kolei Naukowa i Akademicka Sieć Komputerowa (NASK) ostrzegała przed oszustami podszywającymi się pod Allegro, którzy wysyłali e-maile sugerujące otrzymanie od serwisu premii lojalnościowej.

Deepfake - nowa metoda oszustów

Cyberprzestępcy wykorzystują również technikę deepfake, która z pomocą AI pozwala tworzyć fałszywe filmy i obrazy, a także podszywać się pod członków rodziny ofiar. Wystarczy, że przestępcy zdobędą dostęp do nagrania głosu ofiary, które może pochodzić np. z mediów społecznościowych. Trudno jest zabezpieczyć się przed takim zagrożeniem.

W ankiecie przeprowadzonej przez McAfee na ponad 7 tys. respondentów z siedmiu krajów, 53% z nich przyznało, że co najmniej raz w tygodniu udostępnia swój głos w internecie. 10% ankietowanych doświadczyło próby oszustwa z wykorzystaniem fałszywego głosu generowanego przez AI, a kolejne 15% zna osobę, która była ofiarą takiego ataku. W Polsce, żadna instytucja nie prowadzi odrębnych statystyk dla przestępstw z wykorzystaniem AI, ale jest to poważny problem, przed którym ostrzegają m.in. Instytut Wymiaru Sprawiedliwości, CSIRT KNF i NASK.

emisja bez ograniczeń wiekowych
Wideo

Strefa Biznesu: Uwaga na chińskie platformy zakupowe

Dołącz do nas na Facebooku!

Publikujemy najciekawsze artykuły, wydarzenia i konkursy. Jesteśmy tam gdzie nasi czytelnicy!

Polub nas na Facebooku!

Kontakt z redakcją

Byłeś świadkiem ważnego zdarzenia? Widziałeś coś interesującego? Zrobiłeś ciekawe zdjęcie lub wideo?

Napisz do nas!

Polecane oferty

Materiały promocyjne partnera
Wróć na dzienniklodzki.pl Dziennik Łódzki