Reklamy potężnym narzędziem w rękach cyberprzestępców

Badacze z firmy Sophos zauważyli, że od początku 2023 roku cyberprzestępcy coraz częściej wykorzystują tzw. „malvertising”. Za pomocą fałszywych reklam użytkownicy są zwabiani na specjalnie spreparowane strony. Hakerzy próbują w ten sposób nakłonić osoby szukające m.in. programów Microsoft Teams, Slack lub narzędzi takich jak ChatGPT, do pobrania złośliwego oprogramowania zbierającego prywatne dane użytkownika.

 

Reklama groźniejsza niż się wydaje

Malvertising to połączenie angielskich słów malware (wszelkiego rodzaju szkodliwe aplikacje) oraz advertising (reklama). Nie jest to nowa technika w arsenale cyberprzestępców, jednak w ostatnich miesiącach zauważalny jest wyraźny wzrost jej popularności. Wynika to najprawdopodobniej z wprowadzenia przez firmę Microsoft domyślnej blokady uruchamiania makr (serii poleceń dla programów z pakietu Office pozwalających zautomatyzować procesy) w dokumentach pochodzących z niezaufanych źródeł. Dotychczas był to jeden z ulubionych sposobów przestępców na infekowanie komputerów ofiar. Hakerzy ukrywali złośliwe makra np. w załącznikach poczty e-mail wyglądających jak faktury lub pisma z banku. Po otwarciu takiego pliku na urządzeniu potajemnie instalowane było oprogramowanie malware.

Z badań zespołu Sophos X-Ops wynika, że cyberprzestępcy przenieśli swoje działania na fałszywe reklamy. Z ich pomocą próbują zainstalować u nieświadomych użytkowników złośliwe oprogramowanie z rodzin BatLoader oraz IcedID, wcześniej wykorzystywane m.in. do infekowania systemów oprogramowaniem ransomware oraz pozyskiwania danych uwierzytelniających do bankowości internetowej.
 

Cyberprzestępcy wykorzystują zainteresowanie AI

Jak wskazuje Christopher Budd, dyrektor ds. badań nad zagrożeniami w firmie Sophos, najnowsze z analizowanych fałszywych kampanii reklamowych dotyczyły narzędzi AI – modelu językowego ChatGPT i generatora obrazów MidJourney. Ekspert przekonuje, że oszuści uważnie śledzą popularne trendy i przy pomocy reklam próbują się pod nie „podpiąć”.

Malvertising przynosi oszustom wiele korzyści. Cyberprzestępcy, podobnie jak prawdziwi reklamodawcy, starannie opracowują swoje kampanie tak, aby dotarły one do konkretnych użytkowników, np. przebywających w wybranym miejscu na świecie. Co więcej, tego typu kampanie mogą być również trudne do wyśledzenia i wyeliminowania przez obrońców .


Zdaniem specjalisty to dopiero początek „boomu” na malvertising wśród hakerów, zwłaszcza że coraz więcej grup cyberprzestępczych oferuje swoje działania w systemie usługowym (ang. cybercrime-as-a-service) na czarnym rynku. Według ustaleń zespołu Sophos X-Ops pojawia się tam coraz więcej ofert sprzedażyzhakowanych kont do serwisów typu Google Ads, które pozwalają na umieszczanie reklam na ogólnodostępnych stronach www.

 

Czarne SEO, czyli mroczna strona pozycjonowania

Malvertising to niejedyna taktyka wyłudzania danych, która w ostatnich miesiącach stała się popularna wśród cyberprzestępców. Oszuści mają w zanadrzu także „czarne SEO”, czyli metody na wprowadzanie w błąd algorytmów wyszukiwarek internetowych. Hakerzy umieszczają określone słowa kluczowe na złośliwych witrynach, które kontrolują. Dzięki temu są one wyświetlane wyżej w wynikach wyszukiwania i odwiedzane przez większą liczbę użytkowników poszukujących informacji na określony temat. Na spreparowanych stronach najczęściej umieszcza się linki do złośliwych aplikacji udających prawdziwe, popularne programy.

Cyberprzestępcy będą ciągle zwiększać skuteczność swoich kampanii. Dlatego osoby zajmujące się cyberbezpieczeństwem muszą mieć się na baczności. Christopher Budd, dyrektor ds. badań nad zagrożeniami w firmie Sophos

Badanie Sophos: Czy Polacy boją się sztucznej inteligencji?

31% polskich użytkowników mediów społecznościowych używało już takich narzędzi jak ChatGPT i DALL·E 2. Korzystaniu ze sztucznej inteligencji towarzyszy ciekawość, ale i obawy. Jak wynika z badania firmy Sophos, dwóch na trzech ankietowanych uważa, że dane wprowadzane do programów AI mogą zostać niewłaściwie wykorzystane przez właścicieli aplikacji lub cyberprzestępców. Podobny odsetek użytkowników obawia się, że nie będzie w stanie odróżnić treści stworzonych przez człowieka od tych, których autorami są algorytmy.

 

ChatGPT – Polacy są ciekawi, ale też zaniepokojeni

Blisko jeden na trzech z badanych Polaków (35% mężczyzn i 28% kobiet) miał styczność z modelem językowym ChatGPT lub generatorem obrazów DALL·E 2. To wynik wyższy niż wśród respondentów z Czech (25%) i Węgier (zaledwie 13%). Blisko połowa respondentów z grupy wiekowej od 18 do 24 lat używała narzędzi AI. Najczęściej korzystają z nich osoby z wyższym wykształceniem (38%), mieszkające w największych polskich miastach (40%) oraz te pracujące w IT (54%), mediach i reklamie (50%), a także kulturze (46%). Wśród najstarszych ankietowanych, mających 55 i więcej lat, 13% posługiwało się sztuczną inteligencją.

Badanie jednoznacznie wskazuje, że wraz z wiekiem maleje zainteresowanie tą technologią, rosną za to związane z nią obawy. Aż 67% Polaków korzystających z mediów społecznościowych (75% z najstarszej grupy badanych) niepokoi się, że dane wprowadzane do korzystających z AI aplikacji mogą wpaść w niepowołane ręce. Na takie niebezpieczeństwo wskazują zwłaszcza osoby zatrudnione w administracji publicznej (85%), opiece zdrowotnej (74%), szkolnictwie (74%) oraz finansach i bankowości (72%). Zagrożenia związane z przetwarzaniem przez sztuczną inteligencję poufnych informacji użytkowników dostrzega też 57% ankietowanych Czechów i 44% Węgrów.

Już teraz cyberprzestępcy zarabiają miliony dzięki kiepsko spreparowanym fałszywym tekstom. Czy czatując z korzystającym z zaawansowanego SI botem przez komunikatory, takie jak WhatsApp czy Microsoft Teams, w ogóle wiedzielibyśmy, że nie rozmawiamy z człowiekiem? Tworzenie tekstowych wiadomości do złudzenia przypominających te napisane przez człowieka, to tylko jedna z możliwości, jakie oszustw daje SI. Należy być podejrzliwym i sprawdzać wszystkie SMS-y i maile, zwłaszcza te z prośbami o dane logowania czy na temat kwestii finansowych. Warto poświęcić kilka chwil, aby upewnić się, z czym faktycznie ma się do czynienia, a w razie wątpliwości prosić o pomoc. To nie paranoja – naprawdę jesteśmy na celowniku cyberprzestępców.

 

Człowiek czy AI? Najtrudniejsze pytanie nadchodzących lat

37% respondentów z Polski uważa, że w ciągu najbliższych trzech lat będą w stanie odróżnić dzieło człowieka od treści wygenerowanej przez sztuczną inteligencję. Najbardziej pewni swoich osądów są ankietowani w przedziale wiekowym od 18 do 34 lat (średnio 41%) i pracownicy branży medialnej oraz IT (średnio 51%). Wśród badanych mających powyżej 55 lat takie przekonanie ma tylko co czwarta osoba.

Dla porównania zaledwie 13% wszystkich użytkowników mediów społecznościowych w Czechach wierzy, że w niedalekiej przyszłości dostrzeże różnice między wytworem człowieka a rezultatem pracy AI. Wśród ankietowanych Węgrów odsetek ten wynosi 34%.

 

Bot po drugiej stronie słuchawki

Formą sztucznej inteligencji, z którą często spotykają się Polacy, są również boty-sprzedawcy, z których korzystają m.in. firmy telemarketerskie. Ponad 61% uczestników badania przeprowadzonego przez firmę Sophos twierdzi, że rozpoznało dzwoniący do nich automat. Najczęściej (67%) deklarują to ankietowani w wieku od 18 do 24 lat oraz osoby z wyższym wykształceniem (65%), najrzadziej osoby starsze (54%) i gorzej wykształcone (50%).

Prawie połowa ankietowanych Czechów (48%) i co trzeci Węgier (36%) również deklaruje, że są w stanie poprawnie zidentyfikować, czy rozmawiają z człowiekiem, czy też z botem.

53% respondentów z Polski uważa, że w najbliższej przyszłości wciąż będzie umieć wskazać kto naprawdę znajduje się po drugiej stronie słuchawki. Odpowiedzi „nie wiem” udziela 34% badanych.

Szybki skok popularności narzędzi AI, w tym chatbotów, wynikać może z ich wysokiej użyteczności i prostoty użycia. Należy jednak pamiętać, że są to technologie stworzone w celu imitowania rozmowy z człowiekiem, a nie dostarczania zweryfikowanej wiedzy. Poczucie obcowania z żywą osobą bywa tak przemożne, szczególnie w połączeniu ze skłonnością niektórych osób do antropomorfizacji (uczłowieczania) sztucznych bytów, że co piąty badany słusznie podaje w wątpliwość swoje możliwości odróżnienia człowieka od bota.

 
Ekspert badający wpływ technologii cyfrowych na życie społeczne ostrzega też, że gwałtowny rozwój technologii AI ma również ogromny potencjał dezinformacyjny. Dodaje, że najbardziej podatni na nieprawdziwe treści wygenerowane przez AI mogą być ci, którzy deklarują, że bez większych problemów odróżniają boty od ludzi.
 

O badaniu

Badanie „Postawy wobec prywatności danych i cyberbezpieczeństwa w odniesieniu do mediów społecznościowych i aktywności w sieci” zostało przeprowadzone przez niezależną agencję badawczą UCE Research w czerwcu 2023 r. na grupie 1000 respondentów. Identyczne badanie na zlecenie firmy Sophos zrealizowano na terenie Czech i Węgier.

ChatGPT: 5 faktów na temat sztucznej inteligencji

ChatGPT z każdym miesiącem cieszy się coraz większą popularnością. Jednak narzędzie, z którego korzysta już ponad 100 milionów użytkowników na całym świecie, wciąż kryje w sobie wiele tajemnic. Chester Wisniewski, dyrektor ds. technologii w firmie Sophos, odpowiada na pięć trudnych i budzących niepokój pytań związanych ze sztuczną inteligencją opracowaną przez OpenAI.  

 

Z ChatGPT poza zwykłymi internautami korzystają też inżynierowie zajmujący się cyberbezpieczeństwem oraz cyberprzestępcy. Ci ostatni przygotowują przy jego pomocy fałszywe wiadomości e-mail i SMS, które mają na celu wyłudzenie danych od nieświadomych użytkowników. Z kolei specjaliści z firmy Sophos opracowali bazujący na sztucznej inteligencji skuteczny filtr antyspamowy.

Model językowy firmy OpenAI jest tak zaawansowany, że w wielu krajach rozpoczęła się dyskusja na temat prawnego uregulowania korzystania z narzędzia. W marcu 2023 r. organizacja Future of Life Institue w liście otwartym do firm i laboratoriów zajmujących się sztuczną inteligencją wzywała do zaprzestania prac na okres sześciu miesięcy. Pod apelem podpisały się także znane w branży osoby, takie jak Elon Musk (Tesla, SpaceX) i Steve Wozniak (współzałożyciel firmy Apple), ale nie przyniósł on spodziewanego efektu.

Chester Wisniewski, dyrektor ds. technologii w firmie Sophos, zwraca uwagę na pięć kwestii, o których powinien wiedzieć każdy użytkownik ChatGPT.

 

1. Czy znamy wszystkie możliwości najnowszej wersji ChatGPT?

Wersja modelu językowego oznaczona numerem 4 wydaje się inteligentniejsza i dokładniejsza od swojego poprzednika. W porównaniu do wcześniejszych generacji jest jej też bliżej do uzyskania zdolności, które moglibyśmy określić mianem „myślenia”. Nie znamy jednak wszystkich możliwości narzędzia. Ważne jest, aby pamiętać, że chociaż ChatGPT coraz rzadziej się myli i przeinacza fakty, to wciąż daleko mu do bycia nieomylnym.

 

2. Czy publiczne udostępnienie narzędzia, z którego mogą korzystać także przestępcy, jest w ogóle etyczne?

Nawet kiedy postęp technologiczny staje się niewygodny, nie można go po prostu zatrzymać i schować w niewidocznym dla innych miejscu. Z zaawansowanymi modelami językowymi jest podobnie. Wszystkich zalet wynikających z używania sztucznej inteligencji będzie prawdopodobnie znacznie więcej niż potencjalnych niebezpieczeństw. Właściwe wykorzystanie tych narzędzi może uczynić wiele dobrego.

 

3. Czy kiedykolwiek powstanie sztuczna inteligencja odporna na nadużycia cyberprzestępców?

Zabezpieczenia można ominąć, także te zastosowane w modelu językowym ChatGPT. Twórcy takich programów zdają sobie z tego sprawę i robią wszystko, aby łatać znalezione przez cyberprzestępców luki. Z każdą kolejną próbą wykorzystania AI do niecnych celów niezgodnych z prawem, złamanie mechanizmów ochronnych staje się więc trudniejsze. Żyjemy jednak w czasach, w których nawet uczeń podstawówki może nauczyć się hakowania algorytmów sztucznej inteligencji, wyszukując w sieci informacje na ten temat. W przyszłości stanie się to bardziej wymagające, choć wciąż będzie możliwe.

 

4. Czy ChatGPT w ogóle tworzy nowe treści czy tylko przetwarza dane, z których sam się uczył?

Jedyne, co ChatGPT potrafi stworzyć samodzielnie, to kłamstwa. Sztuczna inteligencja jest naprawdę przekonującym, ale i zapatrzonym w siebie kłamcą. Do szkolenia modelu bez wątpienia wykorzystano także informacje, które nie są prawdziwe. Nie da się przewidzieć, w którym momencie ChatGPT wykorzysta je do udzielenia odpowiedzi na zadane mu pytanie. Przewagą człowieka nad AI jest prawdziwa kreatywność i to, że ma możliwość podjęcia świadomej decyzji czy chce skłamać, czy nie.

 

5. Czy istnieje rozwiązanie problemu prywatności danych, które użytkownicy wprowadzają do narzędzi takich jak ChatGPT?

Obecnie możemy polegać wyłącznie na obietnicach złożonych w umowach licencyjnych, na które się zgadzamy, gdy zaczynamy korzystać z narzędzi AI. Nie zakładałbym, że powstanie coś na wzór „otwartej” sztucznej inteligencji, która nie zbiera danych o użytkownikach. Najbardziej zaawansowane modele należeć będą do wielkich firm, które włożyły ogromne pieniądze w ich opracowanie. Trzeba pamiętać, że trenowanie algorytmów wymaga bardzo dużo mocy obliczeniowej, ale korzystanie z nich już nie. Można spodziewać się, że w niedalekiej przyszłości starsze wersje AI wciąż będą udostępniane za darmo wszystkim, którzy będą chcieli z nich korzystać. Jednak tylko od ich właścicieli będzie zależało, co zrobią z wprowadzonymi przez swoich klientów informacjami.

Workation: pracownicy zdalni w niebezpieczeństwie

Workation, czyli praca zdalna podczas wyjazdu, cieszy się coraz większą popularnością. Jednak możliwość wykonywania swoich obowiązków z praktycznie dowolnego miejsca na świecie jest równie wygodna, co niebezpieczna. Chester Wisniewski, dyrektor ds. technologii w firmie Sophos przypomina, że osoby pracujące „na odległość” zawsze znajdują się na celowniku cyberprzestępców i podpowiada, jak skutecznie chronić się przed zagrożeniami w sieci.

 

Wydawać by się mogło, że do pracy zdalnej potrzebne jest wyłącznie szybkie i stabilne połączenie internetowe, np. z hotelowym Wi-Fi. W rzeczywistości pracownik korzystający z firmowego laptopa w nadmorskiej restauracji lub na plaży ryzykuje utratę zarówno własnych danych, jak i tych należących do jego pracodawcy.

Nowoczesne strategie bezpieczeństwa muszą zakładać, że każde urządzenie końcowe, z którego korzysta pracownik, zawsze znajduje się w niebezpieczeństwie. Nieodpowiednio chronieni pracownicy mogą napotkać wiele zagrożeń – m.in. fałszywe strony internetowe, rozsyłane przez przestępców złośliwe załączniki i linki czy ataki na sieci, z którymi łączą się urządzenia. To tylko część cyberzagrożeń, które można łatwo odpierać, jeśli posiada się odpowiednio skonfigurowane mechanizmy obronne. W dobie pracy zdalnej nie wszyscy pracownicy znajdują się jednak wewnątrz dobrze strzeżonej firmowej „twierdzy”.​

 
Nie lekceważ aktualizacji

Podstawowym, a niestety często pomijanym elementem skutecznej ochrony, jest korzystanie z najnowszych dostępnych wersji systemów operacyjnych i oprogramowania. Producenci na bieżąco łatają pojawiające się luki, które mogą wykorzystywać hakerzy. Dlatego trzeba dopilnować, aby na sprzęcie służącym do pracy zdalnej zawsze były zainstalowane najnowsze poprawki bezpieczeństwa.

 

Publiczne Wi-Fi? Tak, ale pod kilkoma warunkami

Chcąc korzystać z publicznych sieci Wi-Fi, należy trzymać się kilku żelaznych zasad. Po pierwsze, zainstalować na swoim urządzeniu VPN (ang. Virtual Private Network), by korzystać z szyfrowanych połączeń z siecią. Do tego powinno się odwiedzać tylko bezpieczne strony internetowe, których adresy zaczynają się od https://. Lepiej też nie logować się z publicznej sieci do poczty e-mail czy kont bankowych.

Aby obniżyć ryzyko przechwycenia danych, warto rozważyć zakup lokalnej karty SIM ze sprawdzonego źródła. Na terenie Unii Europejskiej można korzystać z bezpłatnego roamingu.

 

Silne hasło do komputera, długi kod do telefonu

Laptop i telefon, czyli urządzenia najczęściej zabierane ze sobą przez pracujących zdalnie, mogą się zgubić lub zostać skradzione. Trzeba zadbać, by w takich sytuacjach nikt postronny nie był w stanie uzyskać dostępu do znajdujących się na nich informacji.

W tym celu specjalista zaleca stosowanie długiego na przynajmniej 10 cyfr kodu blokady telefonu (innego niż 00000 00000 czy 12345 12345) oraz silnego hasła do komputera. Kombinacje powinny być unikalne i uniemożliwiać uzyskanie dostępu do innych urządzeń lub systemów osobom niepowołanym. Nie mogą też być takie jak PIN do karty kredytowej czy hasło do poczty e-mail. Poleca się także stosowanie zabezpieczeń biometrycznych: odcisków palca i rozpoznawania twarzy.

 

Nie zapominaj o kopii zapasowej

Prawdopodobieństwo utraty albo uszkodzenia urządzeń elektronicznych podczas podróży jest większe, niż gdy pracujemy z domu lub biura. Dlatego istotne jest regularne tworzenie kopii zapasowych i bezpieczne przechowywanie plików w więcej niż jednym miejscu.

Brak dostępu do plików w skrajnych sytuacjach może skutkować koniecznością powrotu do biura i, co za tym idzie, skróceniem wyjazdu.

 

Jesteś online? Więc jesteś na celowniku

Jednym z najczęstszych rodzajów cyberataków jest phishing, czyli próba wyłudzenia danych logowania przy użyciu fałszywych wiadomości e-mail i SMS. Nie tylko w czasie wakacji należy wystrzegać się otwierania linków i załączników z nieznanych źródeł. Nie wolno zapominać, że w przypadku urządzeń służbowych hakerzy mogą otrzymać dostęp zarówno do plików użytkownika, jak i zasobów firmy. Wystrzegać należy się także używania ogólnodostępnego sprzętu np. komputera w hotelowym lobby. Jeśli nie ma wyboru, trzeba maksymalnie ograniczyć liczbę danych przesyłanych z pomocą takiego urządzenia.

Zhakowany komputer może umożliwić przestępcy dostęp do wszystkich posiadanych i wysyłanych danych, także tych znajdujących się w chmurze czy w firmowym systemie. Zainstalowane na urządzeniu złośliwe oprogramowanie może śledzić każde naciśnięcie klawisza, robić zrzuty ekranu i wykonywać dokładne kopie drukowanych za jego pomocą dokumentów.

 

Co powinna zrobić firma?

Odpowiedzialność za bezpieczną pracę zdalną leży nie tylko po stronie pracownika. Ekspert Sophos zaznacza, że skuteczna ochrona osób wykonujących swoje obowiązki poza biurem jest trudna, ale możliwa.

Jednym z pierwszych kroków może być wdrożenie polityki bezpieczeństwa ZTNA (Zero Trust Network Access – wymóg weryfikacji i autoryzacji każdego użytkownika i urządzenia, zanim uzyskają dostęp do firmowych zasobów). Kontrola dostępu do danych zapewnia pracownikom możliwość bezpiecznego łączenia się zdalnie z aplikacjami i systemami, bez wglądu we wszystkie firmowe zasoby. Jednak taka polityka zadziała tylko wtedy, kiedy zatrudnieni stosować będą zasady cyberhigieny, a odpowiednio zabezpieczone będą zarówno system, jak i urządzenia końcowe.

 
Specjalista dodaje, że plan ochrony dla pracowników zdalnych powinien być kompleksowy. Musi przy tym umożliwiać monitorowanie, wykrywanie i reagowanie na ataki.
 

Brakującymi elementami systemu ochronnego dla urządzeń pracowników zdalnych są najczęściej filtrowanie HTTPS i analiza treści internetowych. Istnieje jednak szereg innych rozwiązań zapewniających bezpieczeństwo, takie jak analiza behawioralna, sztuczna inteligencja, narzędzia zapobiegające utracie danych (DLP) i narzędzia nadzoru punktów końcowych i rozszerzonego wykrywania oraz reagowania na zagrożenia (EDR i XDR). Dzięki takim rozwiązaniom atakujący będą musieli „przebić” się przez kilka warstw skutecznej ochrony i to nawet gdy ich cel, czyli pracownik, znajduje się poza biurem.

Apple App Store i Google Play zalewają fałszywe aplikacje udające ChatGPT – raport Sophos

W sklepach Google Play i Apple App Store pojawiły się aplikacje podszywające się pod ChatGPT. Firma Sophos ostrzega przed złośliwymi programami typu fleeceware, których twórcy próbują namówić zainteresowanych sztuczną inteligencją (SI) użytkowników do opłacania kosztownych subskrypcji. W zbadanych przez ekspertów przypadkach cyberprzestępcy oferowali abonamenty na fałszywe usługi kosztujące nieświadomych klientów nawet ponad tysiąc złotych rocznie.

 

Cieszący się ogromną popularnością ChatGPT jest już dostępny w formie aplikacji mobilnej dla systemu iOS. Zwiększone zainteresowanie chatbotem opracowanym przez firmę OpenAI starają się wykorzystywać cyberprzestępcy.

Osoby szukające aplikacji ChatGPT w sklepach Apple App Store i Google Play mogą natknąć się na programy typu fleeceware, które w darmowych wersjach, dosłownie bombardują użytkowników reklamami. W ten sposób ich twórcy wymuszają wykupienie subskrypcji na fałszywe usługi. Liczą na to, że ofiary albo nie zwrócą uwagi na pozornie niskie koszty abonamentu, albo zapomną, że w ogóle go mają.

 
Fałszywe aplikacje  prawdziwe koszty dla użytkowników
 

Zespół Sophos X-Ops zbadał pięć aplikacji fleeceware rzekomo bazujących na modelu ChatGPT. W niektórych przypadkach nieuczciwi deweloperzy wykorzystywali podobnie brzmiącą nazwę, na przykład „ChatGBT”, aby zwiększyć widoczność programu w Google Play lub App Store.

Jedna z fałszywych aplikacji, „Ask AI Assistant” dla systemu iOS, oferowała użytkownikom tygodniową subskrypcję w wysokości 6 dolarów (około 25 zł) po zaledwie trzydniowym darmowym okresie próbnym. Specjaliści Sophos szacują, że w tylko w marcu 2023 r. cyberprzestępcy zarobili na niej 10 tysięcy dolarów. Przychody z „Genie”, innego programu udającego ChatGPT, oferującego abonamenty na 7 dni lub rok, wyniosły aż milion dolarów.

 

Skąd aplikacje fleeceware biorą się w sklepach Google i Apple?

Charakterystyczną cechą aplikacji fleeceware, o których Sophos po raz pierwszy informował już w 2019 r., jest naliczanie wygórowanych opłat za dostępne za darmo funkcje. Cyberprzestępcy sztucznie zawyżają oceny przyznawane takim programom w sklepach z aplikacjami. Celem jest zdobycie zaufania użytkowników.

Aplikacje typu fleeceware są specjalnie zaprojektowane tak, aby balansować na krawędzi tego, co jest dozwolone przez Google i Apple w ramach ich regulaminów.

 
Ekspert dodaje, że programy te nie łamią zasad bezpieczeństwa czy prywatności, dlatego rzadko kiedy są odrzucane przez Google Play i Apple App Store w procesie weryfikacji. Chociaż wspomniane firmy wprowadziły dodatkowe wytyczne w celu ograniczenia obecności fleeceware w swoich sklepach, cyberprzestępcy ciągle znajdują sposoby na to, by obejść nowe zasady.
 
 

Ostrożności nigdy za wiele

Wszystkie fałszywe aplikacje zanalizowane przez ekspertów Sophos zostały zgłoszone do Apple i Google. Użytkownicy, którzy już je pobrali, powinni postępować zgodnie z wytycznymi sklepów dotyczącymi anulowania subskrypcji. Trzeba pamiętać, że samo usunięcie aplikacji fleeceware z telefonu nie anuluje wykupionego abonamentu.

Najlepszą ochroną przed oszustami jest świadomość i edukacja. Użytkownicy zawsze powinni dokładnie czytać regulaminy i to, co jest napisane „drobnym drukiem”, zanim zdecydują się na wykupienie subskrypcji na daną usługę. Warto pamiętać, że aplikacje można zgłaszać do Apple i Google, jeśli ma się podejrzenie, że deweloperzy zarabiają na nich, używając nieuczciwych metod. Część z opisywanych aplikacji fleeceware została już usunięta, ale wciąż będą pojawiać się kolejne.

Raport Sophos: 3 na 4 ataki ransomware kończą się zaszyfrowaniem danych

Aż 76% ataków ransomware skutkuje zaszyfrowaniem firmowych danych. Odsetek ten jest najwyższy od 2020 r. Z raportu firmy Sophos wynika, że styczność ze złośliwym oprogramowaniem miały 2 na 3 badane przedsiębiorstwa. Dane jednoznacznie wskazują, że skutki cyberataków najboleśniej odczuwają ci, którzy spełnili żądania cyberprzestępców.

 

Mniej ataków, większe zagrożenie

Sophos zanalizował dane na temat średnich i dużych firm z Europy, obu Ameryk, Azji i rejonu Pacyfiku. 66% badanych przedsiębiorstw stało się w 2022 r. celem ataku ransomware – odsetek ten nie zmienił się od roku 2021. Eksperci Sophos wskazują, że tempo działań cyberprzestępców utrzymuje się na stałym poziomie, mimo zauważalnego spadku liczby ataków z wykorzystaniem złośliwego oprogramowania.

Po przejściowym spadku podczas pandemii odsetek ataków zakończonych zaszyfrowaniem danych wrócił do alarmującego stanu. Cyberprzestępcy udoskonalają swoje techniki i przyspieszają ataki, aby maksymalnie skrócić czas, w którym obrońcy mogą im przeszkodzić.

 
Najczęściej hakerzy wykorzystywali luki w zabezpieczeniach (36% wszystkich przypadków), aby uzyskać dostęp do firmowych zasobów. W blisko 30% ataków wejście do systemu umożliwiły nielegalnie pozyskane dane logowania.
 

Należy dodać, że w blisko 1/3 przypadków cyberprzestępcy nie tylko zaszyfrowali, ale i wykradli firmowe dane. To tak zwana metoda „double dip”. Specjaliści Sophos ostrzegają, że atakujący stosują ją coraz częściej, gdyż umożliwia im to dalsze szantażowanie przedsiębiorstw, które odmówiły zapłacenia okupu. Hakerzy będący w posiadaniu poufnych informacji mogą grozić np. ich ujawnieniem lub odsprzedaniem konkurencji.

 

Współpracujący z hakerami płacą dwa razy więcej

Działania cyberprzestępców generują ogromne wydatki dla zaatakowanych firm. Średni koszt odzyskania danych po cyberataku z użyciem ransomware wyniósł 375 tys. dolarów (około 1,55 miliona złotych) w przedsiębiorstwach korzystających z kopii zapasowych. Firmy, które zdecydowały się zapłacić okup hakerom, na powrót do operacyjności wydawały dwa razy więcej – 750 tys. dolarów, czyli około 3,1 miliona złotych.

Ogólny odsetek przedsiębiorstw, które poszły na rękę cyberprzestępcom, wyniósł 46%. Najczęściej okupy płaciły firmy o rocznych przychodach w wysokości powyżej 5 miliardów dolarów. Może to wynikać częściowo z faktu, że wiele z nich posiada ubezpieczenia cybernetyczne obejmujące spłatę żądań atakujących.

Większość firm zaatakowanych przez ransomware nie będzie w stanie odzyskać wszystkich swoich plików nawet jeśli odkupią od cyberprzestępców klucze szyfrujące. Dlatego konieczne jest korzystanie z kopii zapasowych danych. Płacenie okupu nie tylko poprawia sytuację finansową hakerów, ale także spowalnia reakcję na incydent naruszenia danych. Ostatecznie zwiększa to i tak horrendalne koszty usunięcia szkód po cyberataku.

 
Jak skutecznie chronić się przed ransomware?
 

Specjaliści z firmy Sophos zalecają wzmocnienie ochrony firmowej sieci o dodatkowe narzędzia zabezpieczające punkty końcowe i stosowanie rozwiązań Zero Trust Network Access (ZTNA), pozwalających na bezpieczny zdalny dostęp do firmowych danych. Zdaniem ekspertów kluczem do skutecznej ochrony jest wykrywanie, badanie i reagowanie na zagrożenia 24 godziny na dobę, 7 dni w tygodniu — zarówno we własnym zakresie, jak i z pomocą zewnętrznych zespołów reagowania oraz usług (tzw. Managed Detection and Response, MDR).

Nie należy zapominać też o regularnym wykonywaniu kopii zapasowych, wdrażaniu aktualizacji oprogramowania, systematycznym przeglądzie konfiguracji narzędzi bezpieczeństwa oraz dbaniu o cyberhigienę.

Firmy muszą pracować nad skróceniem czasu potrzebnego na wykrycie atakujących i czasu reakcji na incydent naruszenia bezpieczeństwa. Polowanie na zagrożenia prowadzone przez specjalistów jest skuteczne, ale badane muszą być wszystkie alerty. Przestępcy powinni też być usuwani z systemów w ciągu godzin i dni, a nie tygodni czy miesięcy. Doświadczeni analitycy mogą rozpoznać wzorce włamania w ciągu kilku minut i od razu przystąpić do działania. To prawdopodobnie różnica między jedną trzecią przedsiębiorstw, która pozostaje bezpieczna, a pozostałymi, które padły ofiarą hakerów.

 
O raporcie
 

Dane z raportu „State of Ransomware 2023” pochodzą z badania przeprowadzonego wśród 3000 liderów cyberbezpieczeństwa w okresie od stycznia do marca 2023 roku. Respondenci pochodzili z 14 krajów z obu Ameryk, Europy, Azji i rejonu Pacyfiku. Badane firmy zatrudniały od 100 do 5000 pracowników, a ich roczne przychody wahały się od mniej niż 10 milionów dolarów do ponad 5 miliardów dolarów.

Raport Sophos: ponad 500 narzędzi i technik w arsenale cyberprzestępców

Ataki typu ransomware wciąż uważane są za najbardziej powszechne zagrożenia dla firm. Arsenał cyberprzestępców jest jednak znacznie bardziej rozbudowany. Eksperci Sophos przeanalizowali dane ze 152 incydentów – okazuje się, że w 2022 r. hakerzy korzystali z ponad 500 różnych technik i narzędzi, by uzyskać dostęp do danych.

 

Informacje zebrane w raporcie zespołu Sophos Incident Response (IR) pochodzą z firm z 31 krajów, działających w 22 różnych branżach. Na ich podstawie specjaliści wyszczególnili aż 118 rodzajów ataków z wykorzystaniem narzędzi LOLBin (legalne oprogramowanie i komponenty wbudowane w system Microsoft Windows). W przeciwieństwie do ransomware, LOLBiny są normalnymi plikami uruchamianymi w systemach operacyjnych. Podczas ataku bardzo trudno jest je zablokować, dlatego korzysta z nich coraz więcej cyberprzestępców.

 

Luki wykryto już dwa lata. Hakerzy ciągle je wykorzystują

Najczęstszym powodem, dla którego cyberataki kończyły się uzyskaniem dostępu do danych przedsiębiorstw, było niezałatanie  podatności w zabezpieczeniach przez zespoły ds. bezpieczeństwa. W połowie analizowanych przypadków hakerzy wykorzystali odkryte jeszcze w 2021 r. luki ProxyShell i Logshell. Cyberprzestępcy często korzystali również z pozyskanych nielegalnie danych uwierzytelniających.

Można powiedzieć, że obecnie cyberprzestępcy już się nie włamują, a po prostu logują. Wielkość i złożoność krajobrazu zagrożeń rozrosła się do punktu, w którym nie ma jasno określonych miejsc będących furtkami dla hakerów. Dla większości firm minęły czasy samodzielnej i skutecznej ochrony przed cyberatakami. Jednak dostępne są narzędzia i usługi, które mogą odciążyć specjalistów ds. bezpieczeństwa. Dzięki temu mogą oni skupić się na priorytetach biznesowych .

 
Cyberprzestępcy działają coraz szybciej
 

Ponad 2/3 ataków zbadanych przez zespół Sophos IR zakończyło się zaszyfrowaniem danych przy pomocy ransomware. Złośliwe oprogramowanie pozostaje najpoważniejszym zagrożeniem dla firm. Skrócił się za to średni czas wykrycia obecności cyberprzestępców w infrastrukturze IT – z 15 do 10 dni względem roku 2021 r. W przypadku zainfekowania ransomware z 11 do 9 dni, a w innych rodzajach ataków z 34 do zaledwie 11 dni. W przeciwieństwie do ubiegłych lat średnie czasy wykrycia nie różniły się znacząco między przedsiębiorstwami różnej wielkości i z różnych branż.

Firmy, które skutecznie wdrożyły wielopoziomową ochronę i stale monitorują zagrożenia, mają najmniejsze straty z powodu ataków. Umocniona ochrona ma też skutek uboczny – aby pozyskać dane. hakerzy muszą przyspieszyć swoje działania. Takie szybsze ataki wymagają z kolei wcześniejszego wykrycia przez systemy zabezpieczające. Rywalizacja między atakującymi a obrońcami będzie się więc zaostrzać. Ci, którzy nie będą aktywnie obserwowali potencjalnych niebezpieczeństw, poniosą największe konsekwencje.

 
O raporcie
 

Dane z raportu “The Sophos Active Adversary Report for Business Leaders” opracowano na podstawie analiz 152 incydentów naruszenia danych w przedsiębiorstwach. W badaniu uwzględniono firmy z 22 różnych branż, z 31 różnych krajów, w tym w Stanów Zjednoczonych, Kanady, Wielkiej Brytanii, Niemiec, Szwajcarii, Włoch, Austrii, Finlandii, Belgii i Australii.

Wycieki danych i aktywni przeciwnicy — nowe oblicze cyberzagrożeń w 2023

Aż 94% firm na świecie padło ofiarą cyberataku w 2022 roku. Według raportu Sophos, dla 9 na 10 przedsiębiorstw realizowanie nawet podstawowych zadań związanych z cyberbezpieczeństwem jest zbyt wymagające. 75% firm ma trudności ze znalezieniem źródeł incydentów spowodowanych działalnością cyberprzestępczą, co naraża je na wielokrotne ataki ze strony tych samych hakerów.

 

Z badania zleconego przez firmę Sophos na grupie 3000 liderów odpowiedzialnych za cyberbezpieczeństwo wynika, że respondenci najbardziej obawiają się wycieku firmowych danych. Wśród istotnych zagrożeń ankietowani wskazują także na phishing (wyłudzanie danych poprzez podszywanie się pod inne firmy lub osoby) oraz zainfekowanie złośliwym oprogramowaniem ransomware, z którego pomocą przestępcy najczęściej atakują firmy.

Za główne zagrożenie związane z cyberbezpieczeństwem badani uznają niewłaściwą konfigurację narzędzi ochronnych. Połowa ankietowanych jest zdania, że metody stosowane przez hakerów stały się zbyt zaawansowane, aby ich firmy poradziły sobie z nimi samodzielnie.

 

Problemy nie kończą się na cyberataku

Ponad 2/3 badanych firm (71%) ma problemy z szybkim  usuwaniem skutków cyberataku. Taki sam odsetek ankietowanych nie wie, jakie sygnały i alerty powinno się sprawdzać, aby zawczasu wyśledzić obecność cyberprzestępców w firmowej sieci. Według raportu Sophos średni czas potrzebny na wykrycie, zbadanie i zareagowanie na alert to aż 9 godzin w przedsiębiorstwach zatrudniających od 100 do 3000 pracowników. Tam, gdzie pracuje od 3001 do 5000 osób, trwa to średnio aż 15 godzin.

Tylko co piąty respondent uważa luki w oprogramowaniu i usługi zdalne za główne ryzyka związane z cyberbezpieczeństwem. Jednak to właśnie one są systematycznie wykorzystywane przez przestępców. Wiele firm nie widzi pełnego obrazu i podejmuje działania na podstawie nieprawidłowych informacji. Martwe punkty i luki w systemach ochronnych mogą zostać wyeliminowane przez zewnętrzne audyty oraz stały monitoring. Dzięki nim można spojrzeć na własną firmę tak, jak robią to atakujący ją hakerzy.

 
Nieoceniona pomoc z zewnątrz
 

Zdaniem ekspertów Sophos kluczem do zminimalizowania strat jest korzystanie ze wsparcia zewnętrznych specjalistów. 94% przedsiębiorstw na świecie deklaruje, że współpracuje z dostawcami rozwiązań cyberbezpieczeństwa. Jednak większość z nich nadal zarządza zagrożeniami, polegając wyłącznie na własnych zasobach, przez co nie mogą poświęcać czasu na kwestie strategiczne. Blisko  2/3 ankietowanych chciałoby, aby firmowe zespoły IT były w stanie realizować inne projekty, a nie tylko „gasić pożary”. Należy przy tym zaznaczyć, że tylko połowa alertów (48%) związanych z naruszeniem bezpieczeństwa jest dalej analizowana.

Współczesne zagrożenia wymagają szybkiej i skoordynowanej reakcji. Niestety zbyt wiele organizacji wciąż tkwi w trybie biernym – nie poluje aktywnie na potencjalne zagrożenia Wpływa to zarówno na priorytety biznesowe, jak i członków zespołów ds. bezpieczeństwa. Ponad połowa respondentów stwierdziła, że martwienie się skutkami cyberataku realnie wpływa na ich problemy ze snem. Wyeliminowanie domysłów i stosowanie mechanizmów ochronnych bazujących na praktycznej wiedzy pozwoli zespołom IT we wspieraniu działalności biznesowej. Jednocześnie specjaliści uzyskają nieocenione wsparcie z zewnątrz przy wyczerpującej walce z ciągle powtarzającymi się cyberatakami.

 
Aktywni przeciwnicy – jedno z największych cyberzagrożeń 2023 r.
 

Oddanie kwestii związanych z cyberbezpieczeństwem w ręce zewnętrznych specjalistów może także pomóc w walce z tak zwanymi aktywnymi przeciwnikami. To cyberprzestępcy, którzy w czasie rzeczywistym dostosowują do napotkanych zabezpieczeń swoje techniki, taktyki i procedury (TTP). Ich działania, często skutkujące zainfekowaniem oprogramowaniem ransomware i incydentami naruszenia bezpieczeństwa danych, są najtrudniejsze do powstrzymania. Jedna na pięć firm doświadczyła w ubiegłym roku ataku z udziałem aktywnego przeciwnika. Odsetek ten był stały niezależnie od wielkości przedsiębiorstwa (od 23% do 25%).

Tym samym zaledwie 11% biznesów o rocznych przychodach poniżej 10 mln dolarów, padło ofiarą tak zaawansowanych poczynań cyberprzestępców. Może to wskazywać, że hakerzy koncentrują się na celach z grubszymi portfelami.

Wykrywanie aktywnych przeciwników wymaga sporych umiejętności i prawdopodobne jest, że rzeczywisty odsetek incydentów z ich udziałem jest jeszcze wyższy. 30% respondentów uznaje ten rodzaj ataków za jedno z głównych cyberzagrożeń w 2023 r.

ChatGPT – skuteczna broń do walki z cyberprzestępczością?

ChatGPT stał się groźnym narzędziem w rękach cyberprzestępców. Jednak, jak przekonują eksperci z Sophos, ten zaawansowany model językowy, zdolny do pisania i analizowania nawet dłuższych tekstów, może być również bardzo pomocny w walce z hakerami i internetowymi oszustami. Sztuczną inteligencję da się z powodzeniem wykorzystać do namierzania podejrzanej aktywności, filtrowania wiadomości e-mail czy przeciwdziałania cyberatakom z wykorzystaniem komponentów wbudowanych w system Microsoft Windows (LOLBin).

 

Badacze z firmy Sophos pracowali nad trzema projektami, które miały sprawdzić potencjał wykorzystania mechanizmu ChatGPT w cyberbezpieczeństwie. Na potrzeby eksperymentów sztuczna inteligencja trenowana była za pomocą zaledwie małej liczby próbek danych (tzw. Few-Shot Learning). To metoda uczenia maszynowego poprzez analizę wzorców, przypominająca sposób pozyskiwania i klasyfikowania informacji przez człowieka. Dla przykładu, wystarczy kilka zdjęć i namalowanych obrazów, aby ludzki mózg nauczył się odróżniać je od siebie. W podobny sposób, przedstawiając konkretne wzory, da się ćwiczyć SI, co dodatkowo ogranicza potrzebę gromadzenia dużej ilości wstępnie klasyfikowanych informacji.

 

Pomocna dłoń dla specjalistów ds. bezpieczeństwa

Pierwszym projektem specjalistów z Sophos było opracowanie specjalnego interfejsu zapytań w języku naturalnym (stosowanym przez ludzi do komunikowania się między sobą), który pozwala na filtrowanie złośliwej aktywności w telemetrii oprogramowania zabezpieczającego. Z odpowiednio przygotowanym modelem możliwa stała się obsługa oprogramowania Sophos XDR (Extended Detection and Response) nawet bez znajomości struktury baz danych czy języka SQL. Wystarczyło, że operatorzy wpisywali proste komendy w języku angielskim np. „Pokaż mi wszystkie uruchomione procesy o nazwie powershell.exe”, aby jeszcze szybciej otrzymywać poszukiwane informacje

Od listopada 2022 r., kiedy Open AI pokazało światu ChatGPT, wielu specjalistów ds. cyberbezpieczeństwa skupiało się głównie na zagrożeniach. Pojawiało się wiele pytań, np. o to czy przestępcy będą przy pomocy nowej technologii tworzyć złośliwe oprogramowanie albo pisać jeszcze bardziej przekonujące maile phishingowe. To możliwe, ale poza niebezpieczeństwami trzeba także zwracać uwagę na możliwości, jakie niesie wykorzystanie ChatGPT. Sztuczną inteligencję postrzegamy jako sprzymierzeńca.

 
Koniec spamu? Zadba o to sztuczna inteligencja
 

Chat GPT został także wykorzystany do opracowania nowego filtru antyspamowego. Eksperci Sophos wytrenowali istniejący już model językowy przy pomocy zaledwie kilku wiadomości o charakterze spamu. Okazało się to wystarczające, by czat zaczął wychwytywać niechciane e-maile i robił to znacznie skuteczniej niż tradycyjne filtry stosowane w poczcie elektronicznej.

Ostatnim z prototypowych zastosowań ChatGPT było stworzenie oprogramowania, które upraszczałoby rozkładanie na czynniki pierwsze ataków wykorzystujących narzędzia LOLBin (legalne oprogramowanie i komponenty wbudowane w system Microsoft Windows). Układane przez przestępców komendy wprowadzane w wierszu poleceń, które umożliwiają im wejście do systemu, są bardzo trudne do rozszyfrowywania nawet przez doświadczonych specjalistów. Sztuczna inteligencja, zdolna wygenerować działający kod w wielu językach skryptowych i programowania na podstawie poleceń wydanych w języku naturalnym, radzi sobie z tym o wiele lepiej.

Badacze wykorzystali ten fakt i wyszkolili model, aby robił coś odwrotnego – przygotowywał tekstowe opisy służące do późniejszej analizy cyberataków na podstawie wprowadzonych komend wiersza poleceń. Dlatego zastosowanie SI, ułatwiającej i przyspieszającej analizę kodu, może przyczynić się do skuteczniejszego powstrzymywania ataków z użyciem LOLBin w przyszłości.

 

ChatGPT drugim pilotem dla specjalistów IT

Zdaniem Seana Gallaghear z Sophos jednym z głównych problemów, z którymi mierzą się zespoły ds. bezpieczeństwa, jest duża ilość napływającego „szumu”. Specjaliści muszą sprawdzać zbyt dużą liczbę powiadomień i wykrytych sygnałów. Tymczasem wiele firm ma ograniczone zasoby ludzkie, które nie radzą sobie z dokładnym badaniem wszystkich potencjalnych niebezpieczeństw. Przez to cyberochrona nie jest aż tak skuteczna, jak powinna.

Nasze analizy udowodniły, że ChatGPT może uprościć czasochłonne procesy i odciążyć specjalistów ds. bezpieczeństwa. Pracujemy już nad włączeniem niektórych z tych prototypowych rozwiązań do naszych produktów. Efekty prac zespołu Sophos X-Ops udostępniliśmy na naszym GitHubie. Mogą z nich skorzystać wszyscy zainteresowani testowaniem możliwości oferowanych przez ChatGPT we własnych środowiskach analitycznych. Wierzymy, że w przyszłości sztuczna inteligencja może pełnić rolę „drugiego pilota” dla specjalistów ds. bezpieczeństwa.

Gdy sztuczna inteligencja spotyka się z ludzką ignorancją… ChatGPT już działa w służbie cyberprzestępców

Szkolenia pracowników z aspektów dotyczących cyberbezpieczeństwa są fundamentem skutecznej ochrony danych. Nabywane na nich umiejętności stają się jednak coraz mniej skuteczne wraz z rozwojem sztucznej inteligencji (SI). Chester Wisniewski, dyrektor ds. technologii w firmie Sophos, wskazuje, że SI w rękach cyberprzestępców stała się dużym zagrożeniem, nawet dla doświadczonych specjalistów IT.

 

Fałszywe wiadomości przestały wyglądać podejrzanie

Rozpoznawanie fałszywych linków, szukanie zielonych kłódek obok adresów stron internetowych w przeglądarkach, zwracanie uwagi na zabezpieczenia sieci Wi-Fi – wielu użytkowników przyswoiło sobie te elementarne zasady cyberhigieny.

Jednym z najskuteczniejszych elementów szkoleń z zakresu cyberbezpieczeństwa było instruowanie pracowników, aby zwracali uwagę na błędy gramatyczne i ortograficzne w otrzymywanych wiadomościach. Tekst z błędami wskazywał na to, że użytkownik może mieć do czynienia z atakiem.

Tymczasem niezwykle popularne w ostatnich tygodniach narzędzie ChatGPT okazało się bardzo skuteczne w udzielaniu wiarygodnych i często bardzo dokładnych odpowiedzi na zadane pytania. Świetnie nadaje się też do pisania krótkich tekstów, zwłaszcza w języku angielskim. Czy zatem ChatGPT i inne modele SI są w stanie wyeliminować ostatni element wielu oszustw, który zwykli użytkownicy byli w stanie wykryć?

 

Sztuczna inteligencja pozostaje niewidoczna

Zdaniem Konstantina Berlina, kierownika działu ds. sztucznej inteligencji w firmie Sophos, ChatGPT osiągnął już taki poziom zaawansowania, że większość ludzi prawdopodobnie będzie potrzebować pomocy, by móc odróżnić generowaną przez niego treść od tej stworzonej przez człowieka. Już teraz cyberprzestępcy zarabiają miliony dzięki kiepsko spreparowanym fałszywym wiadomościom. Czy czatując z korzystającym z zaawansowanego SI botem przez komunikatory takie jak WhatsApp czy Microsoft Teams w ogóle wiedzielibyśmy, że nie rozmawiamy z człowiekiem?

Tworzenie tekstowych wiadomości, do złudzenia przypominających te napisane przez człowieka, to tylko jedna z możliwości, jakie oszustom daje SI.  Można wykorzystać ją również do wygenerowania fałszywych zdjęć ludzkich twarzy, których człowiek nie będzie w stanie odróżnić od prawdziwych. Potrzebna jest fałszywa firma jako przykrywka dla oszustów? Stworzenie 25 twarzy nieistniejących pracowników i zlecenie czatowi ChatGPT napisania ich biografii nie stanowi żadnego problemu. Podobnie jak założenie dla nich fałszywych kont w serwisie LinkedIn i rozpoczęcie „działalności”.

Stworzenie deepfake’ów (tworzenie i obróbka materiałów wideo i dźwięków przy użyciu sztucznej inteligencji), wymaga sporych umiejętności – przynajmniej na razie. Jednak upowszechnienie się tej techniki, zarówno wśród zwykłych użytkowników, jak i cyberprzestępców, którzy wykorzystają ją do swoich celów, jest wyłącznie kwestią czasu.

 

SI kontra SI

Wygląda na to, że w przyszłości będziemy potrzebowali mechanizmów sztucznej inteligencji, które będą w stanie ocenić czy inne mechanizmy sztucznej inteligencji nie próbują nas oszukać. Hugging Face, amerykańska firma projektująca aplikacje bazujące na uczeniu maszynowym, już opracowała narzędzie, które potrafi wykrywać tekst wygenerowany wcześniej przez model GPT w wersji 2. Możliwe, że w najbliższej przyszłości podobne rozwiązania będą pomagać nam w rozpoznawaniu treści tworzonych przez GPT-3.5.

Nie oznacza to jednak, że powinniśmy przestać szkolić pracowników. Wciąż należy uczyć ich, że powinni być podejrzliwi i sprawdzać wiadomości, zwłaszcza te z prośbami o dane logowania czy dotyczące kwestii finansowych. Warto poświęcić kilka chwil, aby upewnić się z czym faktycznie ma się do czynienia, a w razie wątpliwości prosić o pomoc. To nie paranoja – naprawdę jesteśmy na celowniku cyberprzestępców.