DEEPFAKE. CZY WIESZ, JAK NIE DAĆ SIĘ OSZUKAĆ, OGLĄDAJĄC ZDJĘCIA LUB FILMY WIDEO?
Rozwiązania takie jak sztuczna inteligencja, uczenie maszynowe, czy Internet rzeczy rozwijają się w szybkim tempie i mają bardzo duży wpływ na naszą codzienność. Mogą one również nieść ze sobą pewne zagrożenia dla ochrony danych i prywatności, z którymi będziemy musieli coraz częściej mierzyć się w przyszłości, zarówno w pracy, jak i w życiu osobistym. Jednym ze zjawisk, które wymaga szczególnej uwagi jest technologia deepfake.
Coraz częściej z możliwości sztucznej inteligencji korzystają również cyberprzestępcy w celu zwiększenia skuteczności kampanii socjotechnicznych, manipulowania informacjami, szerzenia dezinformacji, czy szantażowania. Niestety, w świecie zdominowanym przez Internet i media społecznościowe musimy nieustannie radzić sobie z natłokiem informacji. Coraz trudniej jest nam je filtrować, poddając źródła analizie i weryfikacji w celu odróżnienia wartościowych i rzetelnych treści od fake newsów, które celowo wprowadzają odbiorcę w błąd. Jednym z najnowszych osiągnięć przyczyniających się do tego problemu jest deepfake, czyli zmanipulowany obraz lub nagranie video, powstające przy wykorzystaniu sztucznej inteligencji (SI).
Technologia deepfake, czyli co?
Pojęcie deepfake to połączenie dwóch słów: deep – skrót od głębokiego uczenia (ang. deep learning), oraz fake, czyli fałszywy. Inną formą oszustwa jest technologia deepfake audio, która korzystając z próbki głosu może go sklonować, odwzorowując tonację, akcent, czy inne unikalne cechy. Może ona stanowić jeszcze większe zagrożenie, ponieważ ludzie często komunikują się werbalnie, np. telefonicznie, czy za pomocą nagrań głosowych, co znacznie rozszerza możliwości wykorzystania przez cyberprzestępców technologii deepfake.
Rozwój zaawansowanych głębokich sieci neuronowych i dostępność dużej ilości danych (np. w postaci obrazu i wideo udostępnionych w Internecie) sprawiły, że sfałszowane obrazy i filmy są prawie nie do odróżnienia, co stwarza nie tylko zagrożenia społeczne, czy prawne, ale przede wszystkim cybernetyczne, takie jak wymuszenia, oszustwa, czy kradzież tożsamości, która może przybierać różne formy, np. użycie głosu ofiary.
Warto zapamiętać!
Cyberprzestępca podszywając się pod kogoś znanego lub zaufanego może uzyskać dostęp do poufnych informacji, takich jak dane osobowe (często również wrażliwe), hasła, czy numery kart kredytowych. Istnieją jednak sposoby, które mogą pomóc w ustaleniu, czy nagranie jest prawdziwe. Warto zwrócić uwagę na mimikę twarzy, ruch gałek ocznych, brak emocji podczas wypowiedzi, czy nienaturalny ruch ciała. Istnieją również narzędzia, które w sposób automatyczny potrafią wykryć nieprawidłowości.
Czy Europa poradzi sobie z dezinformacją?
Walka z dezinformacją to wspólny wysiłek wszystkich instytucji europejskich, dlatego UE współpracuje z platformami internetowymi, aby zachęcić je do usuwania nieprawdziwych treści oraz promowania wyłącznie wiarygodnych źródeł. Ponadto w 2018 roku został ogłoszony plan działania przeciwko dezinformacji, w którym określono kluczowe działania, mające stanowić odpowiedź na ten problem.
Systemy deepfake podlegają szczególnym obowiązkom w zakresie przejrzystości określonym w art. 52 ust. 3 projektowanego aktu o sztucznej inteligencji: „Użytkownicy systemu sztucznej inteligencji, który generuje obrazy, treści dźwiękowe lub treści wideo, które łudząco przypominają istniejące osoby, obiekty, miejsca lub inne podmioty lub zdarzenia, lub który tymi obrazami i treściami manipuluje, przez co osoba będąca ich odbiorcą mogłaby niesłusznie uznać je za autentyczne lub prawdziwe („deepfake”), ujawniają, że dane treści zostały wygenerowane lub zmanipulowane przez system sztucznej inteligencji”.
Przepis ten pozwoli na dokonywanie świadomych wyborów lub na wycofanie się z danej sytuacji i ma na celu ochronę osób fizycznych przed ryzykiem podszywania się pod inne osoby lub wprowadzenia w błąd, gdy system sztucznej inteligencji generuje lub manipuluje treściami graficznymi, dźwiękowymi lub wideo.
Ponadto Komitet Rady Europy do spraw Sztucznej Inteligencji na początku lutego 2023 roku opublikował „zerowy” projekt Konwencji w sprawie sztucznej Inteligencji, praw człowieka, demokracji i praworządności, który ma na celu zapewnić odpowiedni stopień ochrony praw człowieka w dobie dynamicznego rozwoju nowych technologii opartych o systemy sztucznej inteligencji.
Jesteśmy jeszcze na początku rozwoju technologii deepfake i często jesteśmy w stanie odróżnić autentyczne nagranie od zmanipulowanego, ale nie zawsze tak będzie. Wraz z rozwojem tej technologii może stać się nie do odróżnienia i dostępna bardziej niż kiedykolwiek, dlatego niezwykle istotne jest stałe podnoszenie świadomości społeczeństwa na temat zagrożeń związanych z dezinformacją.
źródło informacji: BIULETYN UODO 2/04/2023