Rozmawiamy z dr Marcinem Badurowiczem z Katedry Informatyki na Politechnice Lubelskiej, badaczem wirtualnej rzeczywistości, zaawansowanym użytkownikiem współczesnych narzędzi opartych na technologii sztucznej inteligencji i miłośnikiem filmów SF.
Coraz częściej w internecie spotykamy różnego rodzaju przerobione komputerowo grafiki, np. zdjęć ludzi lub filmy z podłożonym głosem. Jak bronić się przed ewentualnym oszustwem, jak rozróżniać prawdziwe i fałszywe obrazy, dźwięki lub materiały wideo?
Rozpoznawanie fałszywek, "deep fake", to bardzo poważny problem, co do którego nie ma w tym momencie dobrego rozwiązania. Producenci próbują sobie z tym radzić dodając mechanizmy cyfrowych "znaków wodnych" oznaczających, że dany materiał został przygotowany z wykorzystaniem sztucznej inteligencji. Ale ani ich ujednoliconego standardu, ani narzuconych wymagań prawnych dotyczących konieczności ich stosowania w tym momencie nie ma.
W przypadku obrazów warto zwracać uwagę na tzw. artefakty, drobne zmiany, które pokazują, że dany obraz nie jest prawdziwym zdjęciem. Wiele systemów miało i do dziś ma problem na przykład z wygenerowaniem realistycznych dłoni – tworzyły dłonie ze zbyt dużą liczbą palców lub w nienaturalnych pozach. Systemy generowania obrazów średnio radzą sobie także z realistycznymi cieniami lub odbiciami. Niektóre z nich (np. DALL-E, Midjourney) mają swój domyślny styl i po obejrzeniu wielu obrazów generowanych przez nie da się zauważyć ich charakterystyczne cechy.
W przypadku nagrań wideo warto zwracać uwagę na twarz, policzki i czoło – czasami ich ruch jest nie do końca naturalny, są zbyt statyczne lub nienaturalnie się marszczą, a skóra jest zbyt gładka. Ważne również są oczy, mruganie oczami, odbicia w okularach i inne elementy fizyki świata rzeczywistego. Czasami ludzki mózg wychwytuje pewne cechy materiału wideo i odczuwany jest efekt tzw. doliny niesamowitości ("uncanny valley") – niejako na granicy świadomości widzimy, że coś jest "nie tak", nawet nie do końca potrafiąc ocenić co to jest. Jeśli chodzi o nagrania audio, to powinniśmy zwrócić uwagę na nienaturalną intonację, oddech i akcent, ale najważniejszy jest kontekst - czy nagranie zostało opublikowane na oficjalnym kanale i przez wiarygodne źródła, czy nie zawiera znacząco innej zawartości niż wcześniejsze, podobne.
Dlaczego dzisiaj dostępne są narzędzia, które potrafią tzw. deep fake, a jeszcze kilka lat temu ich nie było lub stosowano je na znacznie mniejszą skalę? Co takiego zmieniło się w naszej technologii?
Przede wszystkim chodzi o dostępność dużej mocy obliczeniowej, głównie dzięki dostępowi do szybkich kart graficznych. Te potrafią nie tylko wyświetlać grafikę, ale także przeprowadzać obliczenia w bardzo wydajny sposób. Upraszczając: jeżeli nasze komputery posiadają procesory, które mają po kilka rdzeni, to karty posiadają ich tysiące. To ważne bo przetwarzanie algorytmów SI (sztucznej inteligencji) to w przeważającej mierze właśnie obliczenia. Różnica w mocy obliczeniowej kart sprzed 5 lat i dziś jest astronomiczna. Rozwinęły się także same algorytmy. W internecie są nieznliczone ilości danych, miliony zdjęć i tekstów. Algorytmy SI przetwarzały je, uczyły się ich rozpoznawania i tworzenia nowych. Przełomem było powstanie architektury transfomeru w 2017 roku, co dało początek generatorowi tekstu ChatGPT od Open AI. Dzisiaj jego konkurentami są np. Mixtral, czy Llama2 od Mety. Wyścig o budowę tego najlepszego narzędzia cały czas trwa.
Ostatnio popularne stają się również generatory grafiki takie jak Dall-e, czy darmowe narzędzia do przerabiania zdjęć w rodzaju transformixa, z którego sami korzystaliśmy tworząc galerię znanych polityków i samorządowców. One też bazują na tych algorytmach?
Nie korzystałem wcześniej z transformix, ale wydaje mi się, że działa on na dość prostym mechanizmie rozpoznawania twarzy i jej cech, a następnie aplikuje te dane do kolejnych obrazów. Generatory obrazów jak Dall-e działają nieco inaczej. Tworząc daną grafikę korzystają z tzw. szumu, który stopniowo jest usuwany na podstawie obliczeń tego, co pasuje do zadanego polecenia. Następnie szczegóły obrazka są poprawiane aż do finalnego efektu. Podstawą działania wielu mechanizmów SI jest rozpoznawanie wzorców, czyli tego, co ludzie robią naturalnie ucząc się od dziecka. Generatory również są uczone, ale zamiast lat dzieciństwa, szybko poznają miliony różnych obrazków dzięki czemu "wiedzą", że np. kot ma cztery łapy. Kluczowe jest tutaj dobranie właściwych, różnorodnych danych, bo jeśli system nauczymy tego, że kot zawsze jest czarny, wygenerowanie rudego będzie później niemożliwe.
Które narzędzia lub strony oferujące usługi bazujące na sztucznej inteligencji uważa pan za najciekawsze i najbardziej użyteczne? Z których z nich sam korzysta i jak bardzo ułatwiają one panu pracę?
W tym momencie zdecydowanie ChatGPT, bo pomaga w pisaniu kodu programów, potrafi podsumowywać tekst i tworzyć notatki, a nawet radzi sobie w tłumaczeniu tekstu na inny język. Jest też oczywiście bazą wiedzy, chociaż zdarzają mu się tzw. halucynacje, czyli podawanie informacji nieprawdziwych. Pod tym względem lepsze są systemy takie jak Bing i Gemini, które podpierają się źródłami z internetu. ChatGPT to natomiast świetny mechanizm do pracy z długimi artykułami, czy dokumentacjami systemów, bo po ich wczytaniu można zadawać mu konkretne pytania zamiast przeglądać kolejne strony szukając odpowiedzi.
Używam także systemu Whisper, który zamienia mowę na tekst, co w połączeniu z GPT można stosować na przykład do automatycznego tworzenia podsumowań spotkań w firmie - na podstawie nagrań dyskusji uczestników. Cenię sobie również LanguageTool czy Grammarly, które automatycznie oznaczają błędną gramatykę, błędy ortograficzne i stylistyczne w pisanych tekstach. W wolnych chwilach korzystam natomiast ze StableDiffusionXL i podobnych modeli do generowania grafik. Nie jestem artysta, ale pozwala mi to samodzielnie opracować ikony oraz inne potrzebne elementy. Z kolei GPT sprawdza się jako pomocnik pisarza. Zasugeruje dziury faburalne, czy wątki warte uwzględnienia. Korzystałem z tego przy próbie napisania scenariusza gry komputerowej.
Jak pan sądzi, czy tego rodzaju narzędzi w przyszłości będziemy mieli wokół siebie więcej, a jeśli tak, gdzie jeszcze widzi pan zastosowanie sztucznej inteligencji z perspektywy zwykłego użytkownika, np. mieszkańca Lublina?
Zdecydowanie tak. W tym momencie wszystkie korporacje wbudowują narzędzia SI do swoich produktów, systemów na komputery, telefony, do edytorów tekstu i przeglądarek internetowych, więc będzie tego typu systemów coraz więcej. Myślę, że wraz z ich rozwojem będziemy wreszcie mogli mieć w kieszeni smartfon z czymś w rodzaju super-eksperta znającego odpowiedzi na wszystkie, nawet najgłupsze pytania. Inne systemy umówią nas na wizytę u fryzjera, czy zarezerwują stolik w restauracji. Już dzisiaj np. ChatGPT pomaga w uczniom i studentom w nauce, tłumaczy konkretne zagadnienia, a nawet potrafi rozmawiać w naturalny sposób w dowolnym języku, tworząc świetne narzędzie do ich opanowania. Oczyma wyobraźni widzę, jak w przyszłości w Lublinie systemy SI planują ruch uliczny, regulują sygnalizację świetlną, wybierają ulice do naprawy, czy zmieniają trasy autobusów na optymalne dla pasażerów.
Czy tak szybki rozwój technologii jest dla nas, w sensie ludzkości, bezpieczny? Nie obawia się pan tego, że pewnego dnia te samouczące się twory, sztuczne sieci neuronowe, zyskają coś na kszałt świadomości i przestaną nas "słuchać"?
Już teraz niektórzy sugerują, że nie do końca rozumiemy w jaki sposób systemy przeznaczone do pracy z tekstem takie jak ChatGPT potrafią rozumować dość logicznie, a nawet rozwiązują zagadki matematyczne. Być może jesteśmy świadkami powstawania AGI (Artificial General Inteligence), pełnoprawnej Sztucznej Inteligencji, niczym właśnie Skynet z „Terminatora”, HAL9000 z „Odysei Kosmicznej 2001” czy JARVIS z „Iron Mana”. Kultura masowa pokazywała nam, że tego typu systemy będą nas postrzegać jako zagrożenie. Wielu ekspertów zgadza się z tym, że hodujemy gatunek, który nas ostatecznie przewyższy. Firma OpenAI, twórca ChatGPT, jawnie twierdzi, że ich celem jest stworzenie AGI. Póki co sami nie rozumiemy do końca czym właściwie jest inteligencja, a nasze komputery nie są wystarczająco wydajne, aby symulować działanie mózgu, czy pamięci długotrwałej. Jeśli zatem ten problem się pojawi, to zaczekamy na niego jeszcze wiele lat. Przyznam natomiast, że sam jestem optymistą. Uważam, że te systemy, które uczymy na własnym przykładzie poznają nie tylko zło tego świata, ale także dobro. Do mnie przemawiają produkcje SF, gdzie ludzie razem ze sztuczną inteligencją przemierzają kosmos "ramię w ramię" odkrywając wspólnie nowe światy.
Sztuczna inteligencja bywa kreatywna. Nie dajmy się nabrać
Przed dwoma tygodniami opublikowaliśmy nietypową galerię zdjęć przedstawiającą znane osoby z województwa lubelskiego, które komputerowo przenieśliśmy do przeszłości. Było to możliwe dzięki internetowym narzędziom wykorzystującym algorytmy sztucznej inteligencji. Te stają się coraz doskonalsze oszukując nasze zmysły w sposób, którego dotychczas nie znaliśmy.
Starożytna Grecja, Egipt, Rzym, czasy prehistoryczne, okres renasansu, baroku - obecna technologia pozwala modyfikować zdjęcia w niemal dowolny sposób pozwalając użytkownikom na wirtualne podróże. Na cyfrowe przywdzianie historycznego kostiumu, łącznie z pasującą do konwencji fryzurą i otoczeniem. Coś, co jeszcze dekadę temu wymagałoby od nas opanowania zaawansowanych programów graficznych lub zatrudnienia dobrej klasy grafika komputerowego - dzisiaj otrzymujemy po zaledwie minucie, za darmo.
Narzędzia takie jak darmowa strona transformix, codziennie zdobywają tysiące nowych użytkowników. My za jej pomocą postanowiliśmy sprawdzić, jak w dawnych czasach wyglądaliby politycy i samorządowcy z województwa lubelskiego. Zdjęcia, które pokazaliśmy spotkały się z pozytywnym przyjęciem ze strony wyróżnionych w ten sposób lokalnych polityków. Część z nich, jak choćby prezydent Chełma, czy kilko puławskich radnych, podzieliło się nimi w swoich mediach społecznościowych.
Wygląda na to, że lata 20-te XXI wieku w zakresie cyfrowych technologi to początek czegoś zupełnie nowego. Zdjęcia, o których mówimy to tzw. deep fake, a dokładnie face swap - podmiana twarzy. Narzędzia, które to potrafią, poza funkcją czysto rozrywkową mogą pomagać nam w codziennym życiu. Dzięki nim przykładowo kobiety mogą błyskawicznie sprawdzić w jakiej fryzurze lub stylizacji im do twarzy, a policjanci dzięki nim stworzą doskonalsze portrety pamięciowe.
Sztuczna inteligencja potrafi o wiele więcej, a liczba jej zastosowań ciągle rośnie. Poza zabawkami w rodzaju transformixa, do dyspozycji internautów są generatory obrazów w rodzaju Dall-E od firmy Open AI. To narzędzie tworzy grafikę komputerową na podstawie naszych wytycznych. Jeśli polecimy mu narysować np. niebieskiego kota, który będzie gonił zieloną mysz komputerową trzymając w łapce zabawkę - to dostaniemy właśnie takie dzieło. W odróżnieniu od wyszukiwarek typu Google, nie otrzymamy zdjęcia, które już istnieje. Generator nam je stworzy, niczym zatrudniony przez nas artysta-malarz. I to nie byle jaki, bp jeśli zechcemy - otrzymamy podróbkę np. Van Gogha, czy Picassa.
SI to także dźwięk. W internecie od co najmniej kilkunastu lat popularne są filmiki, na których znane osoby mówią podstawionym głosem odczytywanym przez generatory mowy. Znając czyjś oryginalny głos, łatwo było rozpoznać, że mamy do czynienia z fałszywym. Od niedawna technologia robi to sposób znacznie doskonalszy. Pozwala na "kradzież" czyjegoś głosu, a następnie odczytanie nim dowolnej treści. Jeśli dodamy do tego algorytmy pozwalające dopasować do niego ruch warg i mimikę, otrzymamy materiał wideo, który łatwo pomylić z rzeczywistym obrazem zarejestrowanym przez kamerę i mikrofon. Takie narzędzia pozwalają usłyszeć np. prezydenta USA, który "mówi" płynną polszczyzną lub polskich celebrytów wypowiadających się w egzotycznych językach, których w rzeczywistości nie znają. Być może obserwujemy właśnie początek końca filmów z lektorem i aktorów dubbingowych.