Czy powinniśmy bać się sztucznej inteligencji?

Czy powinniśmy bać się sztucznej inteligencji?

Fot. freepik

W specjalnym numerze „Wiadomości Uniwersyteckich” dla kandydatów na studia opublikowaliśmy artykuł dotyczący sztucznej inteligencji. Z tekstu możemy dowiedzieć się m.in. tego, jaki wpływ na człowieka ma AI. Artykuł przygotował dr Kamil Filipek – dyrektor Centrum Sztucznej Inteligencji i Modelowania Komputerowego UMCS. Zapraszamy do lektury.


W ostatnich latach obserwowaliśmy i wciąż obserwujemy spektakularne przełomy, które dokonały się dzięki rozwojowi sztucznej inteligencji. W 2016 r. model AlphaGo wygrał z człowiekiem w grę Go, która jest bardziej złożona niż szachy. Zdarzenie to uświadomiło nam, że maszyny potrafią pokonać człowieka nawet w najbardziej skomplikowanych rozgrywkach. W 2017 r. firma DeepMind stworzyła model AlphaGo Zero, który okazał się lepszy niż jego starszy brat. Do tej pory powszechnie uważano, że sztuczna inteligencja to tylko dane i bez nich ona nie istnieje lub działa wadliwie. Tymczasem AlphaGo Zero nie potrzebował historycznych ruchów graczy, a został wytrenowany wyłącznie na podstawie reguł obowiązujących w grze Go.

W 2020 r. pojawiły się pierwsze artykuły napisane przez modele GPT3, które poddano ocenie osobom nieświadomym tego, że stworzyła je maszyna. Teksty były na tyle dobre, że nikt nie podejrzewał algorytmów o ich autorstwo. Nadszedł 2022 r. i pojawił się ChatGPT, który na stałe wkroczył w życie wielu osób. Materiały wygenerowane przez SI wykorzystujemy obecnie w życiu codziennym, pracy, szkole czy na studiach. Pojawiła się nawet nowa profesja – prompt engineer, która specjalizuje się w zadawaniu dobrych pytań modelom sztucznej inteligencji. Powstały także modele SI do generowania obrazu, jak Midjourney czy DALL-E. W 2023 r. stworzono jeden z najbardziej zaawansowanych algorytmów, który jest w stanie rekonstruować myśli człowieka na podstawie wyników badania funkcjonalnego rezonansu magnetycznego (fMRI). Strach pomyśleć, co przyniesie rok 2024. Wiemy jednak, że Open AI wkrótce udostępni komercyjnie model SORA, który generuje wysokiej klasy filmy na podstawie tekstu.

Czy sztuczna inteligencja ma pozytywny wpływ na życie człowieka?

Z powodzeniem wspiera lekarzy radiologów w procesie obrazowania narządów i części ciała człowieka. Szybko i trafnie opisuje badania RTG, wyniki tomografii komputerowej czy rezonansu magnetycznego. Jest w stanie dostrzec wzorce, których nie zauważają nawet najwięksi eksperci w tym obszarze. Dzięki temu potrafi rozpoznać więcej symptomów chorób, w tym nowotworów, dolegliwości serca i zmian neurodegeneracyjnych. Do tego SI pracuje przez 24 godziny na dobę, nie jest kapryśna, za to stosunkowo tania w utrzymaniu i bardzo dokładna. Sztuczna inteligencja skróciła np. czas pracy nad szczepionką na COVID-19. Algorytmy SI analizowały struktury wirusa SARS-CoV-2 i ogromne zbiory danych z badań klinicznych, przewidując potencjalną skuteczność oraz bezpieczeństwo szczepionek. Wspierały również optymalizację procesów produkcyjnych i planowanie dystrybucji tych preparatów. Przykładów efektywnego wykorzystania sztucznej inteligencji jest więcej i właściwe trudno wyobrazić sobie dziedzinę, w której inteligentne algorytmy byłyby dzisiaj nieobecne.

Sztuczna inteligencja w służbie przestępczości

Mówiąc o postępie generowanym przez sztuczną inteligencję, musimy jednak również pamiętać o tzw. ciemnej stronie. Deep fake, fake news czy nowe formy przestępstw polegające na wyłudzaniu danych osobowych lub środków finansowych rozwinęły się na niespotykaną dotąd skalę dzięki SI. Sztuczna inteligencja potrafi się też pomylić, prowadząc do wypadków użytkowników pojazdów autonomicznych czy śmierci niewinnych ludzi zaklasyfikowanych jako terroryści. W historii jej rozwoju często przywoływany jest chatbot Tay firmy Microsoft, którego sprytni użytkownicy Twittera zamienili w ksenofoba mówiącego językiem Adolfa Hitlera. W procesie rekrutacji myliły się również algorytmy wykorzystywane przez giganta technologicznego – firmę Amazon. Opracowane przez Amazon narzędzie analizowało dokumenty kandydatów i preferowało w swoich wyborach mężczyzn. W tym przypadku problemem były tzw. dane treningowe. Warto jednak podkreślić, że takich pomyłek będzie więcej, bo obecne stadium rozwoju sztucznej inteligencji to dopiero początek głębokich zmian, które dotkną wszystkich. Regulacja sama w sobie nie jest więc zła. Ważna jest jednak jakość i skuteczność proponowanych rozwiązań.

SI a rynek pracy

Sztuczną inteligencję można analizować na wiele sposobów. Trzeba jednak zdawać sobie sprawę, że to nie tylko ta „warstwa techniczna” i informatyczna. SI jest dzisiaj obecna wszędzie i właściwie nie ma ograniczeń dziedzinowych. Nawet więcej, rośnie potrzeba interdyscyplinarnego analizowania algorytmów i modeli SI. Będziemy potrzebować osób, które zajmują się sztuczną inteligencją nie tylko pod kątem technicznym, ale również prawnym, ekonomicznym, społecznym, a zwłaszcza etycznym. Dobrym pomysłem jest studiowanie na więcej niż jednym kierunku lub wybór studiów międzywydziałowych. Nie wiemy dokładnie, jakie zawody pojawią się w przyszłości, ale wiemy, że sztuczna inteligencja zostanie z nami długo. Potrzebni będą specjaliści od zarządzania dużymi modelami. Niezbędni będą prawnicy i etycy, którzy wprowadzą regulacje chroniące ludzi przed negatywnymi jej skutkami. Ważni będą eksperci, którzy obiektywnie wskażą dobre oraz złe strony korzystania ze sztucznej inteligencji dla społeczeństwa i jednostki. Potrzebni będą także specjaliści, którzy zaproponują, jak wykorzystać SI w politykach publicznych.

Przeciwdziałanie zagrożeniom

Problemy generowane przez rozwój sztucznej inteligencji dostrzegli wiele lat temu politycy i urzędnicy Unii Europejskiej. W 2021 r. zaproponowali Akt ws. Sztucznej inteligencji, który jest próbą kompleksowego uregulowania rynku algorytmicznego w Europie. Akt znajduje się w końcowej fazie negocjacji, choć jego obowiązywanie rozpocznie się dopiero w 2026 r. W krajach demokratycznych kroki zmierzające w kierunku panowania nad sztuczną inteligencją są więc pożądane. Pozostawienie SI poza marginesem kontroli byłoby na obecnym etapie jej rozwoju bardzo ryzykowne. Wszyscy przecież chcemy, aby SI była bezpieczna, przejrzysta i chroniła podstawowe wartości człowieka. Celem regulacji jest więc promowanie zaufania do technologii SI, a nie ograniczanie jej rozwoju. Miejmy nadzieję, że w przyszłości uda nam się zbudować skuteczną tarczę, która obroni obywateli przed źle działającą sztuczną inteligencją.

Dr Kamil Filipek – dyrektor Centrum Sztucznej Inteligencji i Modelowania Komputerowego UMCS, data scientist, socjolog. Jego zainteresowania naukowe obejmują sztuczną inteligencję, kapitał społeczny, media społecznościowe oraz analizę danych z wykorzystaniem języków R i Python.

Fot. Bartosz Proll