Wielu ekspertów zajmujących się sztuczną inteligencją często ma trudności ze zdefiniowaniem tego pojęcia, ponieważ jest to tak szeroka dyscyplina, która obejmuje różne dziedziny – od robotyki, przez przetwarzanie obrazu, po natural language processing (znane jako NLP) i uczenie maszynowe. Definicja, która zadowoliłaby wszystkich, jest więc trudna do sformułowania. Na przykład dla informatyków AI to zespół algorytmów, ale dla większości z nas to sposób interakcji z technologią, który zmienia nasze życie na wielu poziomach.
Przykładem takiej interakcji jest choćby ChatGPT, który uosabia nową generację AI, zdolną do prowadzenia naturalnych rozmów w wielu językach. Dzięki zaawansowanym algorytmom model ten potrafi generować teksty, programować, a nawet rapować. Choć wydaje się inteligentny, niektórzy eksperci zwracają uwagę, że to tylko symulacja – ChatGPT wykonuje „ślepo” instrukcje na podstawie danych, które zebrano wcześniej.
Sztuczna inteligencja. Miłe dobrego początki
Początki rewolucji (dziś częściej mówi się jednak o ewolucji) związanej ze sztuczną inteligencją sięgają lat 40. XX wieku, a algorytmy, które dziś wykorzystujemy, są w dużej mierze efektem pracy z tamtego okresu. Alan Turing, uznawany za ojca sztucznej inteligencji, w 1951 roku przedstawił koncepcję „gry tajemnic”, która stała się pierwszą próbą zdefiniowania AI. Chodziło o stworzenie maszyny, która mogłaby tak prowadzić rozmowę z człowiekiem, by ten nie byłby w stanie odróżnić jej od żywej osoby.
Choć nie udało się osiągnąć tego celu w przewidywanym czasie, dziś dyskusje na temat testu Turinga są wciąż aktualne. Niektóre systemy AI, jak ChatGPT, zbliżają się do przełomu, w którym będą w stanie nas tak „oszukać”, byśmy myśleli, że rozmawiamy z człowiekiem. Wydaje się jednak, że prawdziwa sztuczna inteligencja, która myśli jak człowiek, to wciąż pieśń przyszłości – mimo że dziś jest obecna praktycznie wszędzie.
Przemysł, motoryzacja, medycyna, wojsko – sztuczna inteligencja zrewolucjonizowała te dziedziny. W magazynach Amazonu roboty sortują paczki i monitorują jakość produktów. Drony wojskowe latają autonomicznie, wojsko posiada systemy monitorowania pola walki czy systemy obronne. Niektórzy zwracają uwagę, że ta dziedzina niesie też liczne zagrożenia. Sztuczna inteligencja w rękach armii może stać się narzędziem do prowadzenia wojen na odległość, z minimalnym udziałem człowieka, a to rodzi już pytania o etykę i bezpieczeństwo.
Jednym z pierwszych beneficjentów sztucznej inteligencji jest branża medyczna: systemy uczące się analizują dane medyczne, pomagają w diagnozowaniu chorób i monitorowaniu pacjentów. To, co kiedyś wydawało się niemożliwe, teraz staje się codziennością. Przetwarzanie obrazów medycznych, na przykład w tomografii komputerowej, to tylko jeden z przykładów zastosowań AI w medycynie.
A współczesne samochody? Uczą się przyzwyczajeń kierowców, analizują otoczenie, monitorują ruch drogowy, rozpoznają, kiedy kierowca jest zmęczony. Auta autonomiczne to wciąż przyszłość, ale już dziś mamy systemy wspomagające parkowanie czy automatyczne hamowanie, które ratują życie, a systemy bezpieczeństwa ostrzegają przed zagrożeniami na drodze.
AI zrewolucjonizowała także handel internetowy. Dzięki analizie zachowań konsumentów systemy sztucznej inteligencji mogą sugerować produkty, które najbardziej nas interesują. Z każdym kliknięciem i zakupem algorytmy uczą się, jakie są nasze preferencje, co pozwala na bardziej trafne rekomendacje.
A rozrywka? Tu również AI nie próżnuje. Netflix, Spotify czy YouTube korzystają z AI, aby sugerować nam filmy, muzykę i treści, które prawdopodobnie będą nam się podobać. Gry komputerowe wykorzystują AI, aby dostosowywać poziom trudności do umiejętności gracza.
Czy mamy się czego obawiać? Groźna sztuczna inteligencja
Choć sztuczna inteligencja otwiera przed nami wiele nowych możliwości, rodzi też obawy. Pierwsze, co przychodzi na myśl, to strach o miejsca pracy. Czy AI zastąpi ludzi w fabrykach, biurach, na stanowiskach menedżerskich? W niektórych sektorach już to robi. Jednak historia uczy nas, że każda rewolucja technologiczna przynosiła nowe zawody i możliwości.
Innym zagrożeniem są kwestie etyczne. Czy sztuczna inteligencja, która działa bez pełnego nadzoru człowieka, może prowadzić do decyzji, które są nieetyczne lub niebezpieczne? Czy autonomiczne systemy militarne będą mogły podjąć decyzję o ataku bez interwencji człowieka? Jakie są granice odpowiedzialności?
Eksperci wskazują też, że AI może również pogłębiać nierówności społeczne. W krajach rozwiniętych, gdzie dostęp do nowoczesnych technologii jest powszechny, AI może zwiększać wydajność i poprawiać jakość życia. Ale w krajach biedniejszych brak dostępu do tych technologii może prowadzić do jeszcze większego rozwarstwienia społecznego.
Ekspertów, ale nie tylko, bo również twórców filmów science fiction, nurtuje pytanie, czy AI może stać się tak inteligentna, że nas przechytrzy. Obawy o „superinteligencję”, która uzna ludzi za zbędnych, są na razie czystą spekulacją. Obecnie mamy do czynienia z tzw. wąską sztuczną inteligencją, czyli systemami, które są zaprogramowane do wykonywania konkretnych zadań. Na przełom w kierunku „ogólnej sztucznej inteligencji”, czyli maszyn zdolnych do myślenia i rozwiązywania problemów na poziomie ludzkim, chyba jeszcze długo poczekamy.
Choć niektóre zagrożenia już są realne. Mowa o tak zwanych deepfake’ach, do tworzenia których wykorzystywana jest AI. To fałszywe materiały wideo, które mogą zmylić nawet najbardziej doświadczonych widzów czy internautów. W rękach przestępców AI może stać się narzędziem do manipulacji opinią publiczną czy wywoływania konfliktów społecznych.
Co przyniesie przyszłość w sprawie sztucznej inteligencji?
Jednym z podstawowych elementów sztucznej inteligencji jest uczenie maszynowe. To podejście pozwala systemom AI „uczyć się” na podstawie danych. Uczenie maszynowe wykorzystuje głębokie sieci neuronowe, które są ustawione w sposób pozwalający komputerom na samodzielne rozwiązywanie problemów. Dzięki temu systemy AI stają się coraz bardziej zaawansowane i lepiej radzą sobie w różnych zadaniach.
Czy dziś możemy sobie wyobrazić, jak będzie wyglądać rozwój AI w ciągu najbliższych 10–20 lat? Zdaniem ekspertów prawdopodobnie nie zobaczymy rewolucji w postaci nowych, przełomowych algorytmów; będzie to raczej ewolucja rozwiązań, które już istnieją. Jedno jest pewne: sztuczna inteligencja już teraz zmienia świat, a jej wpływ będzie tylko rosnąć. Otwarte pozostaje pytanie, jak z niej mądrze korzystać.
Komentarz Partnera Cyklu: Sieć Badawcza Łukasiewicz
prof. Jan Kozak Sieć Badawcza Łukasiewicz – Instytut Technik Innowacyjnych EMAG
Sztuczna inteligencja. Największe wyzwanie w uczeniu maszynowym
Systemy uczące się, nazywane ostatnio uczeniem maszynowym (jako tłumaczenie z ang. – machine learning), to podzbiór algorytmów sztucznej inteligencji. W tym przypadku (w znakomitej większości) uczenie opiera się na danych, pewnej historii, która służy do nauki algorytmu, aby móc „przewidywać przyszłość”. Są to przeważnie algorytmy oparte na metodach statystycznych, obliczanych na podstawie wspomnianych już danych uczących.
Dużo tutaj o danych, ponieważ obecnie to one wydają się być największym wyzwaniem w uczeniu maszynowym. Problem polega na tym, że chcąc zastosować uczenie maszynowe w celu usprawnienia procesów (użycia sztucznej inteligencji w rozwiązaniach takich jak samochody, drony, pralki, lodówki, telefony, taśmy produkcyjne i w zasadzie większość przedmiotów z elektroniką, które można sobie wyobrazić), albo nie mamy danych, albo mamy dane, które są błędne. Mówi się wtedy często o przypadku GIGO, czyli z języka angielskiego Garbage In, Garbage Out – jeśli mamy złe dane, to wyniki też będą złe (pomimo dobrego systemu i dobrej nauki).
Czytaj więcej
Prokuratura przyznaje, że przestępcy coraz częściej sięgają po narzędzia sztucznej inteligencji, a liczba podobnych przypadków będzie wzrastać. Eksperci alarmują, że prawo już teraz nie nadąża za cyfrową rzeczywistością. Czy unijny AI Act wystarczy?
W większości projektów związanych z uczeniem maszynowym dużą część pracy stanowi przygotowanie odpowiednich danych, które nie są obciążone, czyli nie pomijają ważnych przypadków (np. osób), ani nie są błędnie zebrane. W przeszłości zdarzały się systemy, które np. nie rozpoznawały głosów kobiet, osób o różnej budowie ciała, pojazdów o rzadko spotykanych kolorach itd. To tylko dosyć popularne przykłady. Błędne dane prowadzą także do stworzenia systemów realizujących „samosprawdzające się przepowiednie”, czego przykładem mogą być systemy do rekrutacji (gdzie dobrym przykładem jest faworyzowanie mężczyzn na stanowiska techniczne), a także próby przewidywania ryzyka recydywy przestępców, które dyskryminowały określone grupy społeczne.
Dosyć ważnym aspektem jest wspomniana wcześniej płeć. Należy zauważyć, że systemy uczą się na danych historycznych. Jeśli są to obecnie zbierane dane, problem nie jest tak duży. Jeśli jednak system uczy się na danych z dłuższego okresu (kilkanaście, kilkadziesiąt lat), to kwestie mniejszego wsparcia dla kobiet mogą być znaczące. Podobnie jest z danymi z różnych miejsc świata, gdzie w różnych kulturach pojawiają się inne priorytety.
Pozytywne jest jednak to, że dla większości badaczy wspomniane wyzwanie jest znane. Dzięki temu, w przypadku projektów R&D (bardziej rodzimie B+R), czyli opartych na badaniach, rozwoju i dopiero wdrożeniu, aspekt jakości danych jest bardzo ważny. Ponadto dostęp do danych staje się znacząco większy, w tym przede wszystkim do danych aktualnych i mniej obciążonych.
To wszystko pozwala przypuszczać, że największe wyzwanie – dane – jest wyzwaniem, które uda się pokonać w coraz to nowszych projektach. Dzięki temu będzie można bardziej zaufać decyzjom sugerowanym przez sztuczną inteligencję, pamiętając jednak zawsze, że jest to tylko system, który wspomaga decyzje – a niekoniecznie powinien je zastępować.