Skoro jesteśmy przy obawach o to czy zaawansowane algorytmy – jak twierdzi część naukowców – mogą stanowić dla ludzi „ryzyko egzystencjonalne”?
Mam jasny pogląd w tym względzie – w przypadku większości zastosowań o znaczeniu krytycznym powinniśmy używać AI jako mechanizmu, który dostarcza rekomendacje, a nie jako maszyny, która podejmie za nas decyzje.
Brał pan udział w prowadzonym na pokładzie Międzynarodowej Stacji Kosmicznej (ISS) eksperymencie, mającym na celu obsługę autonomicznych superkomputerów podczas długich podróży kosmicznych. Jakie były jego efekty?
Pierwszy system tego typu zainstalowano na ISS w roku 2017. Składał się on z dwóch połączonych serwerów HPE Apollo 40. Celem był roczny eksperyment, by sprawdzić, na ile standardowe, niezmodyfikowane węzły superkomputerowe są w stanie pracować na ISS, poruszającej się po niskiej orbicie okołoziemskiej. Przez większość tego czasu prowadziliśmy intensywne testy, które dostarczyły mnóstwa wartościowych informacji. W 2019 r. otrzymaliśmy za to medal NASA, a dzięki temu sukcesowi w 2021 r. na ISS uruchomiono kolejny system, tym razem wykorzystywany już do obsługi faktycznych zadań operacyjnych. W tym celu zastosowaliśmy maszyny o dwukrotnie większej mocy obliczeniowej. Oferują one zaawansowane możliwości przetwarzania grafiki, potrzebne do procesowania obrazów i do obliczeń z obszaru AI. Teraz szykujemy się do kolejnej generacji kosmicznego komputera. Warto podkreślić, że na ISS wymieniamy systemy obliczeniowe na nowe mniej więcej w takich odstępach czasu, jak robią to zwykli użytkownicy na Ziemi.
Czy superkomputery i AI to technologie, z których są w stanie korzystać mniejsze firmy, czy tego typu rozwiązania dostępne są głównie dla gigantów z wielkimi budżetami?
By skutecznie trenować algorytmy AI potrzebujemy superkomputerów zaprojektowanych specjalnie do rozwiązywania problemów opartych na dużej ilości obliczeń i danych. W przeciwieństwie do konstrukcji stworzonych dla rozwiązań chmurowych, architektura dla AI pozwala uruchamiać wszystkie układy GPU i CPU jednocześnie w celu rozwiązania jednego problemu. Zbudowanie takiej maszyny to intensywny proces, następnie należy umieścić ją w specjalnie zaprojektowanym pomieszczeniu, by zapewnić wysoką efektywność energetyczną. Stąd sztuczna inteligencja uważana jest za technologię trudno dostępną. Ale ta sytuacja się zmienia. Kilka miesięcy temu ogłosiliśmy, że wchodzimy na rynek rozwiązań AI udostępnianych via chmura publiczna. Oferujemy LLM (duże modele językowe – red.) za pośrednictwem chmury opartej na superkomputerach. To umożliwia każdemu przedsiębiorstwu dostęp do częściowo gotowych dużych modeli językowych, aby mogło je trenować i dostrajać przy użyciu własnych danych. Bariera wejścia w AI została znacznie obniżona.
Jest pan zwolennikiem idei „swarm learning”. Co to jest?
Skupiając się na ochronie prywatności danych, firmom i instytucjom może się wydawać, iż muszą zamknąć swoje dane w „silosie”. To sprawia wrażenie koniecznego z punktu widzenia bezpieczeństwa, ale skutkuje jednocześnie ograniczeniem źródeł informacji, które można gromadzić i przetwarzać. Przez to musimy samodzielnie opracowywać rozwiązania problemów, które ktoś inny już rozgryzł. A wyobraźmy sobie, co by było, gdyby uniwersytety, szpitale i ośrodki badawcze mogły uczyć się od siebie nawzajem, bez narażania prywatności danych? Ile nowych możliwości by to stworzyło i ile czasu zaoszczędziło? Na tym właśnie polega „swarm learning”, czyli uczenie rozproszone.
Działa to tak: grupa instytucji decyduje się wspólnie trenować AI do określonego zadania. Każda organizacja przeprowadza uczenie maszynowe, wyłącznie przy wykorzystaniu swoich danych. Uzyskane w ten sposób wnioski, a nie dane, które pozostają prywatne dla każdej organizacji, są agregowane. Ulepszony model jest na kolejnym etapie udostępniany wszystkim członkom grupy i proces jest kontynuowany.
Trwa wyścig na rynku AI między mocarstwami. Jak widzi pan pozycję Europy w rywalizacji z Chinami i USA?
Branża AI rozwija się w całej Europie, a wiele firm opracowuje innowacyjne rozwiązania i otrzymuje finansowanie od globalnych inwestorów. Przykładem jest niemiecki Aleph Alpha, który niedawno pozyskał ponad 500 mln dol. od konsorcjum z udziałem HPE. Jednocześnie instytucje publiczne w Europie dużo inwestują we własne technologie AI, czego doskonałym przykładem jest superkomputer LUMI. Ze względu na swoją lokalizację jest określany jako inicjatywa fińska, ale w rzeczywistości stanowi on wspólny projekt dziesięciu państw europejskich, w tym Polski. Dzięki niemu, jednemu z najpotężniejszych superkomputerów na świecie, Europa umacnia swoją pozycję wśród światowych innowatorów w wysokowydajnych obliczeniach. To, co wyróżnia europejski ekosystem AI, to nacisk na kwestie takie jak zaufanie, czy suwerenność cyfrowa. Mogą być one postrzegane jak konkurencyjna przewaga w globalnej rywalizacji w zakresie AI, zwłaszcza w kontekście toczącej się dyskusji o prywatności danych i potrzebie regulowania sztucznej inteligencji.