Hakerzy tylko czekają
Po początkowym zachłyśnięciu się świata nowatorskim chatbotem przychodzi czas na otrzeźwienie. A problem jest poważny. Cyberhaven, amerykańska firma specjalizująca się w usługach bezpieczeństwa IT, podała, że przeanalizowała wykorzystanie ChatGPT przez 1,6 mln pracowników różnych przedsiębiorstw i instytucji. Okazało się, że poufne dane były wklejane do systemów AI około 200 razy w tygodniu (ów współczynnik dotyczył każdej badanej firmy zatrudniającej co najmniej 100 tys. pracowników).
Najgłośniejszy incydent tego typu dotyczył do tej pory Samsunga. Pracownicy jednej z fabryk półprzewodników wprowadzili do chatbota poufne informacje, w tym kod źródłowy, jeden z najściślej strzeżonych sekretów firmy technologicznej. W rezultacie cenne tajemnice handlowe nieumyślnie wpadły w posiadanie OpenAI.
Nic dziwnego, że ban na stosowanie ChatGPT wprowadziły już Włochy, częściowe ograniczenia wdrożyły też władze Hongkongu, a przymierzają się do tego Hiszpania i Kanada. Zakazy używania konwersacyjnej sztucznej inteligencji wśród pracowników obowiązują już w wielu firmach na świecie, a teraz – jak dowiedziała się „Rzeczpospolita” – do podobnego scenariusza przymierzają się podmioty sektora finansowego w naszym kraju. W jednej z instytucji już zablokowano dostęp do programów bazujących na API (tzw. wtyczkach) do ChatGPT.
Piotr Kluczwajd, ekspert Business Centre Club ds. AI, wskazuje na duże zainteresowanie świata przestępczego takimi platformami. – Aktywnie wykorzystuje on te narzędzia do intensywnych prób nielegalnego pozyskiwania danych przekazywanych przez nieświadomych użytkowników – ostrzega.
Sergey Shykevich, kierownik grupy ds. analizy zagrożeń w Check Point Research, podkreśla zaś, że rośnie rynek skradzionych kont premium ChatGPT w tzw. darknecie. – A to może mieć poważne konsekwencje dla prywatności osobistej i korporacyjnej – dodaje.