Jak pisał niedawno na łamach „Rzeczpospolitej" Michał Duszczyk, DeepSeek, który pojawił się jako wielki hit oferujący możliwości najlepszych modeli ChatGPT, ale za darmo, skusił miliony internautów do zarejestrowania się i ściągnięcia aplikacji na telefon. Eksperci twierdzą, że w tej historii niebywałego sukcesu jest wiele znaków zapytania. Już wiadomo, że chiński bot mocno cenzoruje swoje odpowiedzi, a z drugiej głęboko sięga do prywatności użytkowników.
Komunikat ostrzegający przed korzystaniem z nowej aplikacji wydał właśnie Urząd Ochrony Danych Osobowych. Przypomina, iż DeepSeek to chatbot bazujący na technologii generatywnej sztucznej inteligencji, który w styczniu 2025 r. został wprowadzony na rynek globalny m.in. jako bezpłatna aplikacja. Głównym elementem DeepSeek jest oprogramowanie zaprojektowane do rozumienia i przetwarzania ludzkich rozmów. Usługa świadczona jest przez zarejestrowane w Chinach firmy – Hangzhou DeepSeek Artificial Intelligence Co., Ltd. oraz Beijing DeepSeek Artificial Intelligence Co. W ciągu zaledwie dwóch pierwszych tygodni oprogramowanie pobrało 3,6 mln osób na całym świecie.
Czytaj więcej
Niespodziewany konkurent ChatGPT, który przebojem podbija świat AI, może zbierać mnóstwo danych o użytkownikach i wysyłać je do Chin. Czy DeepSeek jest bezpieczny? Analitycy, którzy przyjrzeli się botowi, łapią się za głowę.
UODO zaleca daleko idącą ostrożność w korzystaniu z DeepSeek
W komunikacie podkreślono, iż biorąc pod uwagę wstępne ustalenia związane z informacjami dostarczonymi przez dostawcę w jego polityce prywatności, Prezes UODO zaleca daleko idącą ostrożność w korzystaniu z aplikacji oraz innych usług oferowanych w ramach DeepSeek. Z informacji w niej zawartych wynika m.in., że dane użytkowników mogą być przechowywane na serwerach zlokalizowanych w Chinach. Tymczasem jak przypomniano, Chiny nie należą do państw, wobec których Komisja Europejska wydała decyzję stwierdzającą odpowiedni stopień ochrony, a zgodnie z obowiązującymi przepisami rząd chiński posiada szerokie uprawnienia związane z dostępem do danych osobowych bez gwarancji ochrony przewidzianej w europejskim porządku prawnym.
Urząd przypomina również, że technologie oparte na generatywnej sztucznej inteligencji w założeniu opierają się na przetwarzaniu ogromnej ilości danych, które mogą być wykorzystywane do celów niezgodnych z pierwotnym życzeniem użytkownika, np. do dalszego trenowania modelu lub w celach marketingowych.