W 2023 r. wejdzie też w życie rozporządzenie ws. zarządzania danymi. Jakie będą skutki tej regulacji?
Ma ona na celu m.in. zwiększenie zaufania do wymiany danych dając obywatelom możliwość większej kontroli w kwestii ich udostępniania i wykorzystywania. Zasady i ramy prawne wynikające z rozporządzenia umożliwią opracowanie i dostosowanie regulacji obejmujących wymianę i udostępnianie danych w poszczególnych sektorach. Odpowiednie zarządzanie danymi pozwoli na rozwój innowacyjnych rozwiązań (opartych na uczeniu maszynowym), z poszanowaniem europejskich praw, i umożliwi obywatelom czerpanie korzyści z dobrodziejstw nowych i innowacyjnych technologii.
Jakie zagrożenia dla prywatności powodują coraz popularniejsi „wirtualni asystenci głosowi”?
Wytyczne EROD 02/2021 w tej sprawi zwracają uwagę na szereg aspektów, które powinny być brane pod uwagę przez twórców takich rozwiązań, ale i przez ich użytkowników, którzy nie zawsze są świadomi tego, do jak wielu danych o nas mają dostęp takie rozwiązania. Takie aplikacje mogą być cały czas aktywne, nawet gdy z nich na co dzień nie korzystamy, np. w smartfonach. Człowiek może nawet nie wiedzieć, że jego dane są przetwarzane w sytuacji przypadkowego wydania polecenia asystentowi głosowemu. Taka funkcjonalność nie powinna być domyślnie uruchomiona, jedynie sam użytkownik mógłby ją włączyć. Usługi tego rodzaju często korzystają z danych zapisanych w naszych telefonach czy łączą się z kolejnymi aplikacjami, w których również są dane na temat naszej aktywności, lokalizacji, historii wyszukiwania czy planowanych spotkań, ale też umówionych wizyt lekarskich. Takie narzędzie ma więc nie tylko dostęp do bardzo wielu informacji, ale i przetwarza je na serwerach twórcy takiego oprogramowania. Ponadto te dane może przetwarzać nawet kilka podmiotów współpracujących z dostawcą – np. projektant usługi czy programista. A to oznacza, że realizacja naszych praw wynikających z RODO może być utrudniona, gdy pytania czy żądania kierujemy tylko do jednego podmiotu. Z każdą nową funkcjonalnością zakres przetwarzanych danych będzie się jeszcze bardziej rozrastać, a oprogramowanie może też rejestrować głos osób postronnych. A pamiętajmy, że RODO wymaga, by informacje na ten temat były przekazywane w zwięzłej, przejrzystej, zrozumiałej i łatwo dostępnej formie.
Na ile rozwój sztucznej inteligencji będzie stanowił wyzwanie dla ochrony prywatności?
Większość obecnych systemów SI oparta jest na automatycznym wyszukiwaniu zależności pomiędzy ogromną ilością danych, co może prowadzić do dyskryminacji, szczególnie w sytuacji, kiedy analizie zostały poddane niekompletne lub niewystarczające dane. Niejednokrotnie błędnie identyfikuje płeć oraz osoby o innym kolorze skóry niż biały, przez co może dojść do naruszenia prywatności, co w konsekwencji może zostać odebrane jako dyskryminacja ze względu na płeć czy pochodzenie etniczne. Konieczne jest więc, aby proces był kontrolowany przez człowieka w celu wychwycenia potencjalnych błędów i ich ewentualnej korekty. Systemy sztucznej inteligencji, które wykorzystują dane osobowe do podejmowania decyzji, muszą być przejrzyste i rozliczalne, aby zapewnić, że nie podejmują niesprawiedliwych lub stronniczych decyzji.