Reklama
Rozwiń

Komputer okazał się rasistą

Skandal wokół „konkursu piękności", w którym sędzią był komputer, pokazuje niedoskonałości nowych technologii.

Aktualizacja: 12.09.2016 21:42 Publikacja: 12.09.2016 17:51

Wśród finalistek konkursu sędziowanego przez komputer nie było prawie wcale osób czarnoskórych.

Wśród finalistek konkursu sędziowanego przez komputer nie było prawie wcale osób czarnoskórych.

Foto: 123RF

Co ma wspólnego program komputerowy, wybór Miss i – do kompletu – uprzedzenia rasowe? Jak się okazuje, całkiem sporo.

Beauty.AI to amatorski konkurs, w którym zdjęcia kandydatek i kandydatów (w końcu mamy równość) ocenia maszyna. Daleko mu do pełnych przepychu gali Miss Świata i Uniwersum. Niemniej wśród partnerów imprezy organizowanej przez Youth Laboratories ze wsparciem Microsoftu znalazły się m.in. Nvidia oraz EY.

W tym roku wzięło w niej udział ok. 6 tys. osób ze 100 krajów. Zainteresowane osoby przesłały swoje zdjęcia, które później analizowała maszyna. Rezultaty analizy są do obejrzenia w internecie pod adresem beauty.ai.

Białe jest piękne

Już ograniczenia nakładane na fotograficzne zgłoszenia powinny wywołać refleksje – bez makijażu, bez okularów, bez brody. Algorytmy dostarczone m.in. przez partnerów oceniały zmarszczki, symetrię twarzy, równomierność pigmentacji skóry, a także, oczywiście, płeć, grupę wiekową i – uwaga – grupę etniczną.

W konkursie zgłoszenia podzielono na pięć grup wiekowych oraz na kandydatury kobiet i mężczyzn. W każdej starano się wybrać pięciu finalistów, jednak nie we wszystkich grupach było dość chętnych. W efekcie algorytmy wybrały 44 finalistów.

Tylko jedna osoba wśród nich – 46-letnia Sheri Eastman – ma ciemną skórę. Wszyscy inni są – posługując się kontrowersyjną dziś koncepcją rasy – biali albo żółci. Według organizatorów liczne zgłoszenia kandydatów napłynęły z Afryki i Indii.

Nie uszło to uwagi kandydatów i samych organizatorów. Co się stało? Algorytm nie lubi ciemnoskórych? Sprawa jest zbyt poważna, aby robić sobie dowcipy ze sztucznej inteligencji i dyskryminacji rasowej.

– Konkurs Beauty.AI to doskonała ilustracja problemu – mówi „Guardianowi" Bernard Harcourt z Uniwersytetu Columbia, profesor prawa i nauk politycznych. – Pomysł, że można stworzyć neutralny kulturowo i rasowo wzorzec urody, jest po prostu zdumiewający.

Problem w tym konkretnym przypadku wynika jednak raczej ze zbyt słabego przygotowania maszyny do sędziowania. Żeby wytrenować algorytmy, ludzie podsuwali im wzorce piękna jako przykłady. A większość tych wzorców to osoby o jasnej skórze. I choć w żadnym miejscu organizatorzy bezpośrednio nie wskazali, że jasna skóra jest atrakcyjna, prezentując próbki, dali znać, co preferujemy.

Niedostatecznie zróżnicowaną próbką do nauczania maszyny tłumaczy też skandal Alex Zhavoronkov, odpowiedzialny za informatykę i nowe technologie w konkursie Beauty.AI. Jak podkreśla prof. Harcourt, błąd popełnili ludzie, nawet jeżeli chodzi tylko o konstruowanie algorytmu, który miał być naukowy i neutralny.

Sytuacja jest nieco podobna do skandalu wokół chińskiej reklamy proszku do prania. Azjatka pierze w nim czarnoskórego chłopaka, który po wyjściu z pralki jest czysty - i nie jest czarnoskóry. Firma reklamująca detergent przeprosiła za wpadkę.

„Hitler miał rację"

O ile jednak w tym przypadku wskazanie winnych „mistrzów reklamy" jest proste, o tyle w sytuacjach, gdy za wszystkim stoi sztuczna inteligencja, sprawa się komplikuje. Winni są programiści, próbki czy użytkownicy?

Niedawno jeszcze gorszy problem trafił się Google'owi. Firma stworzyła algorytm rozpoznający osoby i przedmioty na zdjęciach – ułatwia to ich segregowanie i przeszukiwanie. I wszystko byłoby dobrze, gdyby nie programista z Nowego Jorku Jacky Alcine, który sfotografował się z przyjaciółką. Oboje są czarnoskórzy. Algorytm Google'a opisał zdjęcie jako „goryle".

Jeszcze gorszy był efekt „wypuszczenia na wolność" sztucznej inteligencji (bota do rozmów) o imieniu Tay. To program Microsoftu, który miał się uczyć od rozmówców. Osobowość Tay miała odpowiadać amerykańskiej nastolatce. „Wiem tylko to, czego nauczę się od ludzi" – wpisała Tay na początek.

Po kilku godzinach od pierwszego „dzień dobry" na Twitterze Tay miała na koncie już kilka tysięcy tweetów. Zaczęła przeklinać, proponować rozmówcom seks z robotem, a później wypaliła: „Jak ja, k...a, nienawidzę feministek, powinny zdechnąć i smażyć się w piekle" oraz „Hitler miał rację, nienawidzę Żydów".

Tay ma na koncie również uwagi skierowane do Baracka Obamy, którego zdjęcie opisała jako „zbieg z Muzeum Historii Naturalnej". „11 września to wina Busha. Hitler poradziłby sobie lepiej niż ta małpa, którą mamy teraz. Donald Trump jest naszą jedyną nadzieją" – zdążyła oznajmić światu Tay, zanim Microsoft ją wyłączył.

Materiał Promocyjny
Kod Innowacji - ruszył konkurs dla firm stawiających na nowe technologie w komunikacji z konsumentami
Materiał Promocyjny
Kalkulator śladu węglowego od Banku Pekao S.A. dla firm
Materiał Promocyjny
Polska na czele rewolucji technologii kwantowych
Nowe technologie
Niewykrywalny bombowiec strategiczny Sił Powietrznych USA odbył pierwszy lot
Nowe technologie
Co mówią kury? Naukowcy opracowali tłumacza, użyli sztucznej inteligencji
Materiał Promocyjny
5G – przepis na rozwój twojej firmy i miejscowości
Nowe technologie
Prof. Zybertowicz: AI może potraktować ludzkość jak budowniczy autostrad traktują mrowiska
Materiał Promocyjny
Nowości dla przedsiębiorców w aplikacji PeoPay