Człowiek sprowadzony do gołych parametrów

Rozmowa z Miszą Tomaszewskim, nauczycielem filozofii i redaktorem naczelnym magazynu „Kontakt”

Publikacja: 13.07.2016 20:41

Człowiek sprowadzony do gołych parametrów

Foto: AFP

Coraz więcej słyszy się o błędach samochodowych autopilotów, na których ucierpieli ludzie. Czy komputery pokładowe powinny rozstrzygać dylematy moralne, jeśli potencjalnie mogą zagrozić bezpieczeństwu pasażerów?

Misza Tomaszewski: Istnieje duże prawdopodobieństwo, że systemy testowane przez Google’a czy Teslę, zostaną wprowadzone do masowej produkcji. Wtedy producent będzie podejmował decyzje, mające moralne konsekwencje, w imieniu użytkowników. A gdy komputer pokładowy ma w perspektywie zderzenie czołowe, powinien ryzykować życiem kierowcy czy śmiercią osób postronnych? Sytuacja bardziej się komplikuje, jeśli np. da się wziąć pod uwagę, ile jest osób w samochodzie jadącym z przeciwka.

Co komputer powinien wziąć pod uwagę?

Najbardziej oczywistym krokiem byłby wybór modelu utylitarnego, w którym samochód zawsze będzie minimalizował straty, liczbę prawdopodobnych ofiar. Ale wpadamy w kolejne pytania – o to, czy mamy też mierzyć wiek ludzi, dane na temat ich stanu zdrowia itp. Czy uczestnik zdarzenia zawinił, narażając życie innych ludzi, powinien więc ponosić większe ryzyko? Przecież z tego punktu widzenia lepiej, żeby zginęły dwie osoby starsze albo ciężko chore, niż jedna młoda i zdrowa.. To wydaje mi się jednak otwieraniem drogi do bardzo dehumanizujących wyliczeń. Wtedy sprowadzamy człowieka do gołych parametrów.

Czy w takim razie autopilot powinien mieć możliwość podejmowania decyzji w sprawie ludzkiego życia?

Jedno z możliwych rozwiązań zakłada, że nabywca samochodu sam dokonywałby wyboru, wprowadzając do auta pewne wstępne założenia. W tym sensie brałby na siebie moralną odpowiedzialność. Druga opcja jest taka, że decyzję za człowieka podejmie producent lub urzędnik, nie pozostawiając miejsca na indywidualny wybór, rodzaj „klauzuli sumienia”. Np. wprowadzając jakiś samochód na rynek europejski, zbierze się komisja etyczna, która określi warunki brzegowe dla podejmowania konkretnych decyzji przez komputer pokładowy. Jednak niezależnie od ustalonych norm moralnych, ktoś kto używa tego wehikułu, powinien być świadomy konsekwencji. Bierze za nie moralną odpowiedzialność. To bardzo abstrakcyjne, bo mało kto, wsiadając do samochodu, myśli o tym, że będzie uczestniczył w wypadku samochodowym – szczególnie takim, ze skutkiem śmiertelnym.

Czy moralnie dopuszczalne jest prowadzenie badań nad rozwojem algorytmów, które mają dotyczyć decyzji o życiu ludzkim?

Jedynie w sytuacji, w której jesteśmy skazani na to, żeby wartościować ludzkie życie. Z punktu widzenia władz publicznych lub wizerunku firmy, utylitaryzm, redukujący liczbę ofiar, staje się najbardziej czytelnym kryterium. Wygląda neutralnie światopoglądowo, chociaż nie wydaje mi się, żeby taki był. Główną zasadą sterującą algorytmami maszyny, stałoby się więc minimalizowanie cierpienia. Trudno też stwierdzić, na ile taki algorytm jest technicznie możliwy do zrealizowania. Nawet jeżeli jeszcze nie da się tego zrobić, to pewnie niedługo będzie to możliwe.

- rozmawiał Jan Ziętara

Coraz więcej słyszy się o błędach samochodowych autopilotów, na których ucierpieli ludzie. Czy komputery pokładowe powinny rozstrzygać dylematy moralne, jeśli potencjalnie mogą zagrozić bezpieczeństwu pasażerów?

Misza Tomaszewski: Istnieje duże prawdopodobieństwo, że systemy testowane przez Google’a czy Teslę, zostaną wprowadzone do masowej produkcji. Wtedy producent będzie podejmował decyzje, mające moralne konsekwencje, w imieniu użytkowników. A gdy komputer pokładowy ma w perspektywie zderzenie czołowe, powinien ryzykować życiem kierowcy czy śmiercią osób postronnych? Sytuacja bardziej się komplikuje, jeśli np. da się wziąć pod uwagę, ile jest osób w samochodzie jadącym z przeciwka.

Opinie polityczno - społeczne
Estera Flieger: Izrael atakuje Polskę. Kolejna historyczna prowokacja
https://track.adform.net/adfserve/?bn=77855207;1x1inv=1;srctype=3;gdpr=${gdpr};gdpr_consent=${gdpr_consent_50};ord=[timestamp]
Opinie polityczno - społeczne
Estera Flieger: Zwierzęta muszą poczekać, bo jaśnie państwo z Konfederacji się obrazi
Opinie polityczno - społeczne
Tomasz Grzegorz Grosse: Europejskie dylematy Trumpa
Opinie polityczno - społeczne
Konrad Szymański: Polska ma do odegrania ważną rolę w napiętych stosunkach Unii z USA
Materiał Promocyjny
Bank Pekao wchodzi w świat gamingu ze swoją planszą w Fortnite
Opinie polityczno - społeczne
Robert Gwiazdowski: Dlaczego strategiczne mają być TVN i Polsat, a nie Telewizja Republika?