Coraz więcej słyszy się o błędach samochodowych autopilotów, na których ucierpieli ludzie. Czy komputery pokładowe powinny rozstrzygać dylematy moralne, jeśli potencjalnie mogą zagrozić bezpieczeństwu pasażerów?
Misza Tomaszewski: Istnieje duże prawdopodobieństwo, że systemy testowane przez Google’a czy Teslę, zostaną wprowadzone do masowej produkcji. Wtedy producent będzie podejmował decyzje, mające moralne konsekwencje, w imieniu użytkowników. A gdy komputer pokładowy ma w perspektywie zderzenie czołowe, powinien ryzykować życiem kierowcy czy śmiercią osób postronnych? Sytuacja bardziej się komplikuje, jeśli np. da się wziąć pod uwagę, ile jest osób w samochodzie jadącym z przeciwka.
Co komputer powinien wziąć pod uwagę?
Najbardziej oczywistym krokiem byłby wybór modelu utylitarnego, w którym samochód zawsze będzie minimalizował straty, liczbę prawdopodobnych ofiar. Ale wpadamy w kolejne pytania – o to, czy mamy też mierzyć wiek ludzi, dane na temat ich stanu zdrowia itp. Czy uczestnik zdarzenia zawinił, narażając życie innych ludzi, powinien więc ponosić większe ryzyko? Przecież z tego punktu widzenia lepiej, żeby zginęły dwie osoby starsze albo ciężko chore, niż jedna młoda i zdrowa.. To wydaje mi się jednak otwieraniem drogi do bardzo dehumanizujących wyliczeń. Wtedy sprowadzamy człowieka do gołych parametrów.
Czy w takim razie autopilot powinien mieć możliwość podejmowania decyzji w sprawie ludzkiego życia?