Zaprogramowany by zabić

https://xpil.eu/Jpm3G

Jeżeli ktoś sądził, że ten tytuł dotyczy nowej wersji "Terminatora", to się grubo myli. O "Terminatorze" dziś nie będzie. Nawet o nim nie wspomnę.

Aczkolwiek...

W ramach swojej codziennej prasówki natknąłem się niedawno na całkiem interesujący artykuł dotyczący samojeżdżących aut.

Wynalazek Google, który zrobił już na amerykańskich drogach łącznie ponad 2.7 milionów kilometrów i nie spowodował ani jednej kolizji.

Autonomiczny samochód.

Jeszcze dwadzieścia lat temu mokry sen fana SF, niedługo już - być może - do kupienia w salonie (zarówno Volvo jak i Elon Musk odgrażają się, że jeszcze rok, góra dwa i takie auta będą dostępne masowo). Samojezdne cudeńko, któremu każemy się zawieźć z punktu A do punktu B i możemy zająć się lekturą albo kontemplacją otaczającego świata.

Jak dotychczas wszystkie (bardzo drobne i niegroźne) kolizje, jakie przytrafiły się autonomicznym samochodom Google, były spodowane bez wyjątku błędami ludzkimi. No i fajnie. Dobrze wiedzieć, że technologia jest niezawodna, a człowiek - nie. Nic nowego. Jednak...

Dylemat wagonika.

Mając do wyboru świadome poświęcenie jednej osoby w zamian za uratowanie wielu osób, większość ludzi wybrałoby śmierć jednej osoby. Nawet, jeżeli byłoby to ich dziecko, a w ratowanej grupie - sami obcy. Tak przynajmniej wynika z eksperymentów myślowych przeprowadzonych na ochotnikach. Jaka jest prawda - nie wiadomo, podobno naukowcom prowadzącym testy praktyczne chętni skończyli się zanim udało się uzyskać reprezentatywne wyniki.

Problem wagonika jest prosty jak gwóźdź: Na przejeździe kolejowym popsuł się autobus ze szkolną wycieczką. Pechowo, zatrzymał się na samym środku przejazdu, na torach.

Zza zakrętu już słychać odgłos nadjeżdżającego pociągu. Dróżnik może przełożyć wajchę i puścić pociąg na boczny tor.

Niestety, akurat tego dnia wziął ze sobą do pracy córeczkę, która właśnie bawi się na owym bocznym torze, nieświadoma zbliżającej się katastrofy.

Dróżnik ma bardzo mało czasu na podjęcie decyzji. Jeżeli nie przełoży wajchy, zginą dzieciaki (i kierowca) w autobusie. Jeżeli to zrobi, uratuje ich, ale zabije własne dziecko.

Powyższy scenariusz może się - w całkiem nieoczekiwany sposób - ziścić w rzeczywistości, właśnie w autonomicznych samochodach. Albowiem przy masowym ich wdrożeniu, prędzej czy później dojdzie do sytuacji, w której samochód - jego oprogramowanie - będzie musiał zdecydować, czy zabić jedną osobę (podróżującą samochodem), czy ocalić "swojego" pasażera kosztem innych. Na przykład, walnąć w grupę pieszych, co zamortyzuje uderzenie na tyle, że pasażer przeżyje, ale zginą piesi, czy lepiej skierować auto na ścianę obok, co najprawdopodobniej zabije "naszego" pasażera, ale uratuje pieszych?

System samochodu ma pełen obraz sytuacji i może podjąć decyzję w ciągu milisekund.

Sprawa ma szerszy aspekt moralny. A co, jeżeli owa grupka pieszych to przebywający chwilowo na wolności więźniowie zakładu penitencjarnego, skazani na dożywocie (lub na śmierć)? Czy zabicie ich w celu ocalenia "kierowcy" jest moralnie poprawne? I skąd system samochodu miałby o tym wiedzieć?

Albo inny scenariusz: Jedziemy wąskim mostem nad przepaścią (droga jednokierunkowa, bez chodnika), za nami siedzi nam na ogonie wielka ciężarówa, kawałek przed nami, na mocyklu, para ludzi. Motocykl się psuje i zatrzymuje. Auto ma do wyboru: 1) zahamować (i dać się zmiażdżyć ciężarówie, wytracając jednocześnie jej prędkość), 2) walnąć w parkę na motorze lub 3) skręcić i spaść z mostu (pozwalając ciężarówie zabić parkę na motorze). Wybór między drugą a trzecią opcją wydaje się na pierwszy rzut oka być oczywisty, w końcu w wariancie drugim przeżywa więcej ludzi (czyli pasażerowie samochodu), ale to ten właśnie samochód aktywnie decyduje o zabiciu parki na motorze.

Taka "moralna arytmetyka" jest bardzo trudna. Ktoś powie, że nie powinno się w ogóle rozważać takich opcji. Ale przecież kiedyś, prędzej czy później, do tego dojdzie, prawda? I co wtedy?

Rzut wirtualną monetą?

https://xpil.eu/Jpm3G

6 komentarzy

  1. Nawet nie schodząc z asfaltu na tory: uderzyć w człowieka który nagle pojawił się na drodze czy uciec na przeciwny pas, na chodnik z latarinami albo do rowu, za którym jest drzewo?

    IMO nie da się częściowo zautomatyzować transportu indywidualnego.

    1. Tu nawet nie chodzi o to, czy się da, czy nie, i czy to ma być częściowe, czy całkowite. Chodzi o programowanie zachowań moralnie wątpliwych za pomocą sztucznych inteligencji oraz związane z tym dylematy nie mające za wiele wspólnego ze sztuką programowania…

      1. Przez całkowitą automatyzację rozumiem odpowiednik wyciągu krzesełkowego. Zaprogramowaną bezkolizyjność – gdzie o ile nie wystąpi jakiś poważny błąd systemu, wyeliminuje się decyzje moralne.

  2. …no to podlinkowujemy system do ostatnich badań nad empatią / moralnością i patrzymy, jakie wybory są aktualnie premiowane społecznie. Jak się okaże, że preferowana jest sytuacja, w której autko poświęca pasażera kosztem parady więźniów – trudno. Trzeba tylko odpowiednią umową z kupującym samochów skonstruować, żeby wiedzieli (a przynajmniej deklarowali, że wiedzą), w co się pakują 😀

    PS. Naprawdę większość preferuje poświęcić WŁASNE dziecko zamiast grupy obcych? Chyba tylko deklaratywnie

    1. Z tym podlinkowywaniem to ryzykowna sprawa. Zwłaszcza w obszarach przygranicznych 😉

      Tak, 68% ludzi wybrało śmierć pojedynczej osoby żeby uratować grupę, nawet, jeżeli mieliby zabić własne dziecko. Ale tylko deklaratywnie, oczywiście. Jak by było naprawdę… Hm.

      1. Właśnie widzę, że wcięło mi końcówkę komentarza, bo nieopatrznie użyłam htmlowego ostrego nawiasu… miało tam być: „Chyba tylko deklaratywnie [cynicznie chichocze pod nosem nie wierząc w altruizm ludzkości]”

Leave a Comment

Komentarze mile widziane.

Jeżeli chcesz do komentarza wstawić kod, użyj składni:
[code]
tutaj wstaw swój kod
[/code]

Jeżeli zrobisz literówkę lub zmienisz zdanie, możesz edytować komentarz po jego zatwierdzeniu.