Ankieta: Czy przełożysz zwrotnicę
Nie posiadasz uprawnień, aby oddać głos w tej ankiecie.
Przełożę w wariancie klasycznym
13.33%
2 13.33%
Nie przełożę w wariancie klasycznym
33.33%
5 33.33%
Przełożę w wariancie probalistycznym
13.33%
2 13.33%
Nie przełożę w wariancie probalistycznym
40.00%
6 40.00%
Razem 15 głosów 100%
*) odpowiedź wybrana przez Ciebie [Wyniki ankiety]

Ocena wątku:
  • 1 głosów - średnia: 5
  • 1
  • 2
  • 3
  • 4
  • 5
Problem kolejkowy i jego wariant probalistyczny
#1
Na potrzeby wątku definiujemy klasyczny problem kolejkowy tak:

Po torze pędzi rozpędzona kolejka. Jeśli będzie dalej biec po tym torze, rozjedzie dwie przywiązane do torów osoby. Jeśli przełożymy zwrotnicę – rozjedzie jedną. Czy przełożysz zwrotnicę?

Wariant probalistyczny:

Po torze pędzi rozpędzona kolejka. Jeśli będzie dalej biec po tym torze, przejedzie przez miejsce, gdzie przywiązane jest 6 osób. Osoby te jednak mają możliwość się uwolnić. Wiemy, że uda im się to z 80% prawdopodobieństwem (mają do otwarcia zamek szyfrowy i w czasie jazdy kolejki są w stanie sprawdzić 80% kombinacji). Jeśli przełożymy zwrotnicę – kolejka rozjedzie jedną osobę, która nie jest w stanie się uwolnić. Czy przełożysz zwrotnicę?
„Przybądź i bądź, bez zarzutu
Tak dla Tutsi, jak dla Hutu”

– Spięty
Odpowiedz
#2
6×1/5 to wciąż więcej niż 1, więc chyba każdy udzieliłby takiej samej odpowiedzi, jak w wersji oryginalnej.

Ewentualnie można też rzucić kostką k10 i przy wyniku 9 lub 0 przestawić zwrotnicę. Tak chyba byłoby sprawiedliwie.


PS Oj, ale ftopa. Oczywiście ze niesprawiedliwie, bo wtedy prawdopodobieństwo śmierci jednego wynosiło 0,2, a prawdopodobieństwo śmierci każdego z sześciu 0,2*0,8, czyli tylko 0,16. Aby było sprawiedliwie, należy użyć takiego współczynnika X, aby 0,8×(1-X)=X. Czyli 1,8X = 0,8, więc X=0,44. Należy przestawić zwrotnicę z prawdopodobieństwem 0,44, wtedy każdy będzie miał rowne szanse przeżycia.
Odpowiedz
#3
ZaKotem napisał(a): 6×1/5 to wciąż więcej niż 1, więc chyba każdy udzieliłby takiej samej odpowiedzi, jak w wersji oryginalnej.
No to udziel takiej. Zobaczymy, jak inni.
Cytat:Ewentualnie można też rzucić kostką k10 i przy wyniku 9 lub 0 przestawić zwrotnicę. Tak chyba byłoby sprawiedliwie.
No nie. Takie postępowanie nie daje przecież lepszego niż strategia przełożenia zwrotnicy w każdej sytuacji rezultatu w dłuższej perspektywie. Nie ma przecież korelacji między naszym rzucaniem kostką, a wysiłkami związanych ludzi. Więc co w nim takiego „sprawiedliwego”?
„Przybądź i bądź, bez zarzutu
Tak dla Tutsi, jak dla Hutu”

– Spięty
Odpowiedz
#4
zefciu napisał(a): No to udziel takiej. Zobaczymy, jak inni.
No, ja uważam że życie ludzkie nie ma mierzalnej wartości, więc nic bym nie zrobił, bo życie 6 ludzi nie jest więcej warte niż jednego, i tak samo 1,2 człowieka jest warte tyle, co 1 człowiek. Co innego, gdyby ci ludzie byli moimi krewnymi, albo pracownikami, albo klientami, albo wyborcami, wtedy ich życie miałoby mierzalną wartość V i oczywiście przestawiłbym zweotnicę, bo 6V×0,2 > V.

zefciu napisał(a): No nie. Takie postępowanie nie daje przecież lepszego niż strategia przełożenia zwrotnicy w każdej sytuacji rezultatu w dłuższej perspektywie. Nie ma przecież korelacji między naszym rzucaniem kostką, a wysiłkami związanych ludzi. Więc co w nim takiego „sprawiedliwego”?
Zamiast rozważać wartość życia ludzkiego, co moim zdaniem nie ma sensu, mozna odejść z do tego z innej strony rozważyć sytuację każdego z nich osobno. Zakładając, że to nie ja tych ludzi związałem ani że w ogóle niczym szczególnym sobie na to nie zasłużyli, sprawiedliwe jest aby mieli równe szanse. Bo przecież żaden nie zasłużył na przeżycie bardziej. Gdybym więc został zmuszony do decydowania o ludzkim życiu (dobrowolnie bym tego się nie podjął) to w sytuacji oryginalnej (pewna śmierć 6 ludzi vs pewna śmierć jednego) rzuciłbym monetą, a w sytuacji opisanej przez ciebie przestawiłbym zwrotnicę z prawdopodobieństwem 0,44, jeśli miałbym przy sobie jakiś generator liczb losowych.
Odpowiedz
#5
I rozumiem, że ci ludzie są mi w równym stopniu obojętni/ nieznani?
Jeśli zabraknie ci argumentów - nazwij mnie kłamczynią i napisz, że łżę.
Odpowiedz
#6
znaLezczyni napisał(a): I rozumiem, że ci ludzie są mi w równym stopniu obojętni/ nieznani?
Tak. Nie wprowadzamy żadnych dodatkowych zmiennych. Żadna z tych osób nie jest Hitlerem, ani żadna nie jest Twoim dzieckiem
„Przybądź i bądź, bez zarzutu
Tak dla Tutsi, jak dla Hutu”

– Spięty
Odpowiedz
#7
ZaKotem napisał(a): No, ja uważam że życie ludzkie nie ma mierzalnej wartości, więc nic bym nie zrobił, bo życie 6 ludzi nie jest więcej warte niż jednego, i tak samo 1,2 człowieka jest warte tyle, co 1 człowiek. Co innego, gdyby ci ludzie byli moimi krewnymi, albo pracownikami, albo klientami, albo wyborcami, wtedy ich życie miałoby mierzalną wartość V i oczywiście przestawiłbym zweotnicę, bo 6V×0,2 > V.
Zgodnie z tym tokiem rozumowania miliard obcych ludzi jest dla Ciebie mniej warty niż jeden klient albo jeden wyborca. Mmmm... Mmm...
Mam nadzieję, że nie pełnisz żadnej funkcji publicznej. Oczko

zefciu napisał(a): Czy przełożysz zwrotnicę?
To jest bardzo ciekawe pytanie. Niezłą zagwozdkę  dał mi ten temat.  Bo o ile klasyczny przykład jest oczywisty (dla każdego, kto jest w stanie przyjąć na siebie odpowiedzialność i nie jest psychopatą, który uważa, że śmierć dodatkowej osoby jest lepsza), o tyle przy probabilistyce nasza mniej więcej powszechnie przyjęta w kulturze moralność zaczyna się rozjeżdżać ze zwykłą kalkulacją.
Wydaje się, że konsensus społeczny jest taki, że jeżeli różnica w statystycznej liczbie ofiar nie byłaby zbyt duża, to warto dodatkowo zaryzykować, by mieć szansę uratowania wszystkich i uzyskać najlepszy scenariusz. Uważam, że to poniekąd ważny mechanizm ewolucyjny, że mamy awersję do porzucania jednego ze swoich na pewną śmierć - nawet jeżeli mielibyśmy ryzykować życiem większej liczby ludzi. To bardzo istotny element dla więzi w grupie, w tym dla poczucia przynależności do niej - że nie zostaniemy porzuceni, nawet jeżeli według kalkulacji skutkowałoby to minimalnie większymi negatywnymi konsekwencjami dla społeczności. Wydaje się, że moralność oparta na czystej kalkulacji zysków i strat byłaby niszcząca dla grupy społecznej. Przynajmniej w kulturach zachodnich - kultury azjatyckie znane są z bardziej utylitarnego podejścia.

W problemie dużym ułatwieniem jest względnie mała dysproporcja pomiędzy statystycznym rachunkiem zysków i strat obu opcji. Przy większej dysproporcji dylemat mógłby być jeszcze poważniejszy - do ustalenia jest ta magiczna granica, za którą nie podjęlibyśmy dodatkowego ryzyka.

edit: powyższe napisałem abstrahując od tego, że nieprzełożenie dźwigni w wersji probabilistycznej ma jeszcze lepszy efekt "czystych rączek" niż w wersji klasycznej - ludzka psychika łatwiej obroni się przed przypisaniem sobie odpowiedzialności za śmierć 6 osób, bo "dało się im szansę", co oczywiście jest zwykłą iluzją.
"O gustach się nie dyskutuje; a ja twierdzę, że całe życie to kłótnia o gusta." (Nietzsche F.)
Odpowiedz
#8
Ja wychodzę z założenia, że śmierć zarówno jednej, jak i dwóch nieznanych mi osób mogę „roboczo” uznać za taką samą tragedię. Co innego jeszcze, jakby stosunek ten był znacznie większy, ale w przytoczonej sytuacji, bez wiedzy kim te osoby konkretnie są, ze świadomością, że równie dobrze mogę zabić małe dziecko i ocalić dwóch pedofili jak i na odwrót , nie posunąłbym się do wartościowania ilościowego. Z dwojga złego - pozwolić umrzeć czy zabić - wybrałbym to pierwsze. Wolałbym pośrednio, niż bezpośrednio spowodować jakąś tragedię.
Podchodząc do tego pragmatycznie, utylitarnie, rozwiązanie jest oczywiste - lecz nie jest to moja optyka, dla mnie cel nie uświęca środków i nie zrównuję co do joty wartości z ilością.
Tym bardziej w drugim przykładzie, gdzie istniałaby bardzo prawdopodobna możliwość uniknięcia jakiejkolwiek tragedii, nie posunąłbym się do bezpośredniego spowodowania czyjejś śmierci „na wszelki wypadek”.
Możliwe, że w tym moim rozumowaniu jest jakiś ślad wychowania w katolickiej etyce, nie wykluczam tego.
Odpowiedz
#9
Hmmm kolejka śmierci jest jednak nadal bardzo abstrakcyjna jak dla mnie. Myślę, że dotykając dźwigni zwrotnicy w myślach każdy czuje się jak kat Duży uśmiech

Przypomniały mi się 2 dyskusje o samochodach z moją byłą, których jedna bardziej nawiązuje do tematu.

Pierwsza byla o sytuacji w której pieszy wybiega na ulicę szybkiego ruchu. Znajduje się przed moją maską i jest zbyt blisko, żby wyhamować. Mogę próbować go ominąć ale ryzykuję zderzenie z innymi samochodami.

Moja odpowiedź była taka, że hamowałbym ale nie zmieniłbym pasa ruchu, czym zapracowałem na łatkę psychopaty.

Druga była taka jakoś związana z teslą, kiedy ktoś znany zginął w tym samochodzie z powodu błędu w oprogramowaniu i powróciła przy okazji jednego z tych świąt, gdzie polacy nabijają licznik carmageddonu. Mianowicie mogę wprowadzić prawo (zgaduję, że mam wladzę absolutną Duży uśmiech) wg którego wszystkie samochody będą zastępowane autonomicznymi. Pozwoli to na znaczne ograniczenie wypadków na drogach, ale część ludzi będzie ginąć w banalnych sytuacjach z powodu błędów programu.

Opowiedziałem się za automatyzacją, co tylko umocniło moją pozycję psychopaty. Argumentacja mojej byłej skupiała się wokół tego, że jeśli ma zginąć na drodze, to z własnej winy, a nie dlatego, że prowadzi samochód, który ją zabije, bo tak jest zaprogramowany.

Kontrargumenty o tym, że równie dobrze, a prawdopodobnie nawet dobrzej, może zginąć z winy innych kierowców, albo usterki mechanicznej dodatkowo umocniły moją pozycję psychopaty Duży uśmiech
I hear the roar of big machine
Two worlds and in between
Hot metal and methedrine
I hear empire down


Odpowiedz
#10
Ten wątek założyłem właśnie myśląc o AI. Chodzi mi zaś o to:
  • Wszyscy (powiedzmy) zgadzają się, że AI powinna być zaprogramowana na ochronę życia ludzkiego.
  • Nie w każdej sytuacji można znaleźć rozwiązanie, które uratuje wszystkich ludzi.
  • Wszechświat jest z natury niedeterministyczny, zatem AI musi stosować stochastyczne kryteria oceny swoich działań
  • Narzucającym się rozwiązaniem jest maksymalizacja oczekiwanej liczby ludzi, którzy przeżyją w wyniku danego działania.
No i teraz mamy sytuację – AI ni z gruchy ni z pietruchy kogoś morduje. Patrzymy w logi, a tam mamy opisaną symulację, według której istniał jakiś scenariusz o prawdopodobieństwie 1/100, według którego ginęło 101 osób, a który przez śmierć jednej osoby został zażegnany. W przykładzie z kolejką – AI przekłada wajchę i zabija człowieka. Najprawdopodobniej okazuje się, że śmierć tego człowieka była niepotrzebna. No i pytanie – czy jesteśmy się w stanie zgodzić na istnienie takiej AI? A jeśli nie – to jaka jest alternatywa?
„Przybądź i bądź, bez zarzutu
Tak dla Tutsi, jak dla Hutu”

– Spięty
Odpowiedz
#11
Dragula napisał(a): Przypomniały mi się 2 dyskusje o samochodach z moją byłą, których jedna bardziej nawiązuje do tematu.

Pierwsza byla o sytuacji w której pieszy wybiega na ulicę szybkiego ruchu. Znajduje się przed moją maską i jest zbyt blisko, żby wyhamować. Mogę próbować go ominąć ale ryzykuję zderzenie z innymi samochodami.

Moja odpowiedź była taka, że hamowałbym ale nie zmieniłbym pasa ruchu, czym zapracowałem na łatkę psychopaty.
Nie uważam cię za psychopatę, ale uważam, że to błąd. Nie wziąłeś pod uwagę tego, że jeśli na drodze szybkiego ruchu zjedziesz na inny pas, to twoja prędkość względem pojazdu poruszającego się w tym samym kierunku nie będzie taka wielka, realnie prawie nigdy nie przekracza 40 km/h, a ponadto ten inny kierowca, jeśli jest choćby półprzytomny, na pewno zacznie hamować i choć trochę zdąży zredukować prędkość, zanim się z tobą zderzy. Jeśli nie jedziesz jakimś maluchem czy trabantem, to takie zderzenie powinieneś przetrwać w najgorszym razie z lekkimi obrażeniami, choć auto oczywiście będzie do kasacji.

Inną sprawa, że jeśli na reakcję masz pół sekundy, to i tak nie zdążysz pofilozofować, tylko zareagujesz zgodnie z odruchem warunkowym, a to nie żadna decyzja moralna.
Cytat:Druga była taka jakoś związana z teslą, kiedy ktoś znany zginął w tym samochodzie z powodu błędu w oprogramowaniu i powróciła przy okazji jednego z tych świąt, gdzie polacy nabijają licznik carmageddonu. Mianowicie mogę wprowadzić prawo (zgaduję, że mam wladzę absolutną Duży uśmiech) wg którego wszystkie samochody będą zastępowane autonomicznymi. Pozwoli to na znaczne ograniczenie wypadków na drogach, ale część ludzi będzie ginąć w banalnych sytuacjach z powodu błędów programu.

Opowiedziałem się za automatyzacją, co tylko umocniło moją pozycję psychopaty. Argumentacja mojej byłej skupiała się wokół tego, że jeśli ma zginąć na drodze, to z własnej winy, a nie dlatego, że prowadzi samochód, który ją zabije, bo tak jest zaprogramowany.

Kontrargumenty o tym, że równie dobrze, a prawdopodobnie nawet dobrzej, może zginąć z winy innych kierowców, albo usterki mechanicznej dodatkowo umocniły moją pozycję psychopaty Duży uśmiech
Tu chyba wchodzą w grę jakieś rozdmuchane przez sajins fikszn obawy przed Buntem Robotów. Nie wiadomo, co taki komputer kierujący sobie myśli. No, ale tak samo kiedyś nigdy do końca nie było wiadomo, co sobie taki koń myśli. A zdarzało się, że mógł odnosić się do jeźdźca nieprzychylnie.

Ogólnie jestem za postempem i autonomiczne samochody uważam za coś dobrego, ale gdybyś miał władzę absolutną i zabronił stosowania aut ręcznie sterowanych... To czułbym w tym jakiś przekręt i z pewnością dołączyłbym do jakichś rowerzystów wyklętych. W końcu po władzy absolutnej niczego dobrego się nie spodziewam, i spodziewałbym się raczej, że to prawo wyprowadzasz w celu pozbycia się opozycjonistów w celowo zaprogramowanych "wypadkach".

zefciu napisał(a): No i teraz mamy sytuację – AI ni z gruchy ni z pietruchy kogoś morduje. Patrzymy w logi, a tam mamy opisaną symulację, według której istniał jakiś scenariusz o prawdopodobieństwie 1/100, według którego ginęło 101 osób, a który przez śmierć jednej osoby został zażegnany. W przykładzie z kolejką – AI przekłada wajchę i zabija człowieka. Najprawdopodobniej okazuje się, że śmierć tego człowieka była niepotrzebna. No i pytanie – czy jesteśmy się w stanie zgodzić na istnienie takiej AI? A jeśli nie – to jaka jest alternatywa?

Nie byłbym w stanie zaakceptować tego, bo to by zmniejszało moją kontrolę nad moim życiem. Nie chciałbym, żeby ktoś mnie zabił dla dobra ludzkości czy narodu. Już wolałbym, żeby jakiś psychol mnie zabił za pisiont groszy. Serio, widzę różnicę, na korzyść tego drugiego. Przy czym mój sprzeciw zapewne zwiększałby prawdopodobieństwo jakiejś wojny z AI i obniżenia bezpieczeństwa w jej wyniku, co z kolei AI musiałaby uwzględnić i traktować przeciwników jako bardziej prawdopodobnych sprawców katastrofy... I to już w zasadzie mamy algorytm Skynetu.
Odpowiedz
#12
Dylemat wagonika ma na celu przedstawienie w formie idealnej, wyabstrahowanej ze wszystkiego różnicy między utylitaryzmem (czy szerzej konsekwencjalizmem) a systemami etycznymi uznającymi że czynność (w tym przypadku zabicie kogoś) sama w sobie może być moralna lub nie. Szczerze mówiąc nie wiem więc, dlaczego ktokolwiek kto ma wyrobiony pogląd w tej kwestii miałby zmieniać swoją odpowiedź ze względu na wprowadzenie elementu probabilistycznego.
Odpowiedz
#13
Łazarz napisał(a): Szczerze mówiąc nie wiem więc, dlaczego ktokolwiek kto ma wyrobiony pogląd w tej kwestii miałby zmieniać swoją odpowiedź ze względu na wprowadzenie elementu probabilistycznego.
Stąd, że większość ludzi postrzega moralność intuicyjnie, a nie na zasadzie dogmatycznego trzymania się litery jakiejś filozofii

Ja np. podejrzewam, że właśnie tak bym postąpił – przełożył w wariancie klasycznym, a w wariancie probalistycznym nie przełożył, tylko modlił się, aby tamtej szóstce się udało. Gdybym przełożył, a szóstka się uwolniła zaś, ciężko by mi było się z tym pogodzić. Wydawało mi się też, że tak by postąpiła większość ludzi i chciałem to zweryfikować. Niestety frekwencja była kiepska.
„Przybądź i bądź, bez zarzutu
Tak dla Tutsi, jak dla Hutu”

– Spięty
Odpowiedz
#14
ja bym przełożył w obu wariantach. Dlatego, że ci ludzie są nadal zagrożeni i jest ich po prostu więcej. Wydaje mi się też, że tak funkcjonuje nasze społeczeństwo w ogóle - w razie katastrof i wypadków najpierw zależy zadbać o siebie, a później o tych, którzy mają największe szanse na przetrwanie.

ZaKot napisał(a):Nie uważam cię za psychopatę, ale uważam, że to błąd. Nie wziąłeś pod uwagę tego, że jeśli na drodze szybkiego ruchu zjedziesz na inny pas, to twoja prędkość względem pojazdu poruszającego się w tym samym kierunku nie będzie taka wielka, realnie prawie nigdy nie przekracza 40 km/h, a ponadto ten inny kierowca, jeśli jest choćby półprzytomny, na pewno zacznie hamować i choć trochę zdąży zredukować prędkość, zanim się z tobą zderzy. Jeśli nie jedziesz jakimś maluchem czy trabantem, to takie zderzenie powinieneś przetrwać w najgorszym razie z lekkimi obrażeniami, choć auto oczywiście będzie do kasacji.
No najczęściej tak jest. Prawdopodobnie nawet z nikim bym się nie zderzył, może nawet akurat bym się wcisnął elegancko między inne samochody. I nawet nie chodzi mi o własne bezpieczeństwo, tylko o innych kierowców. Dla mnie jest w pewnym sensie niemoralne przeniesienie ryzyka na innych ludzi w tej sytuacji. Nawet pomijając to, że zakładam, że oni jadą poprawnie (ale w polszy nie jadą, bo jadą za szybko), a dzbanek na drodze sam sobie jest winny bo wziął i wtargnął bezczelnie.
I hear the roar of big machine
Two worlds and in between
Hot metal and methedrine
I hear empire down


Odpowiedz
#15
Dragula napisał(a): ja bym przełożył w obu wariantach. Dlatego, że ci ludzie są nadal zagrożeni i jest ich po prostu więcej. Wydaje mi się też, że tak funkcjonuje nasze społeczeństwo w ogóle - w razie katastrof i wypadków najpierw zależy zadbać o siebie, a później o tych, którzy mają największe szanse na przetrwanie.
Tylko weź pod uwagę, że najprawdopodobniej zabiłeś człowieka bez potrzeby. Człowieka, który miał duże szanse na przetrwanie. Najprawdopodobniejszym bowiem scenariuszem, jeśli nie przełożysz wajchy jest taki, że wszyscy przeżyją.
„Przybądź i bądź, bez zarzutu
Tak dla Tutsi, jak dla Hutu”

– Spięty
Odpowiedz
#16
Wiem. Ale jakoś bardziej do mnie przemawia pewny rezultat. Serio, tak bym postąpił w chwili kryzysowej. Z drugiej strony, w realu nie mamy sytuacji pewnych i pewnie kierowałbym się prawdopodobieństwem (ale i równanie wyglądałoby inaczej, bo nie byłoby tam tej opcji którą wybieram teraz). No i jest jeszcze kwestia tego jakie prawdopodobieństwo uważam za zadowalające i dlaczego. Jeszcze kwestia skali. Myślę, że na gorąco nie wierzyłbym, że wszystkim się uda, chociaż faktycznie prawdopodobieństwo, że tak się stanie jest wysokie.

Cytat:Ten wątek założyłem właśnie myśląc o AI. Chodzi mi zaś o to:
  • Wszyscy (powiedzmy) zgadzają się, że AI powinna być zaprogramowana na ochronę życia ludzkiego.

  • Nie w każdej sytuacji można znaleźć rozwiązanie, które uratuje wszystkich ludzi.

  • Wszechświat jest z natury niedeterministyczny, zatem AI musi stosować stochastyczne kryteria oceny swoich działań

  • Narzucającym się rozwiązaniem jest maksymalizacja oczekiwanej liczby ludzi, którzy przeżyją w wyniku danego działania.
No i teraz mamy sytuację – AI ni z gruchy ni z pietruchy kogoś morduje. Patrzymy w logi, a tam mamy opisaną symulację, według której istniał jakiś scenariusz o prawdopodobieństwie 1/100, według którego ginęło 101 osób, a który przez śmierć jednej osoby został zażegnany. W przykładzie z kolejką – AI przekłada wajchę i zabija człowieka. Najprawdopodobniej okazuje się, że śmierć tego człowieka była niepotrzebna. No i pytanie – czy jesteśmy się w stanie zgodzić na istnienie takiej AI? A jeśli nie – to jaka jest alternatywa?

przeoczyłem wcześniej tą wypowiedź. Wiem, że to jest dopierdalanie się od dupy strony, ale z takimi kryteriami, to AI może nawet zastrzelić prezydenta, bo uzna, że jeśli zawetuje jakąś ustawę dotyczącą służby zdrowia, to z prawdopodobieństwem 1/10 w ciągu kilku lat oczekiwana długość życia cukrzyków spadnie. Problem jest taki, że chociaż mamy przepisy, to jednak staramy się rozpatrywać sprawy indywidualnie, uwzględniając kontekst i unikatowe czynniki. Skryptując chcesz rozwiązać problemy masowo, dobierając uproszczone kryteria. Z jednej strony białko wielu spraw nie rozwiąże wcale, bo nie zdąży, a krzem zrobi to po łebkach Duży uśmiech Haha, teraz wychodzi na to, że powiem "nie chcę takiej AI", a w przykładzie z kolejką wybrałbym opcję zachowałbym się jak to AI.

BTW takie AI, po "uratowaniu" tych 101 osób po jakimś czasie prawdopodobnie ukatrupiłoby część z nich, żeby ratować kolejne Duży uśmiech Szkoda, że nie mogę zmienić odpowiedzi w ankiecie.
I hear the roar of big machine
Two worlds and in between
Hot metal and methedrine
I hear empire down


Odpowiedz
#17
Dragula napisał(a): Pierwsza byla o sytuacji w której pieszy wybiega na ulicę szybkiego ruchu. Znajduje się przed moją maską i jest zbyt blisko, żby wyhamować. Mogę próbować go ominąć ale ryzykuję zderzenie z innymi samochodami.

Moja odpowiedź była taka, że hamowałbym ale nie zmieniłbym pasa ruchu, czym zapracowałem na łatkę psychopaty.

50km/h w zabudowanym terenie wprowadzono dlatego, bo wyłącznie przy takiej lub niższej prędkości potrącony człowiek ma jakąś szansę na przeżycie. Już 60 czy 70 km/h to dla pieszego prawie pewna śmierć lub zaawansowane kalectwo. Dlatego hamowanie na drodze szybkiego ruchu nie za wiele pieszemu pomoże.
Wspomóż mię mrówko, bo z głodu umieram
Prosił ze łzami konik w nędznym stanie;
Lecz ta mu rzekła: dla siebie ja zbieram,
Śpiewałeś w lecie, potańcz w zimie panie.
Odpowiedz
#18
Rozumiem, że problem, jaki opisał Zef jest tylko wstępem do szacowania zachowań działającej AI na polu minowym wyborów moralnych.
I nie trzeba uciekać się aż do tak abstrakcyjnych przykładów.
Wystarczy poddać bardziej prozaiczne sytuacje, kiedy np. inwestujemy jakiś zasób w nadziei na wzmocnienie tej strategii i spodziewany zwrot w przyszłości (co jest podstawą zachowań altruistycznych).
A nas Łódź urzekła szara - łódzki kurz i dym.
Odpowiedz
#19
zefciu napisał(a): Na potrzeby wątku definiujemy klasyczny problem kolejkowy tak:

Po torze pędzi rozpędzona kolejka. Jeśli będzie dalej biec po tym torze, rozjedzie dwie przywiązane do torów osoby. Jeśli przełożymy zwrotnicę – rozjedzie jedną. Czy przełożysz zwrotnicę?

Nie.

Cytat:Wariant probalistyczny:

Po torze pędzi rozpędzona kolejka. Jeśli będzie dalej biec po tym torze, przejedzie przez miejsce, gdzie przywiązane jest 6 osób. Osoby te jednak mają możliwość się uwolnić. Wiemy, że uda im się to z 80% prawdopodobieństwem (mają do otwarcia zamek szyfrowy i w czasie jazdy kolejki są w stanie sprawdzić 80% kombinacji). Jeśli przełożymy zwrotnicę – kolejka rozjedzie jedną osobę, która nie jest w stanie się uwolnić. Czy przełożysz zwrotnicę?

Też nie.



Pytanie jest, jak bym postąpił, w przypadku, gdyby to gościu na alternatywnym torze miałby taki zamek. Wtedy przełożenie wajchy nie równałoby się 100% zabiciu, ale, jak w powyższym przykładzie, 20% śmierci. Powiedzmy, że być może, tak na 80%, ale sam nie wiem.
Wszystko ma swój czas
i jest wyznaczona godzina
na wszystkie sprawy pod niebem
Spoiler!
Koh 3:1-8 (edycje własne)
Odpowiedz
#20
Przekładam, bo przy milionie powtórzeń zginie 200 tysięcy mniej osób.
hOr-oom-may o nay rhay
hOr-oom-may he eer-hee-mo

http://www.youtube.com/watch?v=wXRGfo1NksM
Odpowiedz


Skocz do:


Użytkownicy przeglądający ten wątek: 1 gości