Ocena wątku:
  • 0 głosów - średnia: 0
  • 1
  • 2
  • 3
  • 4
  • 5
Czy zabiją nas spinacze?
#1
http://forsal.pl/lifestyle/technologie/a...ieton.html

Ten krótki felieton zainspirował mnie do zadania pytania o rozwój sztucznej inteligencji. Jak ona się potoczy, jakie będzie miała skutki? Przecież eksperyment myślowy z artykułu to tylko w nowe szatki przebrana opowieść o golemie. Czy to się musi tak skończyć?
Sebastian Flak
Odpowiedz
#2
Problem trochę wydumany, bo taka SI produkująca spinacze zderzy się prędzej czy później z inną SI produkującą np. buty i musi nastąpić coś w rodzaju równowagi dynamicznej (nie mówiąc o ograniczonym popycie na ww. spinacze).
A nas Łódź urzekła szara - łódzki kurz i dym.
Odpowiedz
#3
A to nie ten sam scenariusz tylko zmultiplikowany? W końcu logika podpowiada, że konkurenta o zasoby trzeba zlikwidować aby móc wykorzystać zasoby przezeń zajęte. Czyli SI "spinaczowa" będzie dążyć do wykończenia każdej innej. A każda inna SI do wykończenia "spinaczowej". Czyli pandemonium do kwadratu.
Sebastian Flak
Odpowiedz
#4
Zakładasz, że SI posiądzie jakieś nadprzyrodzone moce, które pozwolą jej omijać rafy fizyczne. Ale tak nie jest. A poza tym w produkcji spinaczy liczy się nie tyle sama ilość, co zysk.
Więc taka hipotetyczna SI skupi się bardziej na optymalizacji kosztów i technologii,
A nas Łódź urzekła szara - łódzki kurz i dym.
Odpowiedz
#5
Ale właśnie sedno eksperymentu zakłada, że logika SI jest odmienna od ludzkiej i zysk może być pojmowany jako produkcja większych ilości, mniejszym nakładem a nie jako zwiększanie przychodu. W końcu to jednak logiczne postępowanie. Pieniądz to papier, metal lub cyfrowy zapis i jaką ma wartość sam w sobie? Chyba tylko jako surowiec do dalszej produkcji. Wartość nadajemy my. I no właśnie, fakt istnienia inteligencji nie warunkuje natychmiastowego zrozumienia konwencji. Jakby było inaczej to już byśmy z delfinami badania prowadzili nad tworzeniem protokultur. A na razie to wiemy tylko tyle, że inteligencję mają na poziomie kilkulatka, ale pogadać jak z kilkulatkiem to nie idzie.
Sebastian Flak
Odpowiedz
#6
Ponoć z tymi delfinami to ściema jest. Jak znajdę gdzie to czytałem to wrzucę
"...zażarty absolutysta, wściekły teokrata, nieprzejednany legitymista, apostoł potwornej trójcy złożonej z papieża, króla i kata, zawsze i wszędzie broniący najtwardszego, najciaśniejszego i najbardziej niewzruszonego dogmatyzmu, mroczna postać rodem z ciemnych wieków..."
Odpowiedz
#7
Galahad napisał(a): Ale właśnie sedno eksperymentu zakłada, że logika SI jest odmienna od ludzkiej i zysk może być pojmowany jako produkcja większych ilości, mniejszym nakładem a nie jako zwiększanie przychodu.
Owszem, ale bez przychodu nie będzie surowców ani mocy produkcyjnych do produkcji nowych spinaczy, toteż chcąc nie chcąc spinaczowa SI musi dążyć do zwiększenia przychodu właśnie. I tak samo jak ludzki przedsiębiorca, zderzy się z konkurencją, również opanowaną przez analogiczne SI, oraz zależnościami pomiędzy dostawcami i klientami, z których każdy będzie też miał swój komputerek. Świat opanowany przez SI jest do wyobrażenia, z tym że nie będzie on niczym nowym. Będzie przypominał raczej dość tępawe życie właścicieli niewolników, z tym że zamiast czarnuchów będą komputery, w przeciwieństwie do ludzi pozbawione instynktu samozachowawczego i zaprogramowane na ślepą lojalność.
Odpowiedz
#8
Autor tej historii ma plusa wielkiego za to, że nie wpadł w pułapkę antropomorfizacji. Ale mówi ona raczej o tym, że mając AI musimy poważnie zastanowić się nad tym, do czego ją zaprogramujemy i jakie zasoby jej damy, niż o tym, że grozi nam nieuchronna katastrofa.
„Przybądź i bądź, bez zarzutu
Tak dla Tutsi, jak dla Hutu”

– Spięty
Odpowiedz
#9
Galahad napisał(a): A na razie to wiemy tylko tyle, że inteligencję mają na poziomie kilkulatka, ale pogadać jak z kilkulatkiem to nie idzie.

Ale z małpami można se już pogadać. Niektóre znają kilkadziesiąt znaków języka migowego.
Odpowiedz
#10
zefciu napisał(a): Ale mówi ona raczej o tym, że mając AI musimy poważnie zastanowić się nad tym, do czego ją zaprogramujemy i jakie zasoby jej damy, niż o tym, że grozi nam nieuchronna katastrofa.

Jeżeli potraktujemy AI jako rodzaj rozbudowanego systemu eksperckiego, to jak najbardziej tak.
Ale kiedy do gry wejdzie coś, co zyska jakąś samoświadomość i np. stres egzystencjalny, to nie ma zmiłuj. Samo się przeprogramuje.
Na szczęście, to melodia przyszłości ale do przewidzenia są jakieś złośliwe, agresywne boty wypuszczone przez zbójeckie państwa czy psychopatów.
A nas Łódź urzekła szara - łódzki kurz i dym.
Odpowiedz
#11
Sofeicz napisał(a): Ale kiedy do gry wejdzie coś, co zyska jakąś samoświadomość i np. stres egzystencjalny, to nie ma zmiłuj. Samo się przeprogramuje.
Ale właśnie skąd wniosek, że maszyna, nawet samoświadoma (jakkolwiek to zdefiniujemy) będzie przeżywać stres egzystencjalny. Ale że będzie żądna władzy. Albo że (tu wpisz inną ludzką cechę, której wcale taka maszyna nie musi posiadać).

W historii o spinaczach, czy w tej o sondach Slylandro trafne jest właśnie to, że nie antropomorfizują one AI. Nie przypisują jej jakichś cech moralnych. Po prostu wskazują, jaki skutek może mieć pochopne zaprogramowanie celów w połączeniu z wysoką zdolnością owych celów uzyskiwania.
Cytat:Na szczęście, to melodia przyszłości ale do przewidzenia są jakieś złośliwe, agresywne boty wypuszczone przez zbójeckie państwa czy psychopatów.
No ale równie dobrze do przewidzenia są inne rodzaje broni wypuszczone przez zbójeckie państwa czy psychopatów.
„Przybądź i bądź, bez zarzutu
Tak dla Tutsi, jak dla Hutu”

– Spięty
Odpowiedz
#12
Oczywiście masz rację, że antropomorfizacja (lub bardziej biomorfizacja) jest wątpliwa, bo to inna technologia i etos.
Wiele z problemów, które swego czasu definiowano jako sprawdzian dla AI zostało z powodzeniem rozwiązanych za pomocą metody 'par force' (np. gra w szachy czy ostatnio w GO).
Dlatego przy takich supereksperckich systemach nie ma zagrożenia, bo zawsze na końcu jest jakiś Homo S. z wyłącznikiem.

Ogólnie nie wierzę w powstanie prawdziwej AI na wzór bioniczny. Wystarczy zgłębić skomplikowanie jednego neuronu i wszystkich neuroprzekaźników, które uczestniczą w generowaniu impulsów nerwowych.
A nas Łódź urzekła szara - łódzki kurz i dym.
Odpowiedz
#13
Sofeicz napisał(a): Ogólnie nie wierzę w powstanie prawdziwej AI na wzór bioniczny. Wystarczy zgłębić skomplikowanie jednego neuronu i wszystkich neuroprzekaźników, które uczestniczą w generowaniu impulsów nerwowych.

Może będzie tak, że zanim "uinteligentni" się maszyny, to prawdziwa, biologiczna inteligencja się "umaszynowi". Nadanie inteligencji maszynom w sumie w ostateczności da ten sam wynik co kompletne "zcyborgizowanie" człowieka.

No chyba że inżynieria genetyczna będzie dawała lepsze efekty niż cyborgizacja.
Odpowiedz
#14
lumberjack napisał(a): Może będzie tak, że zanim "uinteligentni" się maszyny, to prawdziwa, biologiczna inteligencja się "umaszynowi". Nadanie inteligencji maszynom w sumie w ostateczności da ten sam wynik co kompletne "zcyborgizowanie" człowieka.

No chyba że inżynieria genetyczna będzie dawała lepsze efekty niż cyborgizacja.

Nie da tego samego wyniku. Cyborg to nie android. Jeżeli zostaje zachowana ciągłość świadomości to cyborg w jakimś tam zakresie zawsze pozostanie człowiekiem. Natomiast Android, robot czy cokolwiek w ten deseń operuje na OSie mechanicznym. Czyli co włożysz to będzie.
Sebastian Flak
Odpowiedz
#15
Sofeicz napisał(a): Wiele z problemów, które swego czasu definiowano jako sprawdzian dla AI zostało z powodzeniem rozwiązanych za pomocą metody 'par force' (np. gra w szachy czy ostatnio w GO).
No nie. To co robi AlphaGo zupełnie nie ma niczego wspólnego z „brutalną siłą”. W skrócie jego sposób działania wygląda tak:
  1. Mamy sieć neuronową, która na podstawie dużej liczby partii uczy się oceniać, jakie pozycje są dobre, a jakie złe. Ta sieć potrafi oszacować prawdopodobieństwo zwycięstwa z danej pozycji.
  2. Maszyna dla danej pozycji wybiera najbardziej prawdopodobne zagrania i wyłącznie te zagrania analizuje. Na tej podstawie wybiera najlepszy ruch (tzn. taki, który da po prawdopodobnych sekwencjach ruchów największe prawdopodobieństwo wygranej.
Problem Go właśnie na tym polegał, że tego się za cholerę nie da rozwiązać „brutalną siłą”, bo pamięć każdego komputera się zapcha po kilku ruchach.
Cytat:Dlatego przy takich supereksperckich systemach nie ma zagrożenia, bo zawsze na końcu jest jakiś Homo S. z wyłącznikiem.
Problem w tym, że jeśli system jest bardzo inteligentny, a jednocześnie ma odpowiednie uprawnienia, to może w końcu przechytrzyć tego Homo S., albo wymyślić sposób na ucięcie tego wyłącznika.
Cytat:Ogólnie nie wierzę w powstanie prawdziwej AI na wzór bioniczny.
Też dlatego właśnie należy raczej analizować to, jak wygląda AI i w jakim kierunku się rozwija, niż antropomorfizować.
„Przybądź i bądź, bez zarzutu
Tak dla Tutsi, jak dla Hutu”

– Spięty
Odpowiedz
#16
Cytat:zefciu
Sofeicz napisał(a): Wiele z problemów, które swego czasu definiowano jako sprawdzian dla AI zostało z powodzeniem rozwiązanych za pomocą metody 'par force' (np. gra w szachy czy ostatnio w GO).
No nie. To co robi AlphaGo zupełnie nie ma niczego wspólnego z „brutalną siłą”. W skrócie jego sposób działania wygląda tak:
  1. Mamy sieć neuronową, która na podstawie dużej liczby partii uczy się oceniać, jakie pozycje są dobre, a jakie złe. Ta sieć potrafi oszacować prawdopodobieństwo zwycięstwa z danej pozycji.
  2. Maszyna dla danej pozycji wybiera najbardziej prawdopodobne zagrania i wyłącznie te zagrania analizuje. Na tej podstawie wybiera najlepszy ruch (tzn. taki, który da po prawdopodobnych sekwencjach ruchów największe prawdopodobieństwo wygranej.
Problem Go właśnie na tym polegał, że tego się za cholerę nie da rozwiązać „brutalną siłą”, bo pamięć każdego komputera się zapcha po kilku ruchach.

Problem w tym, jak zdefiniujemy 'brutalną siłę' w porównaniu do ludzkiego umysłu, który dysponuje bardzo małą pamięcią podręczną.

Cytat:
Cytat:Ogólnie nie wierzę w powstanie prawdziwej AI na wzór bioniczny.
Też dlatego właśnie należy raczej analizować to, jak wygląda AI i w jakim kierunku się rozwija, niż antropomorfizować.

Problem w tym, że jedyną jaka jest i działa, to ta bioniczna.

Kiedyś zaczytywałem się w książce Tadeusiewicza o sieciach neuronowych.
https://docer.pl/doc/ncnv81
Do tej książki była dołączona dyskietka (to było bardzo dawno) z prostymi programami symulującymi działanie takich sieci.
Wtedy uświadomiłem sobie skalę wyzwań przed jakimi stoi ta dziedzina.
Zupełnie inna filozofia i architektura.
A nas Łódź urzekła szara - łódzki kurz i dym.
Odpowiedz
#17
Sofeicz napisał(a): Problem w tym, jak zdefiniujemy 'brutalną siłę' w porównaniu do ludzkiego umysłu, który dysponuje bardzo małą pamięcią podręczną.
Ale wielkość AlphaGo nie bierze się z tego, że ma on jakąś wielką pamięć podręczną. Bierze się z tego, że wyposażony jest on w organicznie uczącą się sieć, która potrafi w czasie O(1) ocenić dowolną pozycję na desce. Siła białkowych graczy w Go też nie bierze się z tego, że analizują oni miliony wariantów, ale z umiejętności szybkiego rozpoznawania: dobry kształt/zły kształt, martwa grupa/żywa grupa, bezpieczny teren/materiał do inwazji. Działanie AlphaGo różni się tutaj tym, że o ile ludzie analizują poszczególne obszary na desce, to dla AI deska jest poddana ocenie „jako całość”.
Cytat:Problem w tym, że jedyną jaka jest i działa, to ta bioniczna.
Pytanie, co musi zrobić AI, abyś uznał, że „działa”.
„Przybądź i bądź, bez zarzutu
Tak dla Tutsi, jak dla Hutu”

– Spięty
Odpowiedz
#18
Gawain napisał(a): http://forsal.pl/lifestyle/technologie/a...ieton.html

Ten krótki felieton zainspirował mnie do zadania pytania o rozwój sztucznej inteligencji. Jak ona się potoczy, jakie będzie miała skutki? Przecież eksperyment myślowy z artykułu to tylko w nowe szatki przebrana opowieść o golemie. Czy to się musi tak skończyć?

Problem zbliżony do tego, że SI będzie stopniowo wypierać człowieka z rynku pracy, poprzez robotyzację i automatyzację procesów w przedsiębiorstwie. Czyli optymalizacja kosztów pracy będzie zwiększać bezrobocie, jednocześnie generując coraz więcej produktów, na które coraz mniej ludzi będzie mogło sobie pozwolić. Ano z racji bezrobocia.
 


Rozwiązaniem tego problemu może być..celowa depopulacja rodzaju ludzkiego do niezbędnego minimum, chociaż uważam ten scenariusz za mało prawdopodobny. Raczej byłbym skłonny twierdzić, że najbogatsi ludzie zdecydują sie na utworzenie funduszu solidarnościowego. W końcu miliardom ludzi trzeba zapewnić dach nad głową, wyżywienie i jakąś rozrywkę. A może fizyczna likwidacja pieniędzy? W "Powrocie z gwiazd" Lema tak właśnie było. Świat z przyszłości nie miał wojen ani biedy ani cienia agresji, a ludzie pozbawieni byli woli walki i chęci podjęcia ryzyka. Takie społeczeństwo "mli-mli". Większość czasu społeczeństwo spędza w rzeczywistości wirtualnej.
"Podwładny powinien przed obliczem przełożonego mieć wygląd lichy i durnowaty tak, by swoim pojmowaniem istoty sprawy nie peszyć przełożonego" - ukaz cara Rosji Piotra I z 9 grudnia 1708 roku
 "Cudów nie ma" - Józef Stalin
Odpowiedz
#19
Wron NIEmiecki napisał(a): Rozwiązaniem tego problemu
Chromolę takie rozwiązania.
Cytat:może być..celowa depopulacja rodzaju ludzkiego do niezbędnego minimum
Nie istnieje żadne niezbędne minimum rodzaju ludzkiego przecież. Bo niby na jakiej podstawie to minimum wyznaczasz?
Cytat:Raczej byłbym skłonny twierdzić, że najbogatsi ludzie zdecydują sie na utworzenie funduszu solidarnościowego.
Czyli dla każdego, kto nie jest w stanie w zautomatyzowanej utopii znaleźć zawodu – dochód gwarantowany. To jest realna perspektywa i mamy jej przejawy już teraz.
Cytat:A może fizyczna likwidacja pieniędzy?
Likwidacja jakiegokolwiek pieniądza jest możliwa tylko wtedy, gdy nie będzie żadnych dóbr rzadkich – nawet energii będziemy mieli tyle, że jak będziesz chciał samochód, to pobierzesz darmową energię z publicznej sieci i zsyntetyzujesz sobie samochód z powietrza. Do takiej sytuacji trochę jeszcze nam zostało. Społeczeństwo, które może sobie pozwolić na zapewnienie sensownego poziomu życia za darmo jest jednak znacznie bliżej.
Cytat: W "Powrocie z gwiazd" Lema tak właśnie było. Świat z przyszłości nie miał wojen ani biedy ani cienia agresji, a ludzie pozbawieni byli woli walki i chęci podjęcia ryzyka. Takie społeczeństwo "mli-mli". Większość czasu społeczeństwo spędza w rzeczywistości wirtualnej.
Scenariusz, w którym wszyscy członkowie społeczeństwa będą „mli-mli” jest nierealny. Ludzie pragną walki, ryzyka, odkrywania i tworzenia. Zatem zawsze będzie jakaś grupa, która będzie „boldly going where no one has gone before”.

Ale proponowałbym nie uciekać w offtop. Bo wątek o społeczeństwie postrzadkościowym już gdzieś chyba był. Tutaj mówimy raczej o bezpieczeństwie AI – czyli o niebezpieczeństwach wynikających z tego, że AI może mieć nie do końca zbieżne z naszymi cele.
„Przybądź i bądź, bez zarzutu
Tak dla Tutsi, jak dla Hutu”

– Spięty
Odpowiedz
#20
zefciu napisał(a): Nie istnieje żadne niezbędne minimum rodzaju ludzkiego przecież. Bo niby na jakiej podstawie to minimum wyznaczasz?

Rzuciłem to "na rybkę" jako jedną z metod redukcji kosztów - w co osobiście nie wierzę. Poziom zaawansowania robotyki, komputeryzacji nie pozwala jeszcze na całkowite wyrugowanie człowieka z rynku pracy. Ponadto zapotrzebowanie na człowieka wynika, choćby z racji istnienia równowagi miedzy płacą a zatrudnieniem (przeliczalnym na liczbę roboczogodzin). Koniec końców mówi sie nie o ludziach, lecz o zasobach ludzkich...

zefciu napisał(a): Likwidacja jakiegokolwiek pieniądza jest możliwa tylko wtedy, gdy nie będzie żadnych dóbr rzadkich – nawet energii będziemy mieli tyle, że jak będziesz chciał samochód, to pobierzesz darmową energię z publicznej sieci i zsyntetyzujesz sobie samochód z powietrza. Do takiej sytuacji trochę jeszcze nam zostało. Społeczeństwo, które może sobie pozwolić na zapewnienie sensownego poziomu życia za darmo jest jednak znacznie bliżej.

Świat bez pieniędzy byłby teoretycznie możliwy. Problem jednak w tym, że kto kontroluje pieniądz, ten ma faktyczną władzę. Czy człowiek zrezygnuje z pierwotnego instynktu zdobywania i kontrolowania zasobów, w tym innych ludzi? Wątpię.

zefciu napisał(a): Scenariusz, w którym wszyscy członkowie społeczeństwa będą „mli-mli” jest nierealny. Ludzie pragną walki, ryzyka, odkrywania i tworzenia. Zatem zawsze będzie jakaś grupa, która będzie „boldly going where no one has gone before”.

Ale będzie dominujący i ostatecznie zadecyduje o przyszłości całej ludzkości.

zefciu napisał(a): Ale proponowałbym nie uciekać w offtop. Bo wątek o społeczeństwie postrzadkościowym już gdzieś chyba był. Tutaj mówimy raczej o bezpieczeństwie AI – czyli o niebezpieczeństwach wynikających z tego, że AI może mieć nie do końca zbieżne z naszymi cele.

Na razie zagrożeniem jest człowiek. AI zacznę sie bać wtedy, kiedy będzie mogła tworzyć i dowodzić twierdzenia matematyczne. Do tego czasu będzie wyłącznie narzędziem w rękach człowieka.
"Podwładny powinien przed obliczem przełożonego mieć wygląd lichy i durnowaty tak, by swoim pojmowaniem istoty sprawy nie peszyć przełożonego" - ukaz cara Rosji Piotra I z 9 grudnia 1708 roku
 "Cudów nie ma" - Józef Stalin
Odpowiedz


Skocz do:


Użytkownicy przeglądający ten wątek: 1 gości