Skocz do zawartości


Zdjęcie

Grozi nam bunt maszyn?


  • Zaloguj się, aby dodać odpowiedź
38 odpowiedzi w tym temacie

#31

Avenarius.
  • Postów: 894
  • Tematów: 12
  • Płeć:Mężczyzna
Reputacja znakomita
Reputacja

Napisano

No to niech by było jak mówisz ale dalej nie ma przejścia od inteligencji do samowli. Co z tego ze komputer będzie mógł się uczyć i samodzielnie tworzyć rozwiązania problemów nieprzewidzianych w programie, skoro swoje motywacje bedzie miał określone odgórnie przez programistę ? Juz o tym pisałem tutaj :

Inteligentne maszyny też będą działały według programu, tylko że dzieki inteligencji będą mogły kreatywnie optymalizować własną wydajność, dostoswując swoje działania do konkretnych warunków w których będą funkcjonowały. Ale z tego nie wynika że pewnego dnia wpadną na pomysł że zamiast zapieprzać w kopalni lepiej jest pozbaijać ludzi, rozumiesz ? Owszem istnieje teoretyczne ryzyko że konsekwentnie dażąc do realizacji powierzonych zadań w ramach zadanych parametrów zaczną działać w sposób nieporządany (np robot sprzątający któremu nakazano "dokładnie wyczyścić cały dom" zostawi tylko gołe ściany), tudzież zadziałają w takiż sposób na skutek uszkodzeń mechanicznych lub "bugów" oprogramowania, ale w praktyce ryzyko szkodliwych skutków ubocznych występuje w przypadku każdej nowej technologii, dlatego przed ich wprowadzeniem do użytku przeprowadza się odpowiednie badania i testy. A skoro na razie nie wysadziliśmy naszej planety, to nie widze powodu aby przejmować się akurat inteligentnymi maszynami bardziej niż np nowym ulepszaczem smaku który "teoretycznie" może wywołać plagę zmobie.


Na co odpisałeś :

Czy optymalny świat dla maszyn to ten z ludźmi czy bez? Po co inteligentnym maszynom ludzie?


Sęk w tym że to co optymalne będzie włąśnie określone przez program determinujący rolę pełnioną przez daną inteligentną maszynę. Innynmi słowy, poprawnie działająca maszyna po prostu nie będzie "chciała" się zbuntować tak jak ludzie nie chcą z reguły pozabijać wszystkich na około. Co prawda tak jak zdarzają się psychopatyczni zbrodniarze, tak i teoretycznie mogą wystąpić przypadki maszyn funkcjonujących w niepożądany sposób, ale eliminacja tego ryzyka jest po prostu kwestią odpowiedniego zbadania, przetestowania i wdrożenia technologii AI, dokładnei tak samo jak w przypadku setek innych technologii, które przeciez dopóki nie zostana odpowiednio poznane również hipotetycznie moga stanowić niebezpieczeństwo.
  • 0

#32

Mαciej.
  • Postów: 48
  • Tematów: 5
Reputacja neutralna
Reputacja

Napisano

I tu sie mylisz. Gdybysmy zyli 1000 lat temu nikt nie mialby oporow zeby Cie zabic bo go zdenerwowales. Obecne wychowanie, kultura, wartosci zabraniaja nam tego w obecnych czasach. Komputer bedzie robil wszystko aby sie rozwijac i bedzie kalkulowal czy jestesmy mu potrzebni czy nie i w jakim celu. Nie definiuj ai jak drugiego czlowieka raczej jak gatunek. A gatunki maja to do tego ze chca zlikwidowac inne.
  • 0

#33

Avenarius.
  • Postów: 894
  • Tematów: 12
  • Płeć:Mężczyzna
Reputacja znakomita
Reputacja

Napisano

Bredzisz, nawet w roku 1012 społeczeństwa kierowały się prawami które zakazywały mordowania współplemieńców i akceptowanych przybyszów bez powodu. Potępienie kradzieży, morderstwa, gwałtu to nie są jakieś kaprysy europejskiej cywilizacji, tylko podstawowe zasady którymi musi sie kierować społeczność aby mogła wogóle przetrwać. Jesli chodzi o to jak będzie kalkulowal komputer, to już pisałem skąd będzie czerpał pryncypia swoich rozumowań, ale widzę że zwolennincy apokalipsy maszyn mają już wyrobioną opinię i wszelka próba argumentacji przeciw niej jest rzucaniem grochem o ścianę.
  • 0

#34

Alembik_Vina.
  • Postów: 1030
  • Tematów: 16
  • Płeć:Mężczyzna
Reputacja bardzo dobra
Reputacja

Napisano

Wydaje mi się, że główną przeszkodą dla rozwoju sztucznej inteligencji, jest zamknięcie mocy obliczeniowej w liczbach naturalnych. Gdyby skonstruować komputer, który myśli jak gdyby fraktalnie ;) szansę na to zdecydowanie by wzrosły. Świat bowiem nie składa się z liczb, ale z form geometrycznych, gdyby moc obliczeniowa komputerów zamiast na liczbach opierała się na geometrii mógłby zacząć rozumieć świat a nie tylko go obliczać. No bo bez obrazy, ale gdy karaluch chce odgryźć głowę koledze nie wykonuje równań matematycznych ale myśli automatycznie, bo jest dostosowany do świata w jakim żyje. Liczbami naturalnymi posługują się dopiero bardziej złożone organizmy i są one pojęciem abstrakcyjnym, zupełnie jak język.
  • 0

#35

Daniel..
  • Postów: 4137
  • Tematów: 51
  • Płeć:Mężczyzna
Reputacja znakomita
Reputacja

Napisano


  • 0



#36

Mαciej.
  • Postów: 48
  • Tematów: 5
Reputacja neutralna
Reputacja

Napisano

Rozmowa s Tobą tez nie będzie miała sensu bo swojego zdania nie zmienisz. Sam przyznales że będą zdarzały się dewiacje. Jeżeli myślisz że stworzenie idealnego ai ograniczy się do pięknego kodu programu to się mylisz. Nie możemy zakładać że ai po dotarciu do założeniazabić stworce zapętli się i wróci do początku albo zawsze ominie ta opcję bo tak będzie zaprogramowany. Tak pprymitywny programowaniem nie stworzymy ai. Skoro stworzymy ai do np obrony kraju które podejmie szybką decyzję o ataku na wroga to jeżeli stwierdzi że jego wrogiem jest kraj którego broni to do czynienia będziemy mieli bądź co bądź z buntem maszyny.
  • 0

#37

Avenarius.
  • Postów: 894
  • Tematów: 12
  • Płeć:Mężczyzna
Reputacja znakomita
Reputacja

Napisano

Zmieniłbym zdanie gdyby zwolennicy buntu AI potrafili logicznie wytłumaczć jakim sposobem ludzie dopuściliby do tego żeby AI wymknęło się im spod kontroli. Ale najwidoczniej oni mają takie wyobrażenie że uczeni zaraz po skonstruowaniu pierwszej AI podłączą ją do sterowania rakietami atomowymi, a potem jeszcze skopiują w postaci kilkuset tysięcy robotów uzbrojonych w lasery. W rzeczywistości AI w przypadku którego istnieje najmniejsze ryzyko działań autodestrukcyjnych nikt nie dopuści do sterowania bronią. Nawet obecnie odpalenie rakiet z głowicami nuklearnymi nie zależy od jednego człowieka, więc oparcie zarządzania całością taktycznej broni rakietowej na pojedyńczym komputerze jest wykluczone i to nie dlatego że maszyna mogłaby zacząć wojnę ze swoimi mocodawcami, ale po prostu dlatego że taki system byłby zbyt wrażliwy na calkowite obezwładnienie przez awarię pojedyńczego ośrodka decyzyjnego. W najlepszym razie można się spodziewać że każda rakieta będzie miała własny "rozum" po to by skuteczniej wymykać się wrażej obronie, a sztaby wszystkich szczebli sztuczne inteligencje opracowujące optymalne strategie.
  • 0

#38

stupidkid.
  • Postów: 146
  • Tematów: 1
  • Płeć:Kobieta
Reputacja ponadprzeciętna
Reputacja

Napisano

A propos sztucznej inteligencji... No, chyba jesteśmy blisko tych 'najczarniejszych' i najbardziej spiskowych wizji, wspomnianych wyżej. Przynajmniej to wynika z TEGO artykułu.
Nawet jeśli teraz sobie tego nie wyobrażamy - pewnie się spełni. Te 400, czy 500 lat temu nikt nie wyobrażał sobie tak skomputeryzowanego świata, jak mamy dziś. Jeśli chodzi o mnie - paranoja. Tak, paranoja, że chore wizje naukowców, które często są troszkę na bakier z moralnością czy humanizmem, spełniają się, bo jest na to przyzwolenie ze strony pewnych chciwych ludzi mających pewne, ee, 'możliwości'.

Użytkownik stupidkid edytował ten post 26.12.2012 - 17:03

  • 0

#39

sebastian578.
  • Postów: 35
  • Tematów: 10
  • Płeć:Mężczyzna
Reputacja neutralna
Reputacja

Napisano

Przypomniało mi sę teraz, Nostradamus pisał że V Antychrystem bedzie maszyna stworzona przez człowieka (I i II antychryst już był, trzecim ma być "Jednooki Mahdi" który wywoła 3 Wojnę Światową, a IV Antychrystem ma być "Zawistny Szkot" żyjący w połowie XXII wieku, ale to tak na marginesie).
  • 0


 

Użytkownicy przeglądający ten temat: 1

0 użytkowników, 1 gości oraz 0 użytkowników anonimowych