Skocz do zawartości


Zdjęcie

Etyka maszyny - bójcie się ludzie


  • Zaloguj się, aby dodać odpowiedź
28 odpowiedzi w tym temacie

#1

pishor.

    sceptyczny zwolennik

  • Postów: 4740
  • Tematów: 275
  • Płeć:Mężczyzna
  • Artykułów: 16
Reputacja znakomita
Reputacja

Napisano

*
Popularny

Samochód sam zadecyduje, kogo ocali, a kogo zrani

 

 

W samobieżnych samochodach o życiu i śmierci decyduje komputer. Czy jeśli zajdzie taka konieczność, poświęci on pasażerów? O zagrożeniach, jakie niesie ze sobą nowa maszynowa etyka.

 

 

etyka%20maszyny.jpg

 

 

Pewnego dnia może zdarzyć się coś podobnego: samobieżny samochód, sterowany przez komputer pędzi przez okolicę, kierowca siedzi sobie wygodnie, czytając gazetę. Nagle na drogę, po której obu stronach rosną drzewa, wyskakuje troje dzieci. W tym momencie komputer musi podjąć decyzję. Czy zrobi to, co jest słuszne? Od jego reakcji zależy życie czworga ludzi.

 

 

Najsensowniej będzie poświęcić kierowcę?

 

Maszyna może dojść do wniosku, że w tej sytuacji najsensowniej będzie poświęcić kierowcę. Skieruje więc pojazd na drzewo. Dlaczego miałaby postąpić inaczej? Czy byłoby lepiej, gdyby zginęła trójka dzieci?

 

Kiepska perspektywa dla naszego kierowcy. Wizjonerzy przekonujący o zaletach samobieżnych aut ułatwiają sobie sprawę, mówiąc jedynie o zaletach owego rozwiązania: człowiek przemieszcza się wygodnie i jest bezpieczny jak w pociągu. Stale jednak zdarzają się wypadki, których nie da się uniknąć: pojawiające się znienacka dzieciaki, zajeżdżający drogę motocykliści czy pojazd, który wpadł w poślizg na przeciwnym pasie. Co wtedy?

 

Zanim kierowca wyłoni się zza czytanej gazety i opanuje sytuację, może być już za późno. Maszyna musi sama ułożyć sobie scenariusz kolejnych wydarzeń i obliczyć, co należy zrobić. Miejmy nadzieję, że jest zaprogramowana tak, by starała się zminimalizować potencjalne szkody. To oznacza jednak, że musi przesądzić o losie uczestników zdarzenia.

 

Rozwój technologii postępuje zadziwiająco szybko, wkrótce mogą trafić na rynek samochody, które poradzą sobie w pełni bez ludzkiego kierowcy. Optymiści uważają, że na autostradach pojawią się one już w 2020 roku, a po kilku kolejnych latach ruch samobieżnych pojazdów obejmie całą sieć dróg.

Wielu producentów, od Daimlera po Teslę, pracuje nad takimi samochodami, a najbardziej spieszy się Google. Koncern ten odważa się również na najbardziej śmiałą prognozę. Chris Urmson, szef projektu, powiedział niedawno, że jego starszy syn mógłby za cztery lata zrobić prawo jazdy. "Chcemy, żeby już go wcale nie potrzebował" – stwierdził.

 

Komputer byłby z pewnością znacznie lepszym kierowcą niż człowiek – nigdy nie straci koncentracji, jest szybki w reakcjach i przez cały czas kontroluje w pełni sytuację na drodze. Jeśli przejmie stery, liczba wypadków na drogach może ulec znacznemu zmniejszeniu. Pojawią się za to inne – całkiem nowego rodzaju, bardzo niepokojące.

 

W przyszłości bowiem ofiary zostaną wybrane już wcześniej. Samochód sam zadecyduje, kogo ocali, a kogo zrani. W sytuacjach skrajnych będzie to oznaczało wybór między tym, kto ma żyć, a kto musi zginąć. Przy tym zwykłe, stare wypadki drogowe wydają się niemal błahostką.

 

Człowiek siedzący za kierownicą nie ma zwykle wielkiego wyboru – naciska pedał hamulca, skręca gwałtownie kierownicą, ociera się o pieszego, uderza w inne auto lub w drzewo. Niezależnie od tego, co zrobi, nikt nie będzie pociągał go do odpowiedzialności za odruchy w chwili grozy. Nawet gdy nieszczęsny kierowca przejedzie siedmiu przechodniów na światłach, żeby ominąć dziecko, które wybiegło mu przed maskę, większość uzna tę sprawę za przypadek losowy.

Nikt w obliczu wyższej konieczności nie podejmuje przemyślanych decyzji. Tu rządzi jedynie odwieczna panika istoty, która chce się za wszelką cenę ratować.

 

 

Komputer nie zna uczucia, ale czy może się mylić?

 

Zupełnie inaczej reaguje komputer. Nie zna uczucia przerażenia, zawsze zachowuje zimną krew i jest poczytalny. W jednej chwili analizuje sytuację, robiąc to tysiąc razy szybciej niż człowiek. W dodatku kieruje pojazdem naszpikowanym czujnikami i optycznymi miernikami odległości.

 

Kamery zapewniają widoczność ze wszystkich stron. Wkrótce maszyna, dzięki programowi rozpoznawania twarzy, będzie być może potrafiła ocenić również wiek i płeć uczestników zdarzenia.

To tak, jak gdyby kierowca w samym środku rozgrywającego się właśnie wypadku mógł zatrzymać film – zobaczyć dzieci na środku drogi, a jednocześnie pełen ludzi samochód, który z o wiele za dużą prędkością zbliża się do niego z tylu. I co zrobić teraz? Nacisnąć z całej siły pedał hamulca czy też nie?

 

Komputer ma taki wybór. Nawet gdy sytuacja wymaga ogromnego pośpiechu, jest w stanie wykalkulować, co się zdarzy, gdy wybierze poszczególne warianty reakcji. Potrafi reagować racjonalnie i nie może inaczej. Nie zacznie w panice hamować ani nie przejedzie trojga dzieci, jeśli będzie istniała lepsza opcja.

 

Pytanie tylko czy śmierć niewinnego kierowcy ma oznaczać to lepsze wyjście? Takie problemy narzuca nam przyszłość i na pomoc spieszą tu filozofowie. Z nieco sadystyczną pomysłowością obmyślają przyszłe scenariusze wypadków drogowych, jeden straszniejszy od drugiego. Za każdym razem zadanie brzmi: proszę wyliczyć najmniejszą możliwą szkodę.

 

Stosunkowo prosty jest wybór pomiędzy dwoma pieszymi. Dziecko wybiega na jezdnie, jadący samochód może ominąć je jedynie wjeżdżając na chodnik, na którym staruszka porusza się na wózku inwalidzkim. Ze statystycznego punktu widzenia dziecko ma przed sobą jeszcze wiele lat życia, stara kobieta ma znacznie mniej do stracenia. Czy aby zminimalizować szkody, kierowca może więc ją przejechać?

Sytuacja staje się bardziej przykra, gdy wkalkulować trzeba pośrednie straty w ludziach. Wyobraźmy sobie, że pędzą wprost na siebie dwa samochody, volvo i małe auto, które wykonywało ryzykowny manewr wyprzedzania. Zderzenie jest nieuniknione. Sterowany komputerowo mały pojazd może staranować volvo, które ma tak grubą blachę, że powstanie co najwyżej parę wgnieceń na karoserii. Albo tez maszyna roztrzaska mniejsze auto, ryzykując śmierć pasażerów.

 

Komputer, zaprogramowany na wybór najmniejszej szkody, powinien oszczędzić małe auto. Ale czy to słuszna decyzja? Właściciele volvo na pewno zgłosiliby zastrzeżenia. Kto chciałby mieć taki taran na kółkach, który w razie jakiegokolwiek wypadku na drodze z magiczną siłą przyciąga do siebie inne pojazdy?

W podanym przykładzie dochodzi jeszcze problem winy – w końcu to mały pojazd znajdował się na niewłaściwym pasie. Czy ma za to dostać nagrodę?

To są na razie jedynie gry myślowe, tak dla wprawienia się. Ale z pewnością dojdzie do wypadków, które będą przypominały opisane, i każdy z nich może wywołać wzburzenie.

 

Oczywiście to nie komputer w chwili grozy podejmuje decyzję. Jest tylko maszyną, potrzebuje jednoznacznych reguł, programu. To, w jaki sposób samobieżny pojazd ma zachować się w najróżniejszych możliwych scenariuszach wypadków, musi zostać wyjaśnione, zanim jeszcze zjedzie on z taśmy produkcyjnej.

Tym samym to, co nazywano niegdyś zrządzeniem losu, staje się problemem do przemyślenia. Społeczeństwo musi zastanowić się nad moralnym aspektem nowych pojazdów. Dobra wiadomość jest taka, że ma na to czas. Zła: że trudno wyobrazić tu sobie jakieś zadowalające rozwiązanie.

 

Przy każdej decyzji trzeba starannie rozważyć możliwe skutki. Czy należy pozwolić samochodowi, by z bezwzględnością maszyny bojowej troszczył się zawsze o przeżycie swoich pasażerów? Nawet jeśli miałoby przy tym zginąć troje dzieci? Alternatywa – samochód, który zabija swojego właściciela, gdy wydaje mu się to najlepszym wyjściem – też nie brzmi kusząco. Kto chciałby kupić takie auto? Maszyna, która decyduje o naszym życiu – coś takiego jest zbyt potworne. Do tego dochodzi jeszcze fakt, że nie istnieje elektronika pozbawiona błędów. Co będzie, gdy komputer się pomyli i uderzy w drzewo tylko dlatego, że na jezdnię wyskoczył królik?

 

 

Maszyny zaczną żyć swoim życiem?

 

Samochody, jakie znaliśmy dotychczas, były całkowicie w służbie człowieka, i na tym polegał ich urok. Już dawniej powstawały jednak dreszczowce o maszynach, które zaczynały żyć własnym życiem. Na przykład nakręcony na podstawie powieści grozy Stephena Kinga film pod tytułem "Christine", w którym czerwony jak krew 1958 plymouth fury jeździ po ulicach, polując na ofiary.

 

Jak na razie nie istnieje jeszcze taki gatunek maszyn, które mogłyby decydować o życiu i śmierci, choć być może zabójcze drony już wkrótce bez naziemnego pilota będą odnajdywać swój cel. Również samobieżne auto potrzebuje, podobnie jak dron, algorytmu do śledzenia osób, tyle że w ruchu ulicznym chodzi podobno o wyższy cel: zminimalizowanie szkód.

 

Czy istnieje jakieś wyjście z owego dylematu? Specjaliści zastanawiają się obecnie nad powierzeniem decyzji ślepemu przypadkowi. W skrajnych sytuacjach program sterujący losowałby, czy potrącone ma zostać dziecko, czy starsza kobieta na chodniku. Lecz taka loteria ofiar wydaje się tym bardziej rzeczą nieludzką. Poza tym po co w takim razie komputer za kierownicą, skoro koniec końców reakcja ma być tak samo nieprzemyślana, jak w przypadku tej podejmowanej przez człowieka?

Pozostaje więc ograniczyć kłopotliwą autonomię pojazdu. Wówczas kierowca miałby obowiązek być przez cały czas gotowy do działania. Lecz nawet wtedy maszyna musiałaby zostać wyposażona w odpowiedni program na wypadek, gdyby człowiek zawiódł lub nie dość szybko zorientował się w sytuacji. Jeśli może działać, powinna to robić.

 

Samodzielne auto, i na to nic chyba nie da się poradzić, stale jest w akcji, zwłaszcza w momencie tuż przed wypadkiem. Jaki byłby jego najłagodniejszy przebieg? Komputer wylicza cenę każdej straty osobowej. Czy życie dziecka jest warte więcej niż dorosłego? A jeśli chodzi o dwoje dorosłych ludzi? A o pięciu? Jak zmierzyć współczynnik winy? Czy dzieci znajdujące się w samochodzie powinny zostać uznane za niewinne, nawet jeśli kierowca przejechał przez skrzyżowanie na czerwonym świetle? To wszystko musi zostać określone w komputerowym oprogramowaniu. Programiści nazywają to funkcją kosztów. Są to równania, w których można dokonać bilansu przeciwstawnych interesów. Na koniec komputer samochodowy wybiera rozwiązanie z minimalną sumą strat, jednym słowem – wypadek optymalny.

 

 

Ale czy szczęście i ból da się w ogóle wyliczyć?

 

Filozofowie zastanawiają się nad tym już od bardzo dawna. Angielski reformator Jeremy Bentham pod koniec XVIII wieku wynalazł nawet w tym celu specjalną formułę. Jego algorytm określał w przypadku każdego działania, ile niesie ono ze sobą zadowolenia lub bólu. Liczyło się wszystko: intensywność, czas trwania, liczba uczestników.

 

Bentham zapoczątkował szkołę utylitarystów. Jej zwolennicy twierdzą, że dobre jest to, co przynosi największą korzyść (po angielsku ”utility”), i to w przeliczeniu na wszystkich uczestników. Prawa człowieka uważał za ”nonsens na szczudłach”. Wyśmiałby zapewne współczesną konstytucję, taką jak niemiecka, która zabrania zabijania i torturowania ludzi, nawet jeśli miałoby to ocalić wiele innych istnień. Bentham marzył o społeczeństwie wytwarzającym według ściśle naukowych reguł maksymalną ilość dobra powszechnego, beznamiętnie jak maszyna, i jeśli to konieczne, bez oglądania się na jednostkę.

 

Kalkulacje Benthama przez długi czas uważano za błazeństwo, w dodatku zupełnie niemożliwe do zastosowania w praktyce. Ale teraz ten dawny utylitarysta staje się znowu interesujący dla zwolenników samobieżnych aut. Czy przykry problem decyzyjny związany z nowymi pojazdami dałoby się rozwiązać za pomocą zasad tego filozofa?

 

Nie dokona się tego oczywiście przez prosty bilans strat osobowych. Samochody, które działałyby jedynie na tej zasadzie, stanowiłyby nieustanne zagrożenie dla ogółu. W każdej chwili mogłyby przejechać Bogu ducha winną staruszkę na chodniku, by wyminąć dziecko, które nagle pojawi się na jezdni. To tak, jakby pacjent w szpitalu bał się, że lekarze złapią go i wypatroszą, by dzięki jego narządom uratować pięciu śmiertelnie chorych osób.

 

Filozofowie szukają już rozwiązania. Założenie brzmi: każda kalkulacja kosztów musi mieścić się w odpowiednich ramach, nie wszystkie ofiary są równorzędne. Uczestnicy ruchu drogowego słusznie spodziewają się od pozostałych zachowania zgodnego z obowiązującymi zasadami. Każdy wie, że na jezdni trzeba być uważnym, na chodniku natomiast zwykle nie pędzą pojazdy i tutaj pieszy może spacerować bez obaw. Każdy pojazd musi szanować tę chroniona strefę, nawet jeśli miałoby to kosztować życie dziecka. Zgodnie z ta zasadą Bogu ducha winni przechodnie mają większe prawa.

 

Niezależnie od tego, jak wytworzą się nowe zasady, muszą być one sformułowane w sposób matematyczny, w liczbach i równaniach, by komputer mógł je zrozumieć. Taka jest cena. Im bardziej samodzielne stają się maszyny, tym bardziej mechaniczna musi być moralność.

 

Nie da się uniknąć szerokiej debaty nad owymi problemami. Całkiem możliwe, że w jej trakcie marzenie o samobieżnych samochodach skończy się, zanim się jeszcze urzeczywistni – ponieważ w takim świecie nikt nie będzie chciał żyć.

Wówczas postęp zostanie zatrzymany i człowiek nadal pozostanie za kierownicą swojego pojazdu. Lecz i to nie byłoby niewinną decyzją. Przyczyną blisko 90 procent wypadków drogowych jest błąd ludzki. Co roku na drogach całego świata ginie ponad milion ludzi i dopóki sterów nie będzie mógł przejąć komputer, niewiele się tu zmieni. Czy więc warto?

 

źródło

 

 


  • 7



#2

Staniq.

    In principio erat Verbum.

  • Postów: 6632
  • Tematów: 766
  • Płeć:Mężczyzna
  • Artykułów: 28
Reputacja znakomita
Reputacja

Napisano

Isaac Asimov stworzy kiedyś prawo robotów, które składało się z trzech przykazań:

*Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
*Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.
*Robot musi chronić sam siebie, jeśli tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.

W opowiadaniu Roboty i Imperium (Robots and Empire) Asimov dodał prawo zerowe, które stało się nadrzędne wobec trzech pozostałych:

*Robot nie może skrzywdzić ludzkości, lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.

 

O tym, że etykę maszyn kształtuje człowiek, niech świadczy fakt, że stworzono również inne "prawa robotów", bo za takie trzeba przyjąć wszystkie maszyny, które posiadają możliwość samodzielnego działania i podejmowania decyzji.

 

Aby pogodzić racje etyczno-filozoficzne z interesami biznesmenów, David Langford, brytyjski autor science-fiction, stworzył trzy nowe prawa robotów:

*Robot nie może działać na szkodę Rządu, któremu służy, ale zlikwiduje wszystkich jego przeciwników
*Robot będzie przestrzegać rozkazów wydanych przez dowódców, z wyjątkiem przypadków, w których będzie to sprzeczne z trzecim prawem
*Robot będzie chronił własną egzystencję przy pomocy broni lekkiej, ponieważ robot jest „cholernie drogi”.
Wprawdzie był to żart, lecz wielu naukowców potraktowało aspekt nowych praw bardzo poważnie.

 

W opozycji do tych wszystkich założeń zajmujący się robotyką Mark Tilden stworzył trzy kolejne prawa:

*Robot musi chronić swoja egzystencję za wszelką cenę.
*Robot musi otrzymywać i utrzymywać dostęp do źródeł energii.
*Robot musi nieprzerwanie poszukiwać coraz lepszych źródeł energii.

W powyższym, egzystencja ludzka znajduje się na szarym końcu... w ogóle się nie znajduje.

 

Wymagania niezbędne do tego, aby przyjazna sztuczna inteligencja była efektywna i aby ludzkość była chroniona przed niezamierzonymi konsekwencjami jej działań, są następujące:

*Życzliwość – Sztuczna Inteligencja (SI) musi być przychylna człowiekowi oraz wszystkim istotom żywym i dokonywać wyborów, które będą w interesie wszystkich.
*Utrzymywanie (konserwowanie) życzliwości – SI musi chcieć przekazać swój system wartości wszystkim swoim potomkom i wpajać owe wartości istotom do siebie podobnym.
*Inteligencja – SI musi być na tyle sprytna, aby widzieć, jak można dążyć do równości poprzez zachowania altruistyczne i starać się robić wszystko, aby mieć pewność, że rezultatem podjętych działań nie będzie zwiększenie cierpienia.
*Samodoskonalenie – SI musi odczuwać potrzebę i chęć ciągłego rozwijania zarówno siebie jak i rozumieć chęć takiego rozwijania u istot żywych, które ją otaczają.

 

Podkreśla się też, że zwolennicy teorii życzliwej sztucznej inteligencji definiują życzliwość w taki sposób że sztuczna inteligencja będzie w stanie zrozumieć to pojęcie dopiero, gdy stanie się samoświadoma. Nie podają przy tym zasad i kryteriów moralnych, jakimi powinna się ona kierować do czasu, aż to nastąpi.

 

Wymieszałem sztuczną inteligencję z maszynami, ale jedno bez drugiego jest nic nie warte.

Chyba.





#3

Urgon.
  • Postów: 1297
  • Tematów: 9
  • Płeć:Mężczyzna
  • Artykułów: 3
Reputacja znakomita
Reputacja

Napisano

*
Popularny

AVE...

W przypadku autonomicznych samochodów nie mamy do czynienia ze sztuczną inteligencją, tylko z systemem eksperckim zaprogramowanym do specyficznej funkcji. Mówienie o etyce takiego systemu jest równie sensowne co mówienie o etyce windy. Pierwszy człowiek zabity przez robota zginął, bo znalazł się w strefie ruchu tej maszyny. Ruchu zaprogramowanego przez człowieka do wykonania konkretnego zadania. Maszyna zabiła człowieka bez zastanawiania się nad moralnością czy etyką. W przypadku autonomicznego samochodu będzie tak samo. To, jaką decyzję podejmie system sterowania autem zależy od tego, jak go zaprogramuje człowiek.

W przykładowym scenariuszu z dziećmi na drodze autonomiczny samochód nie wjedzie w drzewo, tylko dzieci ominie. Wykryje je z większym wyprzedzeniem, niż człowiek, wcześniej zwolni, błyskawicznie obliczy możliwe trasy ucieczki i te dzieci zwyczajnie objedzie. Prędzej człowiek by te dzieci potrącił lub rozbił samochód, bo reaguje wolniej od maszyny. Taki scenariusz był omawiany na HackaDay. I wnioski są dość jednoznaczne: badacze to idioci, bo tworzą zero-jedynkowy scenariusz, który nie zdarzy się w rzeczywistości. Ponadto jeśli nawet autonomiczny samochód musiałby uderzyć w przeszkodę by nie uderzyć w pieszego, to dzięki systemom bezpieczeństwa i konstrukcji pasażerom raczej nic nie zagrozi...
  • 10



#4

Sortrek.
  • Postów: 12
  • Tematów: 2
  • Płeć:Mężczyzna
Reputacja neutralna
Reputacja

Napisano

Gdyby rzeczywiście doszło do sytuacji, w ktorej będziemy poruszać się samochodami jeżdżącymi samodzielnie, to dochodzi kolejny problem. Mianowicie zabezpieczenia systemu pojazdu przed ewentualnym hackowaniem. Znając Google, zapewne będą chcieli dać samochodom możliwość łączenia się z siecią, co otwiera drzwi na szereg wielu niebezpieczeństw. Ja osobiście bałbym się powierzyć własne życie maszynie, która mogłaby być łatwo przejęta z drugiego końca świata. Miejmy nadzieję, że ich systemy podołają tak ważnej roli.

Wysłane z mojego GT-I9515 przy użyciu Tapatalka
  • 1

#5

Staniq.

    In principio erat Verbum.

  • Postów: 6632
  • Tematów: 766
  • Płeć:Mężczyzna
  • Artykułów: 28
Reputacja znakomita
Reputacja

Napisano

... Mówienie o etyce takiego systemu jest równie sensowne co mówienie o etyce windy. Pierwszy człowiek zabity przez robota zginął, bo znalazł się w strefie ruchu tej maszyny. Ruchu zaprogramowanego przez człowieka do wykonania konkretnego zadania. Maszyna zabiła człowieka bez zastanawiania się nad moralnością czy etyką. W przypadku autonomicznego samochodu będzie tak samo. To, jaką decyzję podejmie system sterowania autem zależy od tego, jak go zaprogramuje człowiek.

Masz całkowitą rację, ale ja wspomniałem o tym, że jakiekolwiek wymagania stawiane maszynom, a nie ich twórcom, będą miały sens tylko i wyłącznie wtedy, kiedy maszyny posiądą samoświadomość. 

Na razie, zabijać będzie dalej człowiek, jeżeli stworzy błędne oprogramowanie.





#6

Urgon.
  • Postów: 1297
  • Tematów: 9
  • Płeć:Mężczyzna
  • Artykułów: 3
Reputacja znakomita
Reputacja

Napisano

AVE...

@Sortrek
Samochody autonomiczne będą musiały przestrzegać dość restrykcyjnych norm bezpieczeństwa informatycznego. Tak, jak systemy SCADA stosowane w przemyśle. To wszystko to kwestia implementacji. Kilka dni temu czytałem wypowiedź użytkownika pracującego w szpitalu, gdzie zastosowano "inteligentne" zarządzanie energią. Zaimplementowała to firma pełna olewających bezpieczeństwo idiotów i teraz każdy z odpowiednią, dostępną za darmo aplikacją dla iOS/Android może zdalnie zgasić dowolne światła, łącznie z oświetleniem sal operacyjnych. Wszystko przez Wi-Fi lub Bluetooth...

Tu taki przykład autopilota Tesli:

  • 0



#7

Sortrek.
  • Postów: 12
  • Tematów: 2
  • Płeć:Mężczyzna
Reputacja neutralna
Reputacja

Napisano

AVE...

@Sortrek
Samochody autonomiczne będą musiały przestrzegać dość restrykcyjnych norm bezpieczeństwa informatycznego. Tak, jak systemy SCADA stosowane w przemyśle. To wszystko to kwestia implementacji. Kilka dni temu czytałem wypowiedź użytkownika pracującego w szpitalu, gdzie zastosowano "inteligentne" zarządzanie energią. Zaimplementowała to firma pełna olewających bezpieczeństwo idiotów i teraz każdy z odpowiednią, dostępną za darmo aplikacją dla iOS/Android może zdalnie zgasić dowolne światła, łącznie z oświetleniem sal operacyjnych. Wszystko przez Wi-Fi lub Bluetooth...

Tu taki przykład autopilota Tesli:

Aż się przypomina wyłączanie telewizorów na szczycie Pałacu Kultury za pomocą właśnie telefonu z Androidem. Postęp technologiczny idzie na równi z zagrożeniami z nim związanymi.

Wysłane z mojego GT-I9515 przy użyciu Tapatalka
  • 0

#8 Gość_.Uzurpator.

Gość_.Uzurpator..
  • Tematów: 0

Napisano

Zacznijmy od tego, że producenci samochodów nie potrafią w 100% zagwarantować bezpieczeństwa naszego samochodu w przypadku pozostawienia go na parkingu.

 

https://niebezpieczn...e-do-kradziezy/

https://niebezpieczn...szt-20-dolarow/

 

W dodatku agencje rządowe będą od producentów miały backdoor. Czyli prawdopodobnie policja będzie mogła zdalnie wyłączyć nasz samochód. Inaczej może dojść do sytuacji, że samochód-bomba pojedzie do celu i wybuchnie. Bo czemu nie.

 

A teraz najbardziej co mnie rozbawiło:

 

Kamery zapewniają widoczność ze wszystkich stron. Wkrótce maszyna, dzięki programowi rozpoznawania twarzy, będzie być może potrafiła ocenić również wiek i płeć uczestników zdarzenia.

 

Czyli rozumiejąc autora - dziadek może umrzeć bo maszyna wyliczy opłacalność względem koniecznych ofiar zdarzenia. A jeżeli dzieci to komputer mnie zabije. Świetne podejście i rozumowanie. Dzieci szkoda, starzec niech zdycha.

 

No i na koniec podstawowa sprawa. Opisany scenariusz jest możliwy chyba tylko na autostradzie gdzie komputery będą miały pociąg i ustaloną prędkość tempomatu na 120km/h. Tam jak nam wyskoczą dzieci to nasz pojazd wyhamuje o bande. Bo jakim prawem i kto zaprogramuje maszynę tak by jeździła po drogach międzymiastowych pomiędzy drzewami gdzie jest zjawisko pieszych więcej niż 50km/h? Maszyna powinna względem znaków i otoczenia OD RAZU przewidywać potencjalne zagrożenia na danym odcinku. Tak by w przypadku dzieci pojazd wyhamował i W OGÓLE nie doprowadzać do scenariusza wyboru koniecznego awaryjnego kończenia trasy wypadkiem. Ktoś tu chyba mało przemyślał temat.


  • 1

#9 Gość_.Uzurpator.

Gość_.Uzurpator..
  • Tematów: 0

Napisano

Zrobotyzowane auto firmy Google uderzyło w autobus na miejskiej drodze w Kalifornii. To pierwsze oficjalne doniesienie o wypadku spowodowanym przez ten pojazd.

 

W poniedziałek nocą polskiego czasu władze Kalifornii poinformowały, że otrzymały od firmy Google informację o wypadku spowodowanym przez zrobotyzowany samochód tej firmy. Do wypadku doszło 14 lutego, kiedy na ulicy jednego z miast Kalifornii samochód niekierowany przez osobę, próbując ominąć leżące na jezdni worki z piaskiem, uderzył przednim błotnikiem w prawą stronę autobusu komunalnego. W chwili wypadku samochód poruszał się z prędkością nieco ponad 3 km/h, natomiast autobus - ok. 25 km/h. Nikt nie odniósł obrażeń wskutek wypadku, jak napisała agencja AP.

 

Zgodnie z przepisami stanu Kalifornia w zrobotyzowanym aucie Google siedział kierowca, który w razie potrzeby powinien przejąć kierowanie. Jednak według Google'a kierowca nie interweniował, gdyż uważał, że autobus ustąpi mu pierwszeństwa.

 

Komputer nie myśli

Google oficjalnie nie skomentował tego zdarzenia, które jest pierwszym wypadkiem spowodowanym przez zrobotyzowany samochód w USA. Przez ostatnie dwa lata testowane przez firmę Google auta uczestniczyły już w kilkunastu wypadkach, które jednak miały być spowodowane przez ludzi kierujących innymi samochodami. Najczęściej wjeżdżali oni w tył auta.

 

Obecny wypadek wzbudził jednak dużo większe zainteresowanie, bo w USA trwa dyskusja o warunkach dopuszczenia zrobotyzowanych aut do ruchu po drogach publicznych. Pod koniec zeszłego roku władze stanu Kalifornia uznały, że takie auta będzie można dopuszczać do ruchu pod warunkiem, że na fotelu kierowcy będzie siedzieć człowiek, który w razie konieczności przejmie kierowanie autem. Natomiast firma Google chce pozbawić ludzi możliwości ingerowania w kierowanie zrobotyzowanym samochodem. W zeszłym miesiącu amerykańska rządowa Agencja Bezpieczeństwa Ruchu Drogowego (NHTSA) uznała, że będzie można uznać sztuczną inteligencję za kierowcę w sensie prawnym - co odpowiada postulatom firmy Google. Ale jednocześnie NHTSA wskazało, że zrobotyzowane auta powinny spełniać wiele innych przepisów (np. dotyczących konstrukcji systemów hamulcowych), co w praktyce przekreśla postulaty Google'a.

 

Read more: http://wyborcza.biz/...l#ixzz41ev3VDZW


Użytkownik .Uzurpator. edytował ten post 02.03.2016 - 12:35

  • 0

#10

Leif Thorgunn.
  • Postów: 13
  • Tematów: 1
  • Płeć:Mężczyzna
Reputacja neutralna
Reputacja

Napisano

Ciekawy temat, więc dorzucę swoje 3 grosze. Przede wszystkim w przypadku takich maszyn, z resztą napisał to już Urgon, trudno mówić o etyce, kiedy ich myślenie będzie ściśle zadaniowe. System takiego auta będzie musiał reagować na niebezpieczeństwa przede wszystkim ich unikając i to właśnie będzie robił. W pierwszej kolejności zapewne spróbuje właśnie ominąć, zapewne jednocześnie hamując. Ale wpakować auto z premedytacją w drzewo i to tak że zaistniałoby ryzyko zabicia kierowcy? Stworzenie systemu który by pozwalał na takie odwrócenie priorytetów byłoby IMHO idiotyczne. Rozumiem kontrolowanie przebiegu kolizji celem minimalizacji szkód, ale nie coś takiego.


  • 0

#11

noxili.
  • Postów: 2849
  • Tematów: 17
  • Płeć:Mężczyzna
Reputacja znakomita
Reputacja

Napisano

Jednak według Google'a kierowca nie interweniował, gdyż uważał, że autobus ustąpi mu pierwszeństwa.

 

 

 

W chwili wypadku samochód poruszał się z prędkością nieco ponad 3 km/h, natomiast autobus - ok. 25 km/h.

 

Czyli co: autobus wymusił pierszeństwo , zajechał  drogę Google Carowi(3 km /h to predkość przy jakiej przecietne babcie idące pieszo są w stanie wyprzedzić pojazd albo to prędkość z jaką idziemy w tłumie piszac smsa na smartfonie)  albo ktoś ściemnia


PS

Więcej pisze tutaj :

http://www.engadget....g-car-accident/

 

Google przyznało się do częściowej winy.


  • 0



#12

szczyglis.
  • Postów: 1174
  • Tematów: 23
  • Płeć:Mężczyzna
Reputacja znakomita
Reputacja

Napisano

Jak już przy Google jesteśmy, to tutaj macie testy nowej wersji Atlasa od Boston Dynamics (przejętej przez Google).

 

 

Myślę, że póki co to roboty bardziej powinny obawiać się człowieka, niż na odwrót. ;)


  • 0



#13

noxili.
  • Postów: 2849
  • Tematów: 17
  • Płeć:Mężczyzna
Reputacja znakomita
Reputacja

Napisano

Przyznam sie szczerze że bałbym się pracować przy takim robocie. W razie jakiejś  awari przewraca się losowym kierunku a waży chyba sporo.Pierwszy człowiek zabity przez robota zginał właśnie przez taki "niegroźny " wypadek. Robotowi opadło samoczynnie ramie. Pech chciał że akurat na głowę konstruktora.


  • 0



#14

szczyglis.
  • Postów: 1174
  • Tematów: 23
  • Płeć:Mężczyzna
Reputacja znakomita
Reputacja

Napisano

Przyznam sie szczerze że bałbym się pracować przy takim robocie. W razie jakiejś  awari przewraca się losowym kierunku a waży chyba sporo.Pierwszy człowiek zabity przez robota zginał właśnie przez taki "niegroźny " wypadek. Robotowi opadło samoczynnie ramie. Pech chciał że akurat na głowę konstruktora.

 

O ile nie była by to taka bestia:

 

to ja osobiście bym się nie obawiał.

Myślę, że w firmie pokroju Boston Dynamics mają tyle procedur bezpieczeństwa, że taki wypadek jest raczej mało możliwy.

Nie wiem ile waży ta nowa generacja, ale pierwszy Atlas (gabarytowo podobny) nie był aż tak bardzo ciężki - ważył 150kg.


  • 0



#15

noxili.
  • Postów: 2849
  • Tematów: 17
  • Płeć:Mężczyzna
Reputacja znakomita
Reputacja

Napisano

aż tak bardzo ciężki - ważył 150kg.

 

Wystarczy by skutecznie strzaskać ci stopy i golenie,Ten taki pręt w miejscu czoła bedzie potrafił odciąć palce u stóp.W ekstremalnym przypadku upadając bedzie w stanie złamać ci kręgosłup. Co gorsza  taki układ humanidalny + liczne wolne przestrzenie oznacza że w razie runiecia na ciebie i odrobiny pecha to trzeba sporej ekipy ratunkowej by cię spod takiej konstrukcji wyciagnąć. Wystarczy że ręka uwięźnie ci pomiędzy  korpusem a tym takim przewodem. To ostatnie rozwiąże elastyczny (guma/latex) egzoszkielet.

 

Myślę, że w firmie pokroju Boston Dynamics mają tyle procedur bezpieczeństwa, że taki wypadek jest raczej mało możliwy.:)

 

 A ja z jednej strony jako strażak- ratownik a z drugiej strony z wykształcenia automatyk-robotyk aż takiego zaufania nie darzyłbym robota o takiej  konstrukcji  :) . PS Nawet małe roboty "zabawkowe"potrafiły dokonywać sporych zniszczeń. Do obezwładnienia robota - reklamy o wysokości 150cm przebranego za Świętego Mikołaja( a dokładniej Dziadka Mroza) potrzeba było 5 rosłych strażaków :) :). Przed przybyciem  ekipy ratunkowej robot sterowany mechanizmem krzywkowym (mechanizm stosowany do niedawna w pralkach ) zdołał znokautować dyrektora domu handlowego (to działo sie w takim pokazowym  luksusowym domu handlowym w Moskwie), zastraszyć pozostała ekipę, zdemolować wystawę sklepową na której został wyeksponowany. Żeby było śmieszniej jedyne co potrafił robić to siedzieć na pieńku wstawać wzosić puchar, wygłaszać toast i z powrotem siadac. I tylko tymi funkcjami zdołał zamienić sie w małą podskakującą apokalipse. Po prostu silnik napedzaący programator chodził na pełnych obrotach w wyniku złego zasilania i robot robił to bardzo ale to bardzo szybko.:)


  • 0




 

Użytkownicy przeglądający ten temat: 1

0 użytkowników, 1 gości oraz 0 użytkowników anonimowych