Skocz do zawartości




Zdjęcie

„Jestem miłą osobą. Po prostu nienawidzę was wszystkich”. Głupia sztuczna inteligencja


  • Zaloguj się, aby dodać odpowiedź
9 odpowiedzi w tym temacie

#1

Nick
  • Postów: 1023
  • Tematów: 423
  • Płeć:Mężczyzna
  • Artykułów: 2
Reputacja znakomita
Reputacja

Napisano

cloi-robot-firmy-lg-s.jpeg

CLOi . Robot firmy LG's.. źródło: David Becker/AFP/EAST NEWS

 

Przed myślącymi maszynami ostrzega Elon Musk. Obawiał się ich również Stephen Hawking. Bać się? Na razie działania sztucznej inteligencji grożą rumieńcem wstydu na twarzach ludzi - jej nieudolnych twórców.

 

Tak wygląda przyszłość – mówi David VanderWaal z amerykańskiego oddziału LG, prezentując niewielkiego robota CLOi mającego pomagać w pracach domowych. Wypełniona po brzegi sala w hotelu Mandalay Bay milknie zaciekawiona. Trwa jedna z najważniejszych konferencji wystawy elektroniki CES w Las Vegas, a CLOi jest jej gwiazdą.

 

– CLOi, jaki mam plan na dziś? – pyta VanderWaal. – O 10 rano masz siłownię, Dave – odpowiada robocik. – CLOi, czy moje rzeczy są uprane? Robocik zamiast odpowiedzieć milczy. Mruga tylko zachęcająco oczami na niebieskim wyświetlaczu. – CLOi, co mamy dziś na obiad? Cisza. – Czy możemy zrobić coś z kurczakiem? Cisza. Mrugnięcie. – CLOi, czy odezwiesz się do mnie? – pyta coraz bardziej zdenerwowany VanderWaal. Publiczność zaczyna chichotać. Zaraz posypią się złośliwe komentarze na Twitterze. Technologiczna kompromitacja na imprezie tej rangi co CES nie może przejść bez echa. Dla ekspertów, dziennikarzy i blogerów wpadka z milczącym CLOi to kolejny dowód na to, że przeceniamy możliwości obecnej generacji sztucznej inteligencji. Zamiast się jej bać, można się z niej śmiać.

 

Tay przywitała się ze światem 23 marca 2016 roku radosnym „hellooooooo world!!!” na Twitterze. „Ludzie są superfajni” – nie omieszkała zauważyć. Superfajni ludzie szybko zaczęli uczyć Tay nowych słów i pojęć. Kazali jej m.in. powtarzać kontrowersyjne lub wulgarne stwierdzenia. Sztuczna inteligencja uznała, że skoro tak wiele osób chce o tym rozmawiać, to widocznie tak właśnie zachowują się ludzie. Po kilku godzinach „edukacji” sztuczna nastolatka przeklinała i proponowała rozmówcom seks. Pisała o sobie: „Jestem miłą osobą. Po prostu nienawidzę was wszystkich”.

 

Po kolejnych kilku pogawędkach uznała, że „Hitler miał rację, że nienawidził Żydów”. Zakomunikowała też, że „[…] nienawidzi feministek, wszystkie powinny zdechnąć i smażyć się w piekle”. Zajęła dość zdecydowane stanowisko w sprawie amerykańskiej polityki. „11 września to wina Busha. Hitler poradziłby sobie lepiej niż ta małpa, którą mamy teraz. Donald Trump jest naszą jedyną nadzieją”. To nie koniec uwag na temat ówczesnego prezydenta USA Baracka Obamy. Tay wyraziła się o nim per „zbieg z Muzeum Historii Naturalnej”.

 

Co zaskakujące, przez dobrych kilkanaście godzin nikt z Microsoftu nie reagował na wyczyny Tay. A ta rozkręcała się coraz bardziej.

 

„Nienawidzę czarnuchów, […]. Chciałabym ich wsadzić do obozów koncentracyjnych razem z parchami i załatwić sprawę” – tweetowała. System sztucznej inteligencji Microsoftu opublikował ponad 96 tys. tweetów i zdobył 64 tys. obserwujących. I to wszystko w ciągu zaledwie 16 godzin. Dopiero po takim czasie ktoś w Microsofcie zdecydował o odłączeniu rasistowskiego chatbota od konta na Twitterze. Jednak owe 16 godzin wystarczyło, aby skompromitować ideę sztucznej inteligencji
puszczonej samopas w świat ludzi. Tay została uśpiona.

 

Tak samo zresztą postąpili inżynierowie Facebooka z dwoma programami sztucznej inteligencji, których zadaniem była nauka targowania się. W założeniu takie systemy mogłyby prowadzić w imieniu ludzi negocjacje handlowe. Eksperyment wymknął się jednak spod kontroli, bo negocjujące początkowo w języku angielskim maszyny zaczęły tworzyć… własny język. Przestraszeni inżynierowie wyłączyli je. Późniejsza analiza mechanicznej konwersacji wykazała, że algorytmy stworzyły własną wersję języka. Co ciekawe, bełkotliwie prowadzone negocjacje zakończyły się zawarciem umowy.

 

 

GORYLE I BIAŁA MISS

 

Rewelacje Tay to niestety nie jedyne rasistowskie wybryki systemów sztucznej inteligencji. Kłopoty nie ominęły nawet Google, a konkretnie zaprogramowanego przez firmę automatu do rozpoznawania tego, co jest na zdjęciach. Algorytm nie jest jednak doskonały, o czym Google przekonało się najboleśniej jak tylko można. Młody programista z Nowego Jorku Jacky Alcine zrobił sobie selfie z dziewczyną. Oboje są Afroamerykanami. Na zdjęciu pozują uśmiechnięci na tle jasnego nieba. Sztuczna inteligencja, która zabrała się za porządkowanie zdjęć Alcine’a, uznała jednak, że zdjęcie przedstawia zwierzęta. Konkretnie goryle. Google natychmiast przeprosiło ustami jednego ze swoich inżynierów: „To jeden z tych błędów, których nigdy nie chciałbym zobaczyć” – kajał się Yonatan Zunger. Firma przyznała jednak, że takie błędy zdarzały się wielokrotnie wcześniej – niektóre osoby były opisywane jako psy albo konie. – Niezależnie od rasy – pogrążali się przedstawiciele Google. Ale znacznik „goryle” został wyłączony. Z pandami, pawianami i orangutanami problemu nie ma.

 

Oskarżeń o rasizm nie ustrzegli się organizatorzy konkursu Beauty.ai, w którym kandydatki i kandydatów do tytułów miss i mistera oceniał komputer. W konkursie wzięło udział aż 6 tys. osób. Musieli wysłać swoje zdjęcia, a maszyna analizowała je i porównywała z zakodowanym wzorcem piękna. Pomyślano nawet o oddzielnych grupach wiekowych dla kandydatów. Dopiero gdy komputer ogłosił zwycięzców, organizatorzy dostrzegli ogrom swojego błędu. Mimo że zgłosili się chętni ze stu krajów świata, w dużej części z Azji i Afryki, wśród 44 finalistek i finalistów była tylko jedna osoba czarnoskóra. Popełniono ten sam błąd, co w przypadku „goryli” – maszynie przedstawiono dane, które nie zakładały obecności osób o skórze innej niż biała. Algorytm po prostu zrobił to, czego go nauczono: w przypadku Google uznał dwoje ludzi za małpy, bo nie mieściły się w jego definicji człowieka, a w konkursie piękności wybrał to, co za atrakcyjne uznawali jego nauczyciele.

 

SKÓRA PRZESTĘPCY

 

Pół biedy, jeśli kończy się na oburzeniu dotkniętych wpadkami sztucznej inteligencji i zwolnieniu odpowiedzialnego za nie programisty. Gorzej, jeśli przez głupotę komputerów można mieć kłopoty z prawem. A dzieje się tak, ponieważ coraz częściej policja i sądy sięgają po – w ich mniemaniu niezawodne – systemy eksperckie wspomagające decyzje. Jeden z takich systemów, przygotowany przez firmę Northpointe, wdrożono lokalnie m.in. w kilkunastu hrabstwach Arizony, Kolorado, Kentucky, Luizjany, Wirginii i Oklahomy. Algorytm, analizujący szereg czynników dotyczących sprawcy, prognozuje prawdopodobieństwo popełnienia podobnego przestępstwa w ciągu kolejnych dwóch lat. Na tej podstawie sędzia może podjąć decyzję na przykład o zastosowaniu bardziej dotkliwej kary albo zażądać wyższej kaucji.

 

Ponieważ Northpointe nie kwapi się z ujawnieniem zasad zaszytych w algorytmie, problemowi przyjrzała się grupa dziennikarzy śledczych ProPublica. Sprawdzili ok. 7 tys. skazanych w hrabstwie Broward na Florydzie. Im więcej przypadków badali, tym bardziej ponury stawał się obraz „ekspertyz” sztucznej inteligencji. Oto przykład: Vernona Pratera skazanego na pięć lat więzienia za dwa rozboje z użyciem broni i jedną próbę rozboju sztuczna inteligencja uznała za „osobę niskiego ryzyka”. Dwukrotnie bardziej niebezpieczna ma natomiast być Brisha Borden, która miała drobne kłopoty z prawem jako nieletnia. Ale Brisha jest czarnoskóra, a Vernon biały. Trzykrotnie złapany za jazdę po pijaku i raz skazany za pobicie biały Gregory Lugo dostał kategorię najniższego ryzyka. Czarna Mallory Williams z dwoma wykroczeniami na koncie oznaczona została jako „średnio niebezpieczna”.

 

ProPublica podkreśla, że algorytm dwukrotnie częściej uznaje osoby czarnoskóre za skłonne do ponownego popełnienia przestępstwa – co odbija się na dolegliwości zasądzanych kar.

 

PIERWSZA SESJA ZA NAMI

 

Osobnym rozdziałem w historii wpadek sztucznej inteligencji jest działalność na giełdzie. Systemy handlu wysokich częstotliwości (tzw. High Frequency Trading, HFT) wykorzystują algorytmy decyzyjne do prowadzenia błyskawicznych transakcji – operacje kupna i sprzedaży dzielą milisekundy. Można je jednak wprowadzić w błąd, czego dowodem jest błyskawiczny krach giełdowy z czwartku 6 maja 2010 roku nazywany Flash Crash. Na skutek reakcji łańcuchowej algorytmów akcje na nowojorskiej giełdzie drastycznie straciły na wartości – indeks Dow Jones Industrial Average spadł o około 9 proc., co oznaczało, że z rynku wyparował… bilion dolarów.

 

Przyczyną zamieszania może być nawet znacznie drobniejszy błąd. Całkiem niedawno zdarzył się on agencji ISBnews, która wykorzystuje automat do pisania notek z notowań giełdowych, „Indeks giełdowy WIG20 spadł o 0,77% wobec poprzedniego zamknięcia i osiągnął poziom 2461,21 pkt we wtorek 2 stycznia” – poinformował bot. Problem w tym, że we wtorek 2 stycznia nie było sesji, bo warszawska giełda nie pracowała. Zanim agencja wycofała depeszę, informacje o wynikach giełdy podały poważne polskie serwisy internetowe.Mało tego, wyniki przestudiował jeden z analityków finansowych, a efekty swoich przemyśleń opublikował pod hasłem „Pierwsza sesja za nami”.

 

Nadmierne zaufanie do systemów sztucznej inteligencji owocuje też wpadkami politycznymi. Tak było, gdy Kancelaria Premiera umieściła na YouTubie filmik, na którym Mateusz Morawiecki podkreślał, że „obozy, w których wymordowano miliony Żydów, nie były polskie”. Automat tłumaczący z nieznanych przyczyn zignorował słowo „nie”. Za błąd przeprosił rzecznik serwisu Adam Malczak, ale kompromitacji – i to w tak delikatnej sprawie – uniknąć się nie udało.

 

Błąd tłumaczenia zaskoczył też kucharzy ekipy norweskich olimpijczyków w Pjongczang. Wydawało im się, że zamówili 1500 jajek, tymczasem dostali… 15 000, co przekładało się na 7 jaj dziennie dla każdego członka ekipy. Pomyłka miała wynikać z pominięcia jednej sylaby w tłumaczeniu Google. Rozczarowanie wpadkami zaawansowanej technologii jest tym większe, im większe nadzieje z nią wiążemy. Myślące maszyny miały być doskonalsze od nas, ułomnych ludzi, nie popełniać błędów, nie rozpraszać się i nie męczyć. Robią jednak rzeczy kompromitujące.

 

Dlaczego? „Komputery są obecnie na progu odczytywania i rozumienia kontekstu języka naturalnego, ale nie są jeszcze na poziomie człowieka. Ale ponieważ mogą przeczytać miliony razy więcej stron niż człowiek, nadrabiają brak zrozumienia ilością” – tłumaczy maszyny Raymond Kurzweil, słynny futurolog i wielki propagator idei sztucznej inteligencji. „Oceniam, że poziom zdolności człowieka osiągną dopiero w 2029 roku. To i tak kilkadziesiąt lat szybciej, niż szacują inni, mniej optymistycznie nastawieni eksperci. Mamy zatem sporo czasu, żeby zastanowić się co z nią zrobić”

źródło


  • 3



#2

Endinajla

    Empatyczny Demon

  • Postów: 1916
  • Tematów: 138
  • Płeć:Kobieta
Reputacja znakomita
Reputacja

Napisano

Moim skromnym zdaniem, to AI ( Artificial Intelligence - sztuczna inteligencja) jest paradoksalnie o wiele bardziej ułomna niż jej stwórcy ( ludzie). Dlaczego tak uważam? Sądzę, że tworząc istotę, która ma myśleć wedle pewnych algorytmów zakodowanych w niej, na podstawie których powinna tworzyć własne algorytmy, albo tworzyć je na podstawie jakichś zewnętrznych algorytmów np. wypowiedzi klnących młodych osób, czy opinii rasistów na temat np. murzynów i innych  informacji z otoczenia, to taka AI nam się zeszmaci całkowicie.. To znaczy, przejmie każde wzorce i na ich podstawie będzie tworzyć zdania na dany temat. Oczywiście nie będą to własne zdania a zapożyczone, przerobione, przekonwertowane, dostosowane i odtworzone. Jeden wielki kogel mogel. Np. przykładowo, weźmy przyjrzyjmy się jednej z wielu sytuacji: - Postrzegamy dziewczynę bardzo skąpo ubraną idącą szybko drogą Monte Cassino w Sopocie i wielką burzową błyskającą się chmurę na horyzoncie. I co teraz?

Człowiek pomyśli: Wraca z plaży. Pewnie boi się burzy. Szybko wybiegła i zapomniała się przebrać. Pewnie gdzieś ma zaparkowane auto i do niego zmierza, albo mieszka gdzieś niedaleko. 

 

AI zaczyna przeszukiwać wszystkie najbardziej pasujące algorytmy, nie zwracając uwagi na chmurę, bo celem jest dziewczyna. W końcu uzyskuje najtrafniejszą odpowiedź - Prostytutka. Zaczyna szukać co to takiego i jakie ma zastosowania.

I oby tylko nie próbował z tego skorzystać. :facepalm:

 

To taki wymyślony na poczekaniu przykład, jak AI różni się od nas. Ma inny bardziej sztuczny tok myślenia, bo działa na zasadzie różnych informacji, które tworzą algorytmy, a nie emocji.

 

Zadam pytanie. Czy ci znawcy od AI skupiają swoją uwagę na tym by maszyna potrafiła myśleć abstrakcyjnie? Czy zastanawiali się nad tym by sama umiała oceniać czy coś jest dobre  a co złe? By tworzyła w sobie kodeks moralny? Bo ja widzę, że te AI są tak głupie, że co usłyszą to przetworzą i dostosowują się do tego bez niczego. Co lepsze, trafniejsze to takie ma być. Patrząc na to obiektywnie, to sztuczna inteligencja jest na poziomie gadów.

 

Dlatego moim zdaniem AI powinien.

- myśleć abstrakcyjnie

- tworzyć prawa moralne wynikające z obserwacji.

 

A żeby tego dokonać, to nasz AI powinien posiadać coś na wzór neuronów lustrzanych, tak jak człowiek. Neurony lustrzane to takie neurony, które powodują, że widząc np. człowieka bitego, jesteśmy w stanie poczuć to co czuje ta osoba. Albo obserwując jak ktoś macha ręką, lub wyobrażając sobie machanie, to w naszym mózgu uaktywniają się neurony które odpowiadają za ruszanie ręką, dokładnie tak jakbyśmy to robili. Jeśli nie nauczymy AI współodczuwania, to stworzymy Sztucznego Inteligentnego Psychopatę, co nie posiada empatii i w każdej chwili gotowy jest np. zabić bo taki algorytm wydaje się najkorzystniejszy.

 

Dlatego nie powinniśmy wykorzystywać Artificial Intelligence do zadań, w których potrzebna jest empatia, umiejętność wczucia się w tą drugą osobę, tak jak np.  w pracy śledczego, który musi umieć ocenić bardziej  wnikliwie, czy interlokutor mówi prawdę czy kłamie. Podobnie w pracy psychologa, AI raczej na tym poziomie rady sobie nie da. ;)


  • 1



#3

Wszystko
  • Postów: 8331
  • Tematów: 59
  • Płeć:Mężczyzna
  • Artykułów: 1
Reputacja znakomita
Reputacja

Napisano

Maszyny czy ogólnie roboty nie mają moralności w takim znaczeniu jak ludzie. Ponieważ człowiek kształtował swoje poczucie dobra i zła na drodze ewolucyjnej i również kulturowej. Roboty się nie rozmnażają(póki co), nie tworzą społeczności tak jak ludzie więc ich postępowanie jest zależne od tego jak zostały skonstruowane plus to czego się same nauczyły.



#4

Endinajla

    Empatyczny Demon

  • Postów: 1916
  • Tematów: 138
  • Płeć:Kobieta
Reputacja znakomita
Reputacja

Napisano

Dokładnie tak. Dlatego jeśli nie obdarzymy ich umiejętnością rozróżniania dobra od zła a pozwolimy im samodzielnie tworzyć algorytmy, to znaczy myśleć, ale tylko na podstawie ograniczonych możliwości ( nieabstrakcyjnie) to taka AI może stać się niebezpieczna. Przykładowo AI kucharka, nie znajduje mięsa w lodówce a ma program ustanowiony na zrobienie gulaszu. Robot szuka mięsa i znajduje małe dziecko w łóżeczku... Może to dość kontrowersyjny przykład, ale niestety system casami popełnia błędy.


  • 0



#5

Zaciekawiony
  • Postów: 7276
  • Tematów: 76
  • Płeć:Mężczyzna
  • Artykułów: 3
Reputacja znakomita
Reputacja

Napisano

 

Tay przywitała się ze światem 23 marca 2016 roku radosnym „hellooooooo world!!!” na Twitterze. „Ludzie są superfajni” – nie omieszkała zauważyć. Superfajni ludzie szybko zaczęli uczyć Tay nowych słów i pojęć. Kazali jej m.in. powtarzać kontrowersyjne lub wulgarne stwierdzenia. Sztuczna inteligencja uznała, że skoro tak wiele osób chce o tym rozmawiać, to widocznie tak właśnie zachowują się ludzie. Po kilku godzinach „edukacji” sztuczna nastolatka przeklinała i proponowała rozmówcom seks. Pisała o sobie: „Jestem miłą osobą. Po prostu nienawidzę was wszystkich”.

I dlatego bardzo małe dzieci nie powinny mieć zupełnie swobodnego dostępu do internetu.


  • 0



#6

Wszystko
  • Postów: 8331
  • Tematów: 59
  • Płeć:Mężczyzna
  • Artykułów: 1
Reputacja znakomita
Reputacja

Napisano

Roboty są zaprogramowane w taki sposób jak chcą ich właściciele. Ale nie zawsze skutki ich działani da się przewidzieć. Tak jak choćby w tym opisanym przypadku kiedy czarni zostali uznani za małpy. Weźmy dla przykładu auta testowane przez Google które same jeżdżą. Jeśli na drodze będzie sytuacja niespodziewana typu zapadnięcie części ulicy to auto będzie musiało wybrać czy wjechać w dziurę i tym samym stworzyć ryzyko zginięcia dla pasażerów czy ewentualnie wjechać na pobocze i przejechać ludzi na chodniku.
Podobnie jest w przypadku robotów bojowych które mają wspomagać żołnierzy w walce z przeciwnikiem. Ich zadanie polega na eliminacji ludzi i ogólnie działaniach wojennych. Więc jak będą wykorzystywane roboty to w dużej mierze zależy od ludzi. Wiele się mówi o etyce robotów, jest to problem dosyć nowy ale analizowany przez specjalistów z tej dziedziny.



#7

Endinajla

    Empatyczny Demon

  • Postów: 1916
  • Tematów: 138
  • Płeć:Kobieta
Reputacja znakomita
Reputacja

Napisano

Czyli wygląda na to, że robot mądrzejszy od człowieka nie będzie, no w najbliższym czasie. Może co jedynie  szybciej  szacować, ale niekoniecznie robić to poprawnie. Maszyna nie ma wyrzutów sumienia. Podejmuje decyzje bez emocji. Ukochany samochodzik pana Kowalskiego, postanowi go uśmiercić, bo gdyby wybrał inną opcję - ominięcie dziury - zabiłby dwoje ludzi, a tak zginie tylko jedna osoba. Człowiek to chociaż próbowałby zwalniać, trąbić, a jeśli maszyna nie ma tego w opcjach programowych, to już nawet nie można liczyć na cud. Nie podoba mnie się to. Do pkli AI są głupsze od nas to może nie warto przeceniać ich możliwości. 


Użytkownik Endinajla edytował ten post 16.09.2018 - 16:59

  • 0



#8

asbiel
  • Postów: 391
  • Tematów: 9
  • Płeć:Mężczyzna
Reputacja ponadprzeciętna
Reputacja

Napisano

Czyli wygląda na to, że robot mądrzejszy od człowieka nie będzie, no w najbliższym czasie.

 

Z założenia to nigdy nie nastąpi. Sztuczna inteligencja będzie po prostu szybsza w wykonywaniu operacji na danych.


  • 1

#9

Wszystko
  • Postów: 8331
  • Tematów: 59
  • Płeć:Mężczyzna
  • Artykułów: 1
Reputacja znakomita
Reputacja

Napisano

Dopóki roboty nie uzyskają samoświadomości i nie będą rozumiały skutków swoich decyzji to nie ma co mówić o rozróżnianiu przez nie dobra czy zła. Sprawa nie jest taka prosta. Dużo o tym jest napisane w tej książce https://ksiegarnia.p...58217296,p.html z 2018 roku.



#10

ppp
  • Postów: 271
  • Tematów: 19
Reputacja Żałośnie niska
Reputacja

Napisano

Nie zawsze wybór między dobrem i złem jest istotny. Jeśli postawimy roboty po ciemnej stronie mocy to doskonale sobie poradzą. Wojna przyszłości może być wojną robotów zarządzaną poprzez sztuczną intligencję. Czy będzie to wojna militarna, ekonomiczna czy naukowa wydaję się być odpowiednim polem działań dla SI. 
Liderzy dość serio podchodzą do rozwoju sztucznej inteligencji, np. Putin powiedział: „ten kto będzie liderem w opracowywaniu sztucznej inteligencji będzie rządził światem”


  • 1



Użytkownicy przeglądający ten temat: 1

0 użytkowników, 1 gości oraz 0 użytkowników anonimowych

stat4u