Skocz do zawartości




Zdjęcie

Deepfake


  • Zaloguj się, aby dodać odpowiedź
6 odpowiedzi w tym temacie

#1

Nick.
  • Postów: 1414
  • Tematów: 691
  • Płeć:Mężczyzna
  • Artykułów: 2
Reputacja znakomita
Reputacja

Napisano

deep.png

Foto: Samantha Lee/Business Insider
/ materiały prasowe

Nie jest jasne, kiedy dokładnie wynaleziono "deepfakes", ale technologia zaczęła
zyskiwać na popularności pod koniec 2017 roku. Opublikowano wtedy
spreparowany film porno rzekomo przedstawiający znaną aktorkę.
Klip pojawił się w serwisie Reddit.

 

 

Niebezpieczny internetowy trend może przyczynić się do zniszczenia twojej reputacji. Nikt nie wie, co z nim zrobić

 

Na nagraniu, które pojawiło się w sieci w czerwcu, widzimy Marka Zuckerberga, który wpatruje się w kamerę, siedząc za biurkiem. Wygłasza krótką mową skierowaną do widzów. – Wyobraź to sobie. Jeden człowiek z całkowitą kontrolą nad skradzionymi danymi miliardów ludzi. Wszystkie ich sekrety, ich życie, ich przyszłość – mówi.

 

Na nagraniu nie widzimy jednak prezesa Facebooka, ale jego cyfrową replikę znaną jako deepfake: fałszywe wideo stworzone przy użyciu sztucznej inteligencji, które może wyglądać, jakby konkretna osoba powiedziała lub zrobiła coś, czego tak naprawdę nigdy nie mówiła, ani nie robiła.

 

W filmach tego typu zobaczyć można dobrze rozpoznawalne twarze: od Kita Haringtona z "Gry o tron" po byłego prezydenta USA Baracka Obamę. Niektóre filmy mogą być nieszkodliwe – jak np. nagranie, na którym Jon Snow (grany przez wspomnianego Haringtona) przeprasza za zakończenie serialu "Gra o tron". Technologia wzbudza jednak poważne obawy. Manipulowanie filmami i zdjęciami z wykorzystaniem sztucznej inteligencji może być wykorzystane do rozpowszechniania błędnych informacji lub niszczenia reputacji konkretnych osób.

 

Według ekspertów rozwój deepfake'ów nie zwolni w najbliższym czasie.

 

 

Patrząc na to pod kątem technologii, nic nie możemy zrobić – mówi Ali Farhadi, starszy kierownik ds. badań w grupie zajmującej się rozpoznawaniem obrazów w Allen Institute for Artificial Intelligence – Ta technologia istnieje, a ludzie mogą zacząć wykorzystywać ją w dowolny sposób – tłumaczy.

 

"Wkraczamy w erę, w której nasi wrogowie mogą zmusić kogokolwiek do wypowiedzenia dowolnych słów w dowolnym momencie"

 

Nie jest jasne, kiedy dokładnie wynaleziono "deepfakes", ale technologia zaczęła zyskiwać na popularności pod koniec 2017 roku, kiedy to fałszywy film porno rzekomo przedstawiający aktorkę Gal Gadot został opublikowany na Reddicie przez użytkownika, posługującego się pseudonimem "deepfakes".

 

Od tego czasu w sieci pojawiło się wiele spreparowanych filmów z udziałem celebrytów i polityków - niektóre z nich mają być satyryczne, inne przedstawiają osoby publiczne w negatywnym świetle, a jeszcze inne stworzono, aby poprzeć konkretny punkt widzenia. Na początku 2018 roku popularne były wideoklipy ze słynnych scen filmowych, które zostały cyfrowo zmienione, by nałożyć na postacie twarz aktora Nicholasa Cage'a. To ta lżejsza i mniej szkodliwa strona problemu. Pokazuje, że technologia mogłaby wręcz pomóc branży rozrywkowej.

 

W kwietniu 2018 roku BuzzFeed zamieścił na stronie niesamowicie realistyczny – ale fałszywy – film, przedstawiający byłego prezydenta Baracka Obamę, wypowiadającego słowa, których w rzeczywistości nigdy nie wypowiedział. Serwis chciał przedstawić zagrożenia, jakie niesie ze sobą wykorzystanie technologii w niecny sposób. – Wkraczamy w erę, w której nasi wrogowie mogą zmusić kogokolwiek do wypowiedzenia dowolnych słów w dowolnym momencie – mówi "fałszywy Obama" w filmie.

 

Facebook znalazł się w ogniu krytyki po tym, jak odmówił usunięcia spowolnionego filmu z Nancy Pelosi, spikerką Izby Reprezentantów. Wideo spreparowano w taki sposób, by wydawało się, że Pelosi jest czymś odurzona. Technicznie nie był to deepfake, ale nagranie rodziło pytania o to, jak łatwo można spreparować i rozpowszechniać wideo. Pod koniec czerwca 2019 roku kontrowersyjna aplikacja internetowa DeepNude pozwalała użytkownikom na tworzenie realistycznych obrazów nagich kobiet za pomocą przesłanych do aplikacji zdjęć prawdziwych osób. Pokazuje to, że algorytmy mogą być wykorzystywane do nikczemnych czynów. Od tego czasu aplikacja została usunięta.

 

Manipulacja cyfrowymi filmami i obrazami nie jest niczym nowym, ale nowe są już postępy w dziedzinie sztucznej inteligencji, łatwiejszy dostęp do narzędzi oraz skala, w jakiej można rozpowszechniać spreparowane materiały wideo. John Villasenor z Instytutu Brookingsa i Uniwersytetu Kalifornijskiego w Los Angeles twierdzi, że ostatnie dwa punkty są w dużej mierze powodem, dla którego deepfake'i mogą budzić większe obawy niż pojawienie się w przeszłości innych narzędzi do edycji zdjęć i filmów.

 

Każdy jest teraz globalnym nadawcą – mówi Villasenor – Myślę, że te dwie rzeczy tworzą fundamentalnie inne środowisko niż wtedy, gdy pojawił się Photoshop – zaznacza.

 

Villasenor tłumaczy, że deepfake’i tworzy się przy użyciu danych treningowych – tj. obrazów lub filmów wideo podmiotu – które służą do powstania trójwymiarowego modelu osoby. Ilość wymaganych danych może się różnić w zależności od używanego systemu i jakości podróbki, którą próbujesz stworzyć. Zdaniem Farhadiego opracowanie przekonywującego deepfake'a może wymagać tysięcy zdjęć i nagrań. Samsung opracował jednak system AI, który był w stanie wygenerować sfabrykowany klip wideo z użyciem zaledwie jednego zdjęcia.

 

Nawet jeśli technologia jest łatwiej dostępna i bardziej wyrafinowana niż kiedyś, to – zdaniem Farhadiego – nadal wymaga pewnego poziomu wiedzy. Trzeba rozumieć algorytmy deep learning.

 

To nie jest tak, że kliknięciem przycisku zaczynasz generować deepfake’i – mówi Farhadi. – Wymaga to wiele pracy – dodaje.

 

Deepfake - problem całego świata

 

Prawdopodobnie nie da się zapobiec tworzeniu deepfake'ów lub zakazać ich rozpowszechniania w mediach społecznościowych i innych miejscach. Ale nawet gdyby było to możliwe, całkowite zakazanie deepfake’ów prawdopodobnie nie jest rozwiązaniem. Maneesh Agrawala, profesor informatyki z Forest Baskett i dyrektor Brown Institute for Media Innovation na Uniwersytecie Stanforda, zaznacza, że to nie sama technologia, ale sposób jej wykorzystania może być problematyczny. Wyeliminowanie deepfake’ów może nie usunąć źródła problemu.

 

Błędne informacje mogą być prezentowane, nawet jeśli film jest w stu procentach prawdziwy – mówi Agrawala – Obawy dotyczą samych dezinformacji, a nie technologii, które służą do tworzenia tych filmów – dodaje.

 

Wyścig zbrojeń

 

Nasuwa się pytanie, co można zrobić, aby zapobiec wykorzystywaniu deepfake’ów w niebezpieczny i szkodliwy sposób. Eksperci zdają się zgadzać co do tego, że istnieją dwa potencjalne podejścia: rozwiązania technologiczne, które mogą wykryć, kiedy film został sfałszowany oraz ramy prawne, które penalizują tych, którzy używają tej technologii, aby oczerniać innych. Żadna z tych ścieżek nie będzie niezawodna i nadal nie jest jasne, w jaki sposób takie poprawki mogłyby działać.

 

Mimo że nie istnieje jeszcze jasne rozwiązanie, pytanie o to, jak zająć się deepfake’ami, było tematem dyskusji w Kongresie USA w ostatnich miesiącach. W grudniu 2018 roku republikański senator Ben Sasse z Nebraski zaproponował ustawę znaną jako "Malicious Deep Fake Prohibition Act of 2018", która ma na celu zakazanie "preparowania nagrań audiowizualnych". Ustawa "DEEP FAKES Accountability Act" zaproponowana w czerwcu przez reprezentantkę Demokratów z Nowego Jorku Yvette Clarke wymaga, aby fałszowane nagrania były wyraźnie oznaczone znakiem wodnym. Proponowany projekt ustawy nakładałby również kary za naruszenia zasad.

 

Wprowadzenie przepisów, które miałyby na celu rozwiązanie problemu deepfake’ów w sposób, który nie naruszałby wolności słowa lub nie miałby wpływu na dyskurs publiczny, mogłoby stanowić wyzwanie – nawet jeśli takie przepisy przewidują wyjątki dla treści rozrywkowych, jak zauważa Electronic Frontier Foundation.

 

Deepfake przedstawiający Marka Zuckerberga został na przykład stworzony jako część wystawy na festiwalu filmów dokumentalnych. – Myślę, że to ważne, aby zachować ostrożność, gdy mówimy o potencjalnych szkodach – mówi Agrawala. Wraz z innymi badaczami z Uniwersytetu Stanforda, Max Planck Institute for Informatics, Universytetu w Princeton i Adobe Research stworzyła algorytm, który pozwala edytować filmy z "gadającymi głowami" poprzez wprowadzanie tekstu. – Myślę, że istnieje wiele naprawdę ważnych przypadków zastosowania tego rodzaju technologii – tłumaczy.

 

Podejmowanie działań prawnych jest często czasochłonne, co może utrudnić stosowanie środków mających łagodzić potencjalne szkody wynikające z oszustw.

 

Wpłynięcie na cykl wyborczy dzięki mediom społecznościowym to czasami kwestia dni lub nawet godzin. Działania prawne mogą trwać tygodniami lub miesiącami – mówi Villasenor – W wielu przypadkach szkody byłyby już wyrządzone – dodaje.

 

Według Farhadiego jednym z najskuteczniejszych sposobów rozwiązania tego problemu jest budowanie systemów, które potrafią odróżnić deepfake’i od prawdziwych nagrań. Można to osiągnąć, stosując algorytmy podobne do tych, które zostały opracowane w celu tworzenia deepfake’ów, ponieważ dane te mogą być wykorzystywane do szkolenia detektorów.

 

Sean Gourley, założyciel i dyrektor generalny Primer AI, firmy zajmującej się inteligencją maszynową, która tworzy produkty do analizy dużych zbiorów danych, uważa, że może to jednak nie wystarczyć w wykrywaniu bardziej wyrafinowanych deepfake’ów w miarę ich dalszego rozwoju.

 

Można myśleć o tym jak o atakach typu zero-day w sektorze cyberbezpieczeństwa – mówi Gourley – Atak zero-day jest atakiem, którego nikt wcześniej nie widział, a zatem nie ma przed nim obrony –tłumaczy.

 

Jak to często bywa w przypadku cyberbezpieczeństwa, osobom próbującym rozwiązać problemy i naprawić błędy trudno jest wyprzedzić tych, którzy starają się wyrządzić szkody. To samo, zdaniem Villasenora, dotyczy deepfake’ów.

 

To rodzaj wyścigu zbrojeń – mówi – Wykrywanie zagrożeń zawsze będzie o kilka kroków wstecz – dodaje.

 

źródło

 

 


Użytkownik Nick edytował ten post 14.07.2019 - 21:22

  • 1



#2

coley.
  • Postów: 116
  • Tematów: 1
Reputacja zadowalająca
Reputacja

Napisano

Brzmi jak zarys fabuły kolejnego odcinka "Black Mirror", ale niestety to prawda.

To video z Jonem jest dosyć sztuczne i słabe, można znalezc dużo lepsze przykłady deepfake.

Np.


Użytkownik coley edytował ten post 14.07.2019 - 23:00

  • 0

#3

Tiga.
  • Postów: 217
  • Tematów: 25
Reputacja ponadprzeciętna
Reputacja

Napisano

Fałszywe porno z Emmą Watson na skraju pedofilii? Nowe problemy z fake porn.



Twórcy mocno napiętnowanych ostatnio w prasie materiałów z gatunku "fake porn", znanych jako deepfakes, stoją w obliczu nowego problemu. Przykład znanej aktorki Emmy Watson pokazał, że można zostać posądzonym o nawet nieumyślnie tworzenie materiałów z nieletnimi.

Do stworzenia fałszywego porno, w którym twórcy za pomocą Sztucznej Inteligencji przeszczepiają twarz celebrytek w ciała aktorek porno potrzeba całego zestawu zdjęć znanej osoby. Kolekcja zdjęć jest używana do trenowania algorytmu, który tworzy gotowy materiał. W rozpowszechnianej w internecie paczce zdjęć z Emmą Watson znajdują się liczne wizerunki, kiedy posiadała mniej niż 18 lat. Jeśli ktoś wykorzysta wizerunki z paczką zdjęć Emmy do stworzenia deepfake'a, to właściwie stworzył film porno z częściowym obliczem nieletniej, bez zgody osoby, od której pobrano wizerunek. Osoby tworzące filmy zwane jako deepfake oraz wymieniające się wspomnianymi pakietami ze zdjęciami do tworzenia materiałów filmowych, same obawiają się konsekwencji jakie może powodować generowanie takich filmików. Wydali oni nawet ostrzeżenia, że paczki ze zdjęciami młodych celebrytek mogą zawierać ich zdjęcia, gdy nie posiadały 18 lat. "Skasowałem wszystkie posty z Elle Fanning ponieważ nie jest możliwe do udowodnienia, że miała ona 18 lat na zdjęciach treningowych" - powiedział jeden z użytkowników forum z filmami deepfake - "Lepiej się zabezpieczać niż żałować".

Na serwerze Discord, który niedawno został skasowany, użytkownicy dyskutowali nad tym czy możliwe było, że zestawy zdjęć wykorzystane do stworzenia fałszywego porno mogły zawierać zdjęcia celebrytek poniżej 18 lat. Zestaw zdjęć przedstawiający zbliżenia twarzy Emmy Watson zawiera również zdjęcia z okresu pierwszych filmów z serii Harry Potter, kiedy Emma miała około 10 lat. Podobnie sprawa wygląda z zestawami zdjęć Fanning. Nie wiadomo jak te obrazy trafiły do paczek zdjęć. Możliwe, że oprogramowanie do rozpoznawania twarzy jak FaceTracker czy Face Detector, które skanuje materiały wideo i przechwytuje obrazy z twarzą wybranej osoby, z automatu pozyskało również wizerunki gdy aktorki nie były pełnoletnie. Jeden z zestawów z Watson dla przykładu zawiera również zdjęcie aktora, który wciela się w rolę Neville'a Longbottom'a, co pokazuje, że zestawy zawierają zdjęcia, których tam być nie powinno. W 2013 roku w USA powstało prawo, które klasyfikuje generowane komputerowo porno dziecięce jako obsceniczne i zakazane. Oznacza to, że twórcy mogą być pozwani nie tyle za pedofilię, co za obsceniczność, generowanie i posiadanie tych wygenerowanych komputerowo filmów z dziecięcą pornografią, mimo że żadne dziecko nie było w ten proceder zaangażowane. W USA za taki proceder grozi nawet 20 lat więzienia. Jeśli jednak zostanie podciągnięte to pod zarzut tworzenia dziecięcej pornografii, wyrok może być nawet o 10 lat dłuższy. Niestety problem wirtualnej pornografii nie jest niczym nowym, jednak powstanie zjawiska takiego jak deepfake, tworzy całą sprawę jeszcze bardziej skomplikowaną. Specjaliści są w tym temacie podzieleni i część uważa, że póki to tylko twarz, a nie ciało dziecka jest uwidocznione w materiale, to właściwie nie ma problemu. Nawet jeśli taką wersję podtrzymają również sądy, to jak twierdzą inni prawnicy "To jest po prostu złe". Wszystko zależy również od efektu końcowego takiego materiału filmowego.

https://ithardware.p..._porn-5354.html





Sztuczna inteligencja tworzy realistyczne wideo z jednego zdjęcia

Inżynierowie z Samsunga usprawnili sztuczną inteligencję tworzącą tzw. deepfake i wprowadzili ją na zupełnie nowy poziom. Wystarczy jedno zdjęcie, by algorytmy na jego bazie stworzyły realistyczne wideo. Autorzy zaprezentowali swoją technologię na przykładzie portretu Mona Lisy. Efekt? Mona Lisa porusza się, mówi, mruga oczami, a wszystko to wygląda niepokojąco dobrze.

monalisadeepfake.jpg

Deepfake to technika tworzenia lub modyfikowania materiałów wideo z wykorzystaniem algorytmów sztucznej inteligencji. Nazwa wzięła się od połączenia słów deep learning – jedna z metod uczenia maszynowego oparta na sztucznych sieciach neuronowych – oraz fake, co w języku angielskim oznacza falsyfikat, fałsz, podróbkę. Technologia pozwala na generowanie materiałów wideo, które pokazują coś, co w rzeczywistości nie miało miejsca.

Możliwości sztucznej inteligencji w generowaniu deepfake są coraz większe i budzą też coraz większe obawy. Osiągi inżynierów Samsunga pokazują, że do stworzenia fałszywego materiału wideo wystarczy jedno zdjęcie pobrane chociażby z portalu społecznościowego. Nie trudno sobie wyobrazić, do czego może posłużyć takie narzędzie w rękach oszusta.


Ostatnie usprawnienia algorytmów sztucznej inteligencji w generowaniu treści deepfake wnosi tę technologię na zupełnie nowy poziom i jest dziełem inżynierów z laboratorium badawczego firmy Samsung w Moskwie. Nowe algorytmy mogą nie tylko działać z mniejszej początkowej bazy danych obrazów (wystarczy jeden), ale również tworzyć filmy w bardzo krótkim czasie.

„Nasza technologia będzie miała zastosowanie w wideokonferencjach czy grach wideo, ale także w branży efektów specjalnych” – napisali twórcy w artykule opublikowanym w archiwum pre-printów arXiv.org. Technologia ta będzie miała także ogromny potencjał do nadużyć.

Algorytmy Samsunga zostały przeszkolone na publicznej bazie 7000 zdjęć celebrytów. System działa w oparciu o szereg cech, którymi można manipulować – charakterystyczne rysy twarzy czy mimika. System odwzorowuje te cechy i nadaje im realistycznie wyglądające ruchy. Dzięki szkoleniu potrafi dopasować mimikę do wyglądu postaci ze zdjęcia, czego efektem jest realistyczne nagranie wideo.

Sztuczna inteligencja wygenerowała fałszywe filmy z Mona Lisą, Albertem Einsteinem, Salwadorem Dali, Fiodorem Dostojewskim czy Marilyn Monroe. Efekt można zobaczyć poniżej.

Co prawda filmy generowane na podstawie jednego zdjęcia nie są tak dobre jakościowo, jak chociażby te stworzone z wykorzystaniem kilkunastu bądź kilkudziesięciu fotografii. Ale mogą wystarczyć, by kogoś oszukać. Do tego technologia ta rozwija się w szybkim tempie, także należy się spodziewać, że wkrótce jakość znacznie się poprawi.

https://dzienniknauk...jednego-zdjecia

Użytkownik Tiga edytował ten post 18.07.2019 - 13:24

  • 0

#4

Staniq.

    In principio erat Verbum.

  • Postów: 5020
  • Tematów: 663
  • Płeć:Mężczyzna
  • Artykułów: 23
Reputacja znakomita
Reputacja

Napisano

Chcesz wpłynąć na wynik wyborów, zniszczyć karierę, reputację przeciwnika lub wywołać zamieszki na tle etnicznym? Trudno wyobrazić sobie bardziej skuteczny środek niż klip, który wygląda autentycznie, rozprzestrzeniając się jak pożar poprzez Facebook, WhatsApp lub Twitter - szybciej niż ludzie orientują się, że zostali oszukani. Biorąc pod uwagę częstotliwość oszustw związanych z wyłudzaniem informacji, łatwo też wyobrazić sobie, że możemy mieć do czynienia z przekazami, w których prezes firmy prosi pracowników o podanie haseł lub innych ważnych danych…

 

                              deepfake.jpg

                              grafika/teamquest

 

Na tym właśnie polega deepfake. „Deep” (głęboki) – od tzw. głębokiego uczenia się (deep learning) -w którym komputer uczy się wykonywania zadań naturalnych dla ludzkiego mózgu, takich jak rozpoznawanie mowy, identyfikowanie obrazów lub tworzenie prognoz, fake – imitacja, podróbka. Możemy spodziewać się zatem bardzo dobrych falsyfikatów, tworzonych przez sztuczną inteligencję (AI – artificial intelligence), która jest motorem napędzającym istnienie deepfake w naszej rzeczywistości.

 

W ubiegłym roku, opisywaliśmy przypadek prezentera chińskiej telewizji, w którym nieprawdziwy (nierzeczywisty - już mniej…) prezenter, z powodzeniem prowadzi dwudziestoczterogodzinny telewizyjny serwis informacyjny. Jednak śledzenie historii deepfake, które pojawiły się już w odsłonach „Top 10”, projektach – na przykład „Ctlr+Shif+Face”, czy w postaci „wystąpień” znanych osób - Baracka Obamy, Nancy Polesi, Marka Zuckerberga - choć z początku fascynujące i wprawiające w podziw dla możliwości technologii AI, z wolna przerodziło się w przerażenie i kiełkującą nieufność w prawdziwość przekazu jako takiego…

W historii deepfake są również przypadki nieprawdziwych profili w Linkedin, opisywane szczegółowo w serwisie Naked Security, w których nie istniejące osoby oraz ich zdjęcia profilowe były bardzo dobrą cyfrową podróbką. W tym przypadku celem było wyłudzenie informacji.

 

Cyfrowa manipulacja i jej trend wzrostowy jest zauważalny i śledzony od kilku lat, zanim powstał deepfake; technika modyfikacji cyfrowej od dawna jest wykorzystywana w kinematografii, ale równie dobrze ma się w medycynie, modzie, sztuce, projektach komercyjnych, jak i u technologicznych potentatów - Apple, Google.

 

Cały Ty

 

W 2009 roku (niespełna dekadę przed pojawieniem się deepfake), Hao Li (innowator i przedsiębiorca z Niemiec, pracujący w dziedzinie grafiki komputerowej i wizji, a w 2013 roku jeden z 35 najlepszych innowatorów na świecie poniżej 35. roku życia według MIT Technology Review), opracował sposób uchwycenia twarzy osoby w czasie rzeczywistym i wykorzystanie go do obsługi wirtualnej marionetki.

 

Wiązało się to z użyciem najnowszych czujników głębokości i nowego oprogramowania do mapowania twarzy, na coś w rodzaju maski z odkształcalnego wirtualnego materiału. Przyczynił się tym do rozwoju oprogramowania Faceshift, które później zostanie skomercjalizowane - firma została przejęta przez Apple w 2015 roku.

 

Obecnie, Li pracuje nad wykorzystaniem potencjału deep learning i sieci neuronowych (również GAN – generative adversarial network), w swoich projektach - wyniki jego badań zostały zastosowane m.in. w medycynie, wspierając opracowanie sposobów śledzenia nowotworów i modelowania właściwości kości i tkanek ludzkiego ciała. Technologia ta może mieć również zastosowanie w przypadku wideokonferencji, wirtualnej rzeczywistości i grach.

 

Natomiast w branży odzieżowej wykorzystywana jest aplikacja Pinscreen, z którą producenci wiążą spore nadzieje – ich potencjalni klienci mogą przymierzać odzież bez konieczności odwiedzania sklepu.

Pozytywów nie brak – o tym też warto pamiętać, gdy słyszymy o kolejnej odsłonie deepfake z udziałem znanej (lub mniej) osoby. Dobrze jest jednak zachować dystans i pamiętać, że jednoobrazowe awatary mobilne i deepfake w czasie rzeczywistym, stwarzają nowe zagrożenia – są one trudniejsze do kontrolowania, a możliwości i wykorzystania coraz łatwiej dostępne dla wielu zainteresowanych (w tym i tych z ze złymi zamiarami). Jest to również przedmiotem troski organizacji których celem jest dbałość o prawa człowieka.

 

Co dalej?

 

Na szczęście, sporo deepfakes z miejsca zdradza swoje pochodzenie - migocząca twarz, nienaturalny wyraz twarzy, rzadkie mruganie, lub dziwny odcień skóry sprawiają, że manipulację łatwo dostrzec. Ale - podobnie jak ekspert może usunąć takie wady - postępy w rozwoju sztucznej inteligencji zmierzają do możliwości automatycznego wygładzenia defektów, przez co fałszywe filmy będą zarówno łatwiejsze do utworzenia, jak i trudniejsze do wykrycia.

 

W 2016 roku – jeszcze zanim deepfake na dobre wkroczył do rzeczywistości, amerykańska DARPA (Defense Advanced Research Projects Agency – Agencja Zaawansowanych Projektów Badawczych w Obszarze Obronności), uruchomiła platformę Media Forensics (MediFor), aby zachęcić ekspertów medycyny sądowej do opracowania zautomatyzowanych narzędzi do analizy zmanipulowanych obrazów. Dzięki niej, ekspert – człowiek, może zastosować szereg metod wykrywania fałszerstw fotograficznych, od analizowania niespójności w danych pliku lub charakterystyk określonych pikseli, po niespójności fizyczne, np. źle umieszczony cień lub nieprawdopodobny kąt.

 

Obecnie, DARPA eksperymentuje w kierunku zwalczania manipulacji przekazem wizualnym, angażując do walki z deepfake nic innego, jak… technologie AI oraz techniki kryminalistyczne.

 

Trzeba jednak pamiętać, że i tutaj rzeczywistość sprzyja oszustom, ponieważ oprogramowanie do edycji obrazu jest łatwo dostępne i często łatwe do nauczenia się. Ponadto, coraz bardziej powszechne są w użyciu zaawansowane techniki edycji (w tym wspomniane wcześniej GAN), tworzące niezwykle autentyczne, zmanipulowane filmy.

 

MediFor opiera automatyczne wykrycie fałszerstwa, na zastosowaniu struktury trzech poziomów spójności użytych w analizie materiału: integralności cyfrowej, fizycznej i semantycznej.

 

Integralność cyfrowa polega na sprawdzeniu, czy piksele w obrazie lub filmie są spójne (nie zmodyfikowane). Integralność fizyczna to weryfikacja, czy w badanych filmach (obrazach) zachowane są prawa fizyki – na przykład w czy filmie z łopoczącą flagą, porusza się ona w sposób odpowiadający prawdziwemu jej ruchowi na wietrze. Integralność semantyczna wiąże się z treścią filmu, obrazu i prowadzi do jej weryfikacji z użyciem źródeł zewnętrznych, poprzez które następuje potwierdzenie jej prawdziwości.

 

Inne, podejście jest realizowane w projekcie COMPROP (Computational Propaganda Research), uruchomionym przez Uniwersytet Oksfordzki. Celem projektu jest analiza zjawisk na styku działania algorytmów, automatycznej komunikacji i polityki, śledzenie takich trendów oraz podawanie faktów manipulacji do publicznej wiadomości, jak również budowanie świadomości użytkowników na temat istnienia i wykorzystania tych mechanizmów.

 

Powstaje pytanie: czy to wystarczy? Doświadczenia z walki z zagrożeniami, wskazują, że ich zwalczanie – choć możliwe, rozpoczyna się dopiero gdy jest ono rozpoznane.

 

Doświadczenia w kształtowaniu świadomości zagrożeń (awareness) również nie napawają optymizmem. Jest to jednak nadal najlepsza metoda - edukowanie ludzi, aby stali się bardziej sceptyczni wobec treści w internecie – zwłaszcza takich, które bardzo szybko się rozprzestrzeniają się, a które wielu użytkowników z miejsca uznaje za prawdziwe i rzetelne.

 

Autor: Julia Wilk

 

TeamQuest.png

 

przeniesiony.gif

 

TheToxic


  • 1



#5

Master Zgiętonogi.

    Capo di tutt'i capi

  • Postów: 323
  • Tematów: 1
  • Płeć:Mężczyzna
Reputacja dobra
Reputacja

Napisano

Krotki film na ten temat od AsapSCIENCE

 


  • 0

#6

Magda72.
  • Postów: 357
  • Tematów: 33
  • Płeć:Kobieta
Reputacja bardzo dobra
Reputacja

Napisano

Byłam pewna że już tu o tym czytałam.Temat Nicka:http://www.paranorma...ke/#entry720713
  • 0



#7

Staniq.

    In principio erat Verbum.

  • Postów: 5020
  • Tematów: 663
  • Płeć:Mężczyzna
  • Artykułów: 23
Reputacja znakomita
Reputacja

Napisano

Up@

Też miałem takie wrażenie. Niestety, nasza wyszukiwarka mnie nie lubi...


  • 0





Użytkownicy przeglądający ten temat: 1

0 użytkowników, 1 gości oraz 0 użytkowników anonimowych

stat4u