Napisano 12.12.2012 - 09:49
Napisano 12.12.2012 - 10:07
Napisano 12.12.2012 - 12:12
Ależ dane z sond kosmicznych są kompresowane i to tak mocno, jak tylko się da bez utraty ich jakości. Ponadto w twoich wypowiedziach widzę kilka pułapek myślowych.KOMPRESJA - procesor pakuje dane robiąc np ze 100MB -> 1MB.
Dzięki temu czas przesyłania strumienia danych jest 100 razy krótszy
Napisano 12.12.2012 - 15:18
Przede wszystkim stopień kompresji danych zależy od przyjętego algorytmu, a nie od szybkości procesora. Rozumiem, że domagając się szybszego procesora chcesz, aby algorytm był wykonywany jak najszybciej, najlepiej w ułamku sekundy, ale popełniasz kolejny błąd wyobrażając sobie, że dane błyskawicznie skompresowane np. na Marsie równie błyskawicznie znajdą się na Ziemi. Zupełnie jakbyś zapomniał o kosmicznych odległościach i ograniczonej prędkości światła, na które z resztą zwrócono już tu uwagę.
Innym ograniczeniem, z którego być może nie zdajesz sobie sprawy, jest szybkość transmisji danych, uzależniona od mocy nadajnika. Dobrym przykładem może być misja łazika Curiosity na Marsie. Dane zebrane przez łazik są dostarczane na Ziemię za pośrednictwem sondy Mars Reconnaissance Orbiter (MRO), która może je przesyłać z prędkością 6 megabitów na sekundę, a więc całkiem szybko. Problem w tym że transmisja od łazika do sondy odbywa się trzy razy wolniej i ze względu na orbitę MRO jest ograniczona do 8 minut dziennie. Gdybyś wysłał tam swojego smartfona, to mógłbyś szybko kompresować duże ilości danych, ale musiałbyś też zainwestować w dodatkowe źródło zasilania i większą antenę dla usprawnienia łączności - oczywiście kosztem przyrządów badawczych, bo limit wagowy jest ograniczony.
Napisałeś o projekcie PhoneSat - i bardzo dobrze, bo to może być przyszłość technologii satelitarnej, jeśli tylko zda podstawowe testy i wyjdzie z powijaków. Ale wydaje mi się, że przyjmujesz błędne założenia co do czasu, w jakim przygotowywane są misje kosmiczne i dlatego dziwisz się, że stosuje się stary sprzęt. Opracowanie nawet najprostszej misji (choćby wysłanie balonu na wysokość kilkudziesięciu kilometrów) trwa miesiącami, a czas potrzebny na stworzenie bardziej ambitnego projektu idzie w lata, przy czym decyzje o potrzebnych komponentach podejmuje się na samym początku. Wspomniany łazik Curiosity wylądował w tym roku na Marsie mając na pokładzie sprzęt zatwierdzony 8 lat wcześniej. Już choćby z tego powodu nie można go było wyposażyć w procesor z dwuletniego smartfona ;-)
Napisano 12.12.2012 - 15:51
Napisano 12.12.2012 - 15:52
To dlaczego w kółko nawijałeś o szybszych procesorach, zamiast skoncentrować się na algorytmach kompresji? Jak już wspomniałem, to od algorytmu zależy, jaki ostateczny rozmiar będą miały przesyłane dane.Ja się zastanawiałem jak upchać jak największą ilość danych w jednym pakiecie.
Napisano 12.12.2012 - 16:16
To dlaczego w kółko nawijałeś o szybszych procesorach, zamiast skoncentrować się na algorytmach kompresji? Jak już wspomniałem, to od algorytmu zależy, jaki ostateczny rozmiar będą miały przesyłane dane.Ja się zastanawiałem jak upchać jak największą ilość danych w jednym pakiecie.
Napisano 12.12.2012 - 17:18
Więc teraz już nie chodzi ci o rozmiar spakowanych danych, tylko o szybkość kompresowania? Trudno za tobą nadążyć.
Napisano 12.12.2012 - 17:19
[...]
@Ironmacko - wiem doskonale, że większość formatów jest stratna ale podałem też przykład zwykłego RAR albo ZIP. Nie jestem specjalistą od kompresji i nie wiem jakimi programami to robić ale dla NASA pracują ludzie którzy wiedzą. Teraz do rzeczy - Sondy wyposażone są w wiele procesorów z których każdy obsługuję osobną aparaturę, a to oznacza, że jest tam sporo dodatkowych kilogramów. Ja natomiast tylko sugeruję, że zastosowanie jednego procesora z kilkoma backupami byłoby lżejsze. Nie mówiąc już o tym, że taka sonda mogłaby zabrać na pokład więcej aparatury badawczej na miejsce starych układów scalonych.
Napisano 12.12.2012 - 17:31
A nie uważasz, że z rozsądku lepiej mieć 10 fizycznie różnych procesorów, niż jeden? Przecież skazujesz się na totalną klapę jeśli pójdzie ten jeden, w pierwszej wersji ciągle możesz ratować misję, przecież jeszcze 9 urządzeń działa. (chyba, że dla Ciebie backup to kolejny procek..., tyle że to niczym się nie różni od kolejnych procesorów).
Jedna rzecz, której nie wyczytałeś jeszcze z mojego posta to fakt że może po prostu nie potrzeba lepszych procesorów, bo nie miałyby one co robić...
Użytkownik Striker edytował ten post 12.12.2012 - 17:32
Napisano 12.12.2012 - 19:05
Twoje przeskoki myślowe i nerwowość ;-) Według mnie ani jedno, ani drugie nie jest potrzebne w dyskusji.Powiedz mi Lynx co jest Ci tak trudno zrozumieć?
Jeśliby zawęzić zastosowanie szybkich procesorów do takiego typu satelitów, jaki opisałeś, to rzeczywiście miałyby one wyraźną przewagę, choć jednocześnie trudno mi sobie wyobrazić ich (satelitów) sensowne użycie. Na myśl przychodzi mi jedynie opcja rozrywkowa w postaci filmików "na żywo" gdzieś z kosmosu. W przypadku tradycyjnych sond kosmicznych z ich limitami energii, ograniczonymi sesjami łączności itp., szybkie procesory nie miałyby już takiej przewagi.Dane płyną strumieniem. Satelita nagrywa, kompresuje i przesyła cały czas nieprzerwanie. Mocny procesor jest potrzebny po to aby szybko i skutecznie kompresować dane.
Kto wie, może wraz z upowszechnianiem się eksploracji kosmosu ktoś kiedyś zacznie ich używać do kompresji danych z satelitów i sond. Na razie agencje kosmiczne korzystają z bardziej wysublimowanych algorytmów - innych dla każdego rodzaju danych - opracowanych specjalnie pod używane "wolne" procesory.Bardzo dobry i prosty algorytm ma rar lub zip
Napisano 12.12.2012 - 20:15
Jeśli dysponujemy łączem 6Mbit z Ziemią, to potrzebujemy procesora, który potrafi kompresować te 1.5MB/s bezstratnie. Nie ma potrzeby szybciej, bo trzeba będzie buforować coraz więcej danych. Gdzie?Łopatologicznie - Dane płyną strumieniem. Satelita nagrywa, kompresuje i przesyła cały czas nieprzerwanie. Mocny procesor jest potrzebny po to aby szybko i skutecznie kompresować dane.
To trochę nie ma sensuNo właśnie nie popełniam błędu - załóżmy, że dysponujemy ograniczonym łączem do np. 2mb/s i mamy 200 mb wavów do przesłania.
Jeśli zaczniemy je przesyłać łączem zajmie to bardzo długo ale jeśli skompresujemy te 200 mb wavów do 20mb np dajmy na to rarem to taką paczkę wyślemy 10 razy szybciej.
Ty wziąłeś pod uwagę tylko prędkość łącza i odległość. Ja się zastanawiałem jak upchać jak największą ilość danych w jednym pakiecie.
tar cvf - ~/test | xz -z9e > test.tar.xzzaalokowało 678MB pamięci i zabrało 18 minut 14 sekund czasu jednego rdzenia procesora C2D E6770 3,20GHz, gdzie testowane dane to było ok. 8 gigabajtów zdjęć w rawie. Ile czasu i energii poświęci na to sonda? I to nie jest jakiś nieoptymalny algorytm (w efekcie mamy paczkę o nieco ponad połowę mniejszą), aczkolwiek lzma2 niejako z definicji nie nadaje się to kompresji takich danych.
Algorytmy zastosowane w tych formatach nie potrafią efektywnie kompresować muzyki ani zdjęć. Co najwyżej mogłeś stosować zipa do dzielenia archiwum na części.Bardzo dobry i prosty algorytm ma rar lub zip - spakuj sobie 300 mega na komputerze zasilanym procesorem x486 i na współczesnym PC - ja akurat od x486 zaczynałem i pracowałem w DOS gdzie nie było grafiki. Ponieważ kiedyś nie było CD całymi dniami używaliśmy kompresji ZIP i RAR aby kompresować gry i muzykę na pliki dyskietki o pojemności 1,44 mb.
No kolego od zipa i rara, nie wywołuj wilka z lasu, bo ja widzę, ze ignorancją w temacie to Ty się tu popisujesz.Więc albo jesteś totalnym ignorantem i nie przeczytałeś kompletnie niczego w tym temacie albo prowokatorem tak czy inaczej minus za prowokacje.
Użytkownik Ill edytował ten post 12.12.2012 - 20:30
Napisano 12.12.2012 - 22:03
Nie zajmuję się projektowaniem sond kosmicznych, ani w ogóle tego typu zagadnieniami inżynieryjnymi, ale zdrowy rozsądek podsuwa zupełnie inne rozwiązanie, w którym moc obliczeniowa procesora nie ma najmniejszego znaczenia, a dane będą kompresowane znacznie szybciej, niż przy użyciu nawet najmocniejszego procesora dostępnego dziś na rynku. Mam na myśli kompresję sprzętową. Nie wiem, czy faktycznie stosowane są takie rozwiązania w sondach, czy ogólnie statkach lub pojazdach kosmicznych, ale wiem na pewno, że są na rynku urządzenia pozwalające kompresować i dekompresować strumień danych równolegle z przepustowością do 10GB/s albo i więcej, co dalece wykracza poza możliwości standardowych procesorów. Gzip jest dosyć przyzwoitym algorytmem, a kilka sprzętowych kompresorów w sondzie spełni z nawiązką wszelkie wymagania dotyczące kompresowania zbieranych danych.Btw. rar i zip są stosunkowo słabe, jeśli chodzi o kompresję. Istnieją algorytmy o znacznie silniejszym stopniu kompresji np. lzma2, ale to wymaga dużej mocy procesora i dużej ilości przydzielonej pamięci, której sonda nie ma.
Napisano 13.12.2012 - 11:58
0 użytkowników, 0 gości oraz 0 użytkowników anonimowych