Skocz do zawartości


Zdjęcie

TRYB BOGA


  • Zaloguj się, aby dodać odpowiedź
96 odpowiedzi w tym temacie

Ankieta: Tryb Boga (41 użytkowników oddało głos)

Czy zgadzasz się z czterema teoriami ?

  1. tak (12 głosów [29.27%] - Zobacz)

    Procent z głosów: 29.27%

  2. nie (29 głosów [70.73%] - Zobacz)

    Procent z głosów: 70.73%

Czy ludzkość w nie długim czasie będzie posiadała tryb Boga ?

  1. tak (6 głosów [14.63%] - Zobacz)

    Procent z głosów: 14.63%

  2. nie (35 głosów [85.37%] - Zobacz)

    Procent z głosów: 85.37%

Czy zgadzasz się z faktem, że obca inteligencja posiada technologię 4 teorii i stosuje ją na ludziach ?

  1. tak (14 głosów [34.15%] - Zobacz)

    Procent z głosów: 34.15%

  2. nie (27 głosów [65.85%] - Zobacz)

    Procent z głosów: 65.85%

Głosuj Goście nie mogą oddawać głosów

#91

Staniq.

    In principio erat Verbum.

  • Postów: 6631
  • Tematów: 766
  • Płeć:Mężczyzna
  • Artykułów: 28
Reputacja znakomita
Reputacja

Napisano

Up@
No właśnie, a przedtem napisałeś, że to wskutek odrodzenia się jako Bóg następuje cierpienie, a nie wskutek złych działań.

... Dlatego, gdy długie życie bogów dobiegnie końca, odradzają się oni w niższych światach, w których pełno jest cierpienia. Tak więc, skutkiem odrodzenia się jako bóg nie jest nic innego, jak tylko cierpienie.


Co do karmy złej lub dobrej, to już wiesz, że na to, ma wpływ postępowanie istoty która jej doświadcza, wszak reinkarnacja dotyczy wszystkich istot żyjących. Prawda?



#92

XGOŚĆ.
  • Postów: 429
  • Tematów: 11
  • Płeć:Mężczyzna
Reputacja zadowalająca
Reputacja

Napisano

Up@
No właśnie, a przedtem napisałeś, że to wskutek odrodzenia się jako Bóg następuje cierpienie, a nie wskutek złych działań.


... Dlatego, gdy długie życie bogów dobiegnie końca, odradzają się oni w niższych światach, w których pełno jest cierpienia. Tak więc, skutkiem odrodzenia się jako bóg nie jest nic innego, jak tylko cierpienie.


Co do karmy złej lub dobrej, to już wiesz, że na to, ma wpływ postępowanie istoty która jej doświadcza, wszak reinkarnacja dotyczy wszystkich istot żyjących. Prawda?


Z naukowego punktu widzenia reinkarnacja nie istnieje, chyba, że posiadamy technologię, która przeniesie nasz mózg w nowe ciało. Nie wierze w reinkarnacje. Naszczęście jest to tylko teoria.

Mamy jedno życie, jak się urodzisz i po latach powiesz, że pamietasz jedynie skrawki z dzieciństwa jest to potwierdzeniem, że przed narodzinami nic nie było dla nas. Jeżeli umrzemy to tylko raz!

Ten byt który jest w nas w tym czasie co żyjemy jest jedyny dla tego świata!

Życie jest cudowne, ale dlaczego takie krótkie? Już wiemy, że nasza technologia za 10lat będzie na takim etapie, etapie zwiekszenia długości życia do 300-500lat!

Trzeba cieszyć się życiem, np. taki Noe żył 949 lat, musiałbyć zajebiście mądry, niczym Bóg :)
  • -1

#93

Aequitas.
  • Postów: 466
  • Tematów: 13
  • Płeć:Mężczyzna
Reputacja bardzo dobra
Reputacja

Napisano

Z naukowego punktu widzenia reinkarnacja nie istnieje, chyba, że posiadamy technologię, która przeniesie nasz mózg w nowe ciało. Nie wierze w reinkarnacje. Naszczęście jest to tylko teoria.


Z naukowego punktu widzenia nie istnieje lecz było kilka ciekawych przypadków które mogły by jako dowód posłużyć, między innymi (widziałem to jakieś 3 lata temu w telewizji) film o chłopcu który urodził się już w XXI wieku a mając zaledwie 3 lub 4 lata potrafił rozróżnić większość z samolotów z II wojny światowej a jego rodzice mówili iż nie miał on wcześniej kontaktu z żadnymi rzeczami tego pochodzenia.

Życie jest cudowne, ale dlaczego takie krótkie? Już wiemy, że nasza technologia za 10lat będzie na takim etapie, etapie zwiekszenia długości życia do 300-500lat!


Już wiemy? Znów próbujesz narzucać swoje zdanie, nie jesteś pewien jutrzejszego dnia ale wiesz że za 10 lat technologia będzie na takim etapie?
  • 0

#94

XGOŚĆ.
  • Postów: 429
  • Tematów: 11
  • Płeć:Mężczyzna
Reputacja zadowalająca
Reputacja

Napisano

Z naukowego punktu widzenia reinkarnacja nie istnieje, chyba, że posiadamy technologię, która przeniesie nasz mózg w nowe ciało. Nie wierze w reinkarnacje. Naszczęście jest to tylko teoria.


Z naukowego punktu widzenia nie istnieje lecz było kilka ciekawych przypadków które mogły by jako dowód posłużyć, między innymi (widziałem to jakieś 3 lata temu w telewizji) film o chłopcu który urodził się już w XXI wieku a mając zaledwie 3 lub 4 lata potrafił rozróżnić większość z samolotów z II wojny światowej a jego rodzice mówili iż nie miał on wcześniej kontaktu z żadnymi rzeczami tego pochodzenia.

Życie jest cudowne, ale dlaczego takie krótkie? Już wiemy, że nasza technologia za 10lat będzie na takim etapie, etapie zwiekszenia długości życia do 300-500lat!


Już wiemy? Znów próbujesz narzucać swoje zdanie, nie jesteś pewien jutrzejszego dnia ale wiesz że za 10 lat technologia będzie na takim etapie?


Ja nie narzucam swojego zdania, wielu naukowców z genetyki wypowiada się w tym temacie, że za 10lat będzie możliwość przedlużenia życia, co prawda dla nielicznych, czyt. bogatych, którzy to nie będą szczędzić środków aby posiadać namiastkę nieśmiertelności!

Jeżeli chodzi o jutro to jestem pewny na 101 procent co będe robił, ale jak wiadomo, nikt nie zna przyszłości, jak narazie... ;)

Artykuł: Chirurgia dziś i jutro!
Tadeusz Popiela */

Medycyna to jedna z najstarszych dziedzin wiedzy, tak stara jak dzieje ludzkości. Ta, korygująca ułomności ludzkiego organizmu nauka od początku swojego istnienia stała przed coraz to nowymi wyzwaniami, skazana była na odkrywanie coraz to głębiej ukrytych tajemnic, wielokrotnie dokonywać musiała niezwykle trudnych wyborów.
Taka bowiem jest natura tej dyscypliny nauki.
Osiągnięcia naukowe w zakresie biologii molekularnej i genetyki roztaczają przed nami i przed naszymi chorymi fantastyczne wizje na przyszłość. Wydaje się wręcz, że stoimy u wrót poznania tajemnicy życia, poznania zagadki powstawania raka, zastosowania metod genetycznych do wyeliminowania schorzeń wrodzonych i poprawy własnej odporności chorego.

*/ I Katedra Chirurgii Ogólnej i Klinika Chirurgii Gastroenterologicznej Collegium Medicum Uniwersytetu Jagiellońskiego w Krakowie, Zakład Radioterapii Śródoperacyjnej i Chemioterapii – kierownik: prof. dr hab. med. Tadeusz Popiela

Informacje zawarte w nici DNA stają się dla nas coraz bardziej zrozumiałe. Co więcej, coraz częściej możemy ingerować w budowę chromosomu usuwając fragmenty niekorzystne z punktu widzenia medycyny. Możemy też przy pomocy enzymów i tzw. wektorów (np. wirusów) przenosić fragmenty nici DNA z zawartą w nich informacją do proliferującej komórki.
Na obecnym etapie wiedzy biologia molekularna umożliwia już zmiany w zakresie budowy chromosomów. Dzięki tym metodom możemy już dzisiaj leczyć niektóre wady genetyczne np. wrodzony brak enzymu może być wyleczony nawet u dorosłego człowieka, gdy do DNA w jego komórkach przyłączy się wirus z „doczepionym" fragmentem informacji o tym enzymie.
W przyszłości nasza wiedza szczegółowa rozwinie się na tyle, że będziemy mogli precyzyjnie i celowo ingerować w budowę chromosomów. Teoretycznie tego typu leczenie nie ma ograniczeń i w zasadzie można na tej drodze leczyć wszelkie choroby wrodzone i wiele nabytych. Również nowotwory, jako schorzenia, które w swej patogenezie mają komponentę genetyczną, mogą teoretycznie być już dzisiaj wyleczone przy pomocy metod biologii molekularnej. Bardziej prawdopodobny jest jednak scenariusz chirurgicznego wycięcia guza nowotworowego i następnie usuwanie genetycznych przyczyn powstania nowotworu przy pomocy inżynierii genetycznej. Możliwe wydaje się też w przyszłości sterowanie procesami wzrostu komórek i np. poprzez przyśpieszenie ukierunkowanej regeneracji, odtworzenie wyciętych lub zniszczonych tkanek, czy nawet organów. Niedawno poznany fenomen apoptozy pozwala przypuszczać, że w odległej przyszłości również i długość życia ludzkiego może zostać wydłużona dzięki świadomej interwencji nauki.
Trudno sobie teraz wyobrazić, jaka w świetle tych przemian będzie rola chirurgii, a szczególnie chirurgii resekcyjnej. Można sądzić, że dzięki postępom medycyny molekulearnej i farmakologii konwencjonalnej, należy spodziewać się wyeliminowania wielu dzisiaj pospolitych schorzeń. Na przykład dzięki zmianie litogenności żółci wykluczona zostanie kamica żółciowa, jako przyczyna chorób. Być może nowe odkrycia, w zakresie funkcjonowania układu immunologicznego i hormonalnego, zapobiegną występowaniu chorób autoimmunologicznych, przewlekłego i ostrego zapalenia trzustki, chorób zapalnych jelit. Już obecnie obserwujemy znaczne zmniejszenie się liczby operacji z powodu choroby wrzodowej dwunastnicy i żołądka, która jest skutecznie leczona farmakologicznie.
Chirurgia resekcyjna, jako taka, najprawdopodobniej zostanie w przyszłości ograniczona do zakresu chirurgii onkologicznej. Nastąpi natomiast dynamiczny rozwój chirurgii urazowej, korekcyjnej i wytwórczej, gdyż jak można sądzić z naszych dotychczasowych doświadczeń, rozwojowi techniki zawsze towarzyszy wzmożona ilość urazów. Centrum uwagi chirurgii przeniesie się, więc, najprawdopodobniej na chirurgię katastrof z chirurgią wytwórczą, chirurgią transplantacyjną i chirurgią onkologiczną u podstaw działalności zabiegowej.
Pozostawiam te rozważania przedstawicielom nauk podstawowych. Sam chcę się ograniczyć do przeanalizowania logicznych następstw przemian, jakie obserwujemy w chirurgii w ostatnich latach.
Chirurgia jest dziedziną medycyny, która w zamian za ryzyko bólu, cierpień i kalectwa, daje choremu szansę prędkiego i trwałego wyleczenia. Cała myśl naukowa chirurgii ukierunkowana była przez lata i jest ukierunkowana obecnie, by zmniejszyć jej negatywne następstwa. Złoty okres chirurgii miał miejsce na przełomie XIX wieku, kiedy to dzięki znieczuleniu ogólnemu i miejscowemu oraz zrozumieniu zasad aseptyki i antyseptyki, można było operować coraz bezpieczniej i w tym okresie sformułowane zostały podstawowe założenia i schematy postępowania w większości chorób leczonych chirurgicznie. Od tego czasu postęp dyktowany był przez udoskonalanie metod chirurgicznych, wprowadzanie coraz to lepszych narzędzi i materiałów oraz poprzez udoskonalanie metod diagnostycznych, szczególnie diagnostyki obrazowej (image assisted operation), co pozwalało na coraz to precyzyjniejsze i pewniejsze leczenie operacyjne. Statystyczne analizy efektywności leczenia i porównywania metod terapeutycznych wymusiły w konsekwencji nowatorstwo i w tej, kiedyś nazywanej konserwatywną, dziedzinie jaką jest chirurgia. Zastosowanie znajdują procedury tańsze, pewniejsze i skuteczniejsze. Minimalizacja urazu operacyjnego osiągana poprzez użycie metod operacji endoskopowych, najlepiej chyba odzwierciedla znak czasu. Endoskopia i techniki laparoskopowe opanowują coraz to nowe dziedziny chirurgii dając te same efekty przy o wiele mniejszym urazie chorego. Zmniejszają przy tym koszt leczenia poprzez skrócenie czasu pobytu w szpitalu. Dotyczy to szczególnie chirurgii brzusznej, torakochirurgii, kardiochirurgu, urologii, chirurgii naczyniowej, ortopedii i ginekologii. Oczywiście modernizacja sprzętu i materiałów postępuje i będzie postępowała, zaś lasery, noże ultrasoniczne, automatyczne szwy mechaniczne ułatwią procedury chirurgiczne i sprawią, że staną się one pewniejsze. Można też przewidzieć, że niedługo już takie pojęcie jak robotyka (czyli użycie narzędzi zdalnie sterowanych) zajmie stałe miejsce w chirurgii.
Już obecnie organizowane są konsultacje, czy nawet zabiegi na odległość, gdzie lekarz, dysponując modelem wirtualnym pacjenta, wykonuje zabieg poprzez manipulatory w odległej o setki kilometrów sali operacyjnej. Przyczynia się do tego także burzliwy rozwój technik przesyłania danych i sieci informatycznych.
Dalece zaawansowane badania nad sztuczną inteligencją wskazują drogę przypuszczalnej, coraz to znaczniejszej roli komputera w analizie sytuacji i w podejmowaniu decyzji diagnostycznych i terapeutycznych. Prawdopodobnie, w typowych sytuacjach klinicznych, swoboda decyzji człowieka będzie w przyszłości minimalna i ograniczy się do nadzorowania przebiegu leczenia. Również szkolenie studentów i młodych lekarzy będzie, a nawet już jest, oparte głównie na informacji multimedialnej i środowiskach wirtualnych. Bezpośredni dostęp do chorego zostanie w dużym stopniu ograniczony.
Wyniki leczenia nowotworów są obecnie nadal nie w pełni zadawalające. W przyszłości oczekuje się efektów terapii genetycznej, lecz raczej w profilaktyce występowania nowotworów niż w ich leczeniu. Biologia molekularna i genetyka otworzyły możliwość wprowadzenia materiału genetycznego do organizmu w celu uzyskania efektu terapeutycznego określanej obecnie szeroko pojętej terapii genowej. Jest już obecnie możliwa izolacja komórek nowotworowych i ich translekcja (wzrost immunogenności), następnie selekcja komórek stabilnie transfekowanych i przygotowanie „autoszczepionki”. Stało się także możliwe kodowanie izolowanych komórek nowotworowych z krwi i ze szpiku, a to pozwala na badanie chemioczułości i indywidualizowanie strategii terapeutycznej. Tak, więc walka z nowotworami toczy się obecnie równocześnie w laboratorium i w sali operacyjnej. W tej dziedzinie obserwuje się dążność do synchronizacji i koordynacji wielu typów terapii (chirurgia, chemioterapia, chemioimmunochirurgia, radioterapia) i należy przewidywać, że w przyszłości chory z nowotworem najpierw odbędzie leczenie genetyczne, a następnie nowotwór będzie usuwany przy użyciu wielu metod jednocześnie, przy czym rolę koordynatora procesu leczenia najprawdopodobniej będzie spełniał właśnie chirurg. Już obecnie w wielu szpitalach chirurdzy obejmują chorych na nowotwory wielodyscyplinarnym całościowym leczeniem.
Ostatnie informacje o możliwości klonowania ssaków zmuszają do refleksji i zastanowienia się nad możliwością zastosowania wyhodowanych narządów dla celów transplantologii. Możliwość zdobycia „idealnego przeszczepu" spowoduje w wielu przypadkach zastosowanie transplantacji w miejsce aktualnie stosowanych terapii. Należy przewidywać rozwój tej dziedziny chirurgii opartej na bazie hodowli narządów nawet mimo znacznych wątpliwości natury etycznej i moralnej.

Generalizując, można zauważyć, że w rozwoju chirurgii rysują się następujące kierunki:
1. zmniejszenie stopnia urazu (minimal access surgery)
2. oddalenie chirurga od operowanego chorego i pośredni dostęp do chorego (endoskopia, laparoskopia, telepresent surgery, robotics)
3. sztuczna inteligencja i wspomaganie komputerowe diagnostyki i terapii (computer assisted surgery)
4. poszerzenie roli transplantacji
5. centralizacja, generalizacja i koordynacja metod.

Nierozsądnie jest oczekiwać przyszłości z pełnym zaufania optymizmem. Nadchodzące przemiany mogą mieć, nie tylko aspekty pozytywne, lecz również negatywne i każdy z poprzednio omówionych kierunków rozwoju chirurgii, w pewnym stopniu jest dla mnie niepokojący, mogąc stworzyć zagrożenie istotnych jej wartości.
Mając na widoku zawsze dobro chorego i próbując patrzyć na przyszłą chirurgię z punktu widzenia jego interesów, potrzeb i frustracji, widzę wiele niebezpieczeństw nawet w najbliższej przyszłości rozwoju naszej specjalności. Oddalenie chirurga od pola operacyjnego i pośredni dostęp do chorego, poprzez użycie na przykład manipulatorów, może być z punktu widzenia techniki operacyjnej słuszne i potrzebne, ale uważam, że chirurg powinien mieć kontakt z chorym, jako lekarz, i tendencje do traktowania chorego człowieka czysto technicznie nie zgadzają się z moim zrozumieniem istoty chirurgii. Nie tylko dehumanizacja i technizacja jest zagrożeniem dla chirurgii XXI wieku. System nauki młodych chirurgów, opierający się na wielowiekowych tradycjach uniwersyteckich obecnie ulega zachwianiu. Nowe metody szkolenia, skądinąd bardzo skuteczne dla zdobywania informacji i ćwiczenia technik, nie pozostawiają miejsca dla wychowania chirurga. Dziwi i oburza mnie coraz częstsza sytuacja, gdy młody chirurg wyspecjalizowany jest tylko w typie operacji laparoskopowych i nie potrafi leczyć chirurgicznie własnych powikłań. Zmuszony jest odsyłać tych chorych do innych placówek mimo, że ma pełną możliwość ich zaopatrzenia. Dla mnie chirurgia to nie tylko narzędzia i technika, to lata zdobywania wiedzy na temat człowieka. Być może niepokój ten jest przejawem mojego konserwatyzmu i obawy o przyszłość. Być może w nowym pokoleniu wychowanym na grach komputerowych wytworzy się inna mentalność.
Najtrudniejszy jest jednak okres przejściowy - najbliższa przyszłość. Dlatego też chciałbym te problemy poddać ogólnej dyskusji by, jeśli są one również wyrazem troski całego środowiska, sformułować wspólnie zasady postępowania, by obronić te wartości chirurgii, których utracić nie może i nie powinna. Ochronić chirurgię przed dehumanizacją mogą tylko sami chirurdzy, a Towarzystwa Naukowe jako korporacje winny być gwarantem nie tylko odpowiedniego poziomu nauczania studentów i młodych chirurgów, ale także ich wychowania.

Źródło: http://www.portalwie...hiwum&Itemid=69
  • 0

#95

XGOŚĆ.
  • Postów: 429
  • Tematów: 11
  • Płeć:Mężczyzna
Reputacja zadowalająca
Reputacja

Napisano

4. Teoria Nieśmiertelności

cyt."Opublikowane w magazynie Current Biology wyniki badań nad białkiem p53 wykazały, że muszki owocówki (D.melanogaster) mogą żyć znacząco dłużej jeśli aktywność ich genu p53, na podstawie którego powstaje białko supresyjne nowotworów p53, jest zredukowana w komórkach nerwowy.

Badania rzucają nowe światło na rolę „strażnika genomu” p53, odgrywającego także rolę w starzeniu się komórek. Białko p53 stało się zatem celem leków przeciwko starzeniu się.

Białko p53 odgrywa znaczącą rolę w ciele człowieka. Zabezpiecza ludzkie komórki przez produkcją białek powodujących apoptozę (czyli samobójstwo komórki), gdy DNA komórki zostanie uszkodzone. Zapobiega to rozprzestrzenianiu się mutacji genetycznych i formowaniu nowotworów. Uszkodzenie lub brak genu p53 może wywołać nowotwór. W rzeczywistości, ponad 50% ludzkich nowotworów nosi mutację tego genu.

Istnieje jednak druga strona „działalności” genu p53. Gdy jest on nadaktywny i w wyniku jego ekspresji produkowana jest nadmierna ilość białka supresyjnego nowotworów –przyspieszone jest starzenie się komórek u myszy.

Badania prowadzone na Uniwersytecie w Brown wykazały istnienie „złotego środka” aktywności genu p53. Powodując zmniejszenie syntezy białka p53 w neuronach można wydłużyć życie u muszki owocówki. Nowością i zaskoczeniem jest, że zmniejszenie aktywności genu p53 może mieć pozytywne efekty w walce ze starzeniem się komórek.

Przeprowadzono eksperyment na muszkach, które jak wiadomo dzielą z nami tysiące takich samych genów i także ekspresują swoją wersję genu p53. Naukowcy skonstruowali linię muszek niosących zmutowana wersję genu p53 oprócz tej normalnej. Muszki miały aktywną wersję zmutowanego genu produkującą zmutowane białko, które dezaktywowało normalne białko p53, także występujące w tym samym organizmie. Efekt eksperymentu miał uwidocznić się jedynie w neuronach, ponieważ dorosłe komórki nerwowe nie dzielą się, co sprawia że są mniej podatne na wystąpienie nowotworu.

Wyniki pokazały, że dorosłe zmutowane muszki żyły nawet o 58% dłużej, średnio 60 dni (normalna długość życia muszki owocówki to 38 dni). „Długowieczne” muszki były do tego zdrowe, normalnie się odżywiały, poruszały i rozmnażały.

Eksperyment nie wyjaśnia dlaczego zmniejszona aktywność genu p53 wydłuża życie, ale sugeruje się udział białka p53 w mechanizmie ograniczający kalorie i w biochemicznej kaskadzie powodującej zwolnienie tempa starzenia się komórek.

Źródło: Brown University
http://www.biotechno...pl/news-279.htm


cyt."Najbardziej wiarygodnym sposobem przedstawiającym rolę genów w fakcie długowieczności są badania na bliźniętach (Dania, roczniki 1870-1900). Dane obejmują tylko kilka pokoleń, ale wg jednej z analiz stwierdzono, że na długość życia wpływa ok. 70% ludzkich genów .

Genetyka potwierdziła także, że średnia długość życia wyższa od przeciętnej jest cechą osób mających długowiecznych przodków (pionierskie badania Pearl 1934).

Z pokoleń muszki owocowej , której okres dojrzewania wynosi ok. 5 tygodni łatwo było naukowcom wyselekcjonować i rozmnażać osobniki żyjące najdłużej. W każdym tak dobranym nowym pokoleniu muszki żyły dłużej niż ich przodkowie.

Zaś niewielka mutacja jednego z genów u muszki owocówki powoduje dwukrotne wydłużenie jej życia.

Dzięki inżynierii genetycznej udało się dwukrotnie wydłużyć średni czas życia nicieni."

Źródło: D. Hamer, P. Copeland, Geny a charakter. Jak sobie radzić z genetycznym dziedzictwem. Warszawa 2005


1. Teoria Próżni kwantowej - Wolna Energia - FAKTY

cyt." Technologie wykorzystujące wolną energię i o współczynniku sprawności przekraczającym jeden

Siła Lorentza to dobrze znana siła powstająca w rezultacie oddziaływania pola magnetycznego i prądu elektrycznego. W konsekwencji technologia pulsacyjna może być wykorzystywana w powiązaniu z energią elektromagnetyczną. Taka energia elektromagnetyczna jest obecnie brana pod uwagę przez wielu „naukowców nowej energii”, którzy eksperymentują w celu stworzenia technologii o współczynniku sprawności przekraczającym jeden, co jest kluczowe nie tylko dla podróży międzyplanetarnych, ale i technologii wolnej energii (w języku angielskim ten rodzaj wszechobecnej energii jest określany przymiotnikiem „free”, który znaczy także „darmowy”, i oba te znaczenia - „wolny” i „darmowy” - są używane na jej określenie; w celu uproszczenia opisu w dalszej części tego artykułu będziemy używali przymiotnika „wolna” - przyp. red.). Urządzenia oparte na tej technologii nie wytwarzają energii, ale raczej zamieniają istniejący potencjał użytecznej energii, której źródło nie jest obecnie znane nauce.

Według wynalazców Thomasa Beardena (www.cheniere.org ), Stephena Patricka i innych, którzy wystąpili o amerykański patent na Nieruchomy Generator Elektromagnetyczny (Motionless Electromagnetic Generator; w skrócie MEG) (US Patent 6362718, udzielony 26 marca 2002 roku), ta technologia stanowi właściwy krok w kierunku budowy urządzeń o współczynniku sprawności przekraczającym jeden wykorzystujących wolną energię (patrz www.byronwine.com/files/MEG.pdf). W streszczeniu opisu wynalazku podają oni, że prototyp ich elektromagnetycznego generatora składa się ze stałego magnesu i magnetycznego rdzenia z pierwszą i wtórną ścieżką magnetyczną. Posiada on cewki wejściowe, którym nadawane są przemiennie impulsy, aby indukować pulsacje prądu w cewkach wyjściowych. Przepuszczanie prądu elektrycznego przez każdą z wejściowych cewek ogranicza poziom magnetycznego strumienia ze stałego magnesu w granicach zasięgu magnesu, wokół którego jest umieszczona cewka wejściowa. Mówi się, że nieruchomy generator elektromagnetyczny ma współczynnik sprawności większy od jedności, czyli działa na zasadzie „ponadjedności”.

Według brytyjskiego fizyka Duncana Barkera MEG przypomina transformator i składa się z pustego rdzenia ze stałym magnesem wewnątrz. Napędzające cewki umieszczone po obu stronach magnesu przełączają strumień to w jedną, to w drugą stronę rdzenia. Cewki zbierające generują napięcie ze zmiennego strumienia magnetycznego. Obciążenie jest przyłączane do wyjścia cewek zbierających. Urządzenie wykorzystuje efekt geometrycznej fazy albo efekt Aharonova-Bohma odkryty przez Jakira Aharonova, Davida Bohma i innych w roku 1959, który jest dobrze znany w mechanice i elektrodynamice kwantowej. Efekt Aharonova-Bohma dowodzi wyższości potencjałów nad związanymi z nimi polami i wykazuje, że efekty pola elektrycznego mogą powstawać z potencjału magnetycznego wektora (A), nawet pod nieobecność pola magnetycznego (B). Używając rdzenia o dużej przenikliwości, nieruchomy generator elektromagnetyczny oddziela potencjał A i pole B, dzięki czemu pole magnetyczne (B) jest ograniczone wyłącznie do rdzenia o wysokiej przenikliwości. Pozostawia to wektor potencjału (A) poza cewką i w ten sposób tworzy pole elektryczne, które jest wyczuwane przez elektrony w cewce zbierającej, generując prąd.

Wytyczne do mierzenia „ponadjedności”

Mimo iż wielu wynalazców i naukowców pracuje nad uzyskaniem sprawności przekraczającej jeden („ponadjedności”), nasz bliski współpracownik dr Patrick Bailey, absolwent MIT i były szef projektu w Instytucie Badawczym Energii Elektrycznej (Electric Power Research Institute; w skrócie EPRI), zaleca badaczom bez naukowego wykształcenia daleko posuniętą ostrożność. Dr Bailey utrzymuje, że jest łatwo zaplanować proste doświadczenie z wykorzystaniem niewłaściwego sprzętu, które wykaże, że dane urządzenie wytwarza „na wyjściu więcej energii, niż jej pobiera”. W ostatnich 25 latach dr Bailey sprawdził i opisał wspólnie ze mną (dr J.J. Hurtak) ponad 150 systemów energetycznych, których sprawność przekraczała według ich twórców jeden lub wytwarzały one tak zwaną „czystą energię”.

Po przeprowadzeniu szeroko zakrojonych badań dr Bailey twierdzi, że do określenia prawdziwego napięcia, natężenia i mocy takich urządzeń należy używać cyfrowego oscyloskopu wysokiej częstotliwości. Podkreśla, że w większości przypadków ludzie mierzą pulsujący prąd stały wysokiej częstotliwości na wyjściu lub szybko pulsujące fale prądu i kiedy używają do tego przyrządów pomiarowych prądu zmiennego, które zostały skalibrowane do fali sinusoidalnej 0,707 RMS (root mean square - średnia kwadratowa), mogą otrzymywać bardzo niedokładne wyniki. Tak więc pomiary wykonywane przy pomocy przyrządów pomiarowych prądu zmiennego, takich jak na przykład stary woltomierz lampowy, dają przekłamane wyniki. Przy prostym oporniku, kondensatorze i zestawie indukcyjnym takie urządzenie może dawać fałszywy odczyt wskazujący na współczynnik sprawności przekraczający jeden, ponieważ ta metoda pomiaru ignoruje kąt fazowy między natężeniem i napięciem. Dokładny pomiar wymaga cyfrowego zapisu napięcia w czasie (przy użyciu wielu punktów pomiarowych w cyklu) oraz podobnie zapisywanego natężenia w czasie, po czym moc powinna być obliczona cyfrowo punkt po punkcie. Następnie moc na wejściu i na wyjściu można uśrednić na podstawie danych z dowolnego cyklu będącego przedmiotem pomiaru. W ten sposób otrzymamy prawdziwą wartość stosunku mocy na wyjściu do mocy na wejściu (patrz http://www.padrak.co...NGERSPOWER.html).

Urządzenia wykorzystujące energię elektromagnetyczną

Istnieje jednak wiele udanych rozwiązań, które posuwają te poszukiwania do przodu. Osobiście oglądaliśmy wynalazek zaprezentowany przez Kohei Minato z Tokio, który jest posiadaczem dwóch amerykańskich patentów, w tym na „Magnetic Rotation Apparatus” („Magnetyczny aparat obrotowy”) (US Patent nr 4751 486, klasa 335/272, udzielony 14 czerwca 1998 roku). Urządzenie Minato przypomina koło i ma wałek obrotowy z rozmieszczonymi wokół niego stałymi magnesami, których część jest usytuowana pod kątem i zwrócona tymi samymi biegunami na zewnątrz.

Mimo iż Minato nie twierdzi, że generuje wolną energię, wygląda na to, że czerpie ją z nieznanego źródła, co sprawia, że otrzymuje na wyjściu więcej energii, niż pobiera jej na wejściu. Sprawozdania głoszą, że elektromagnetyczny silnik Minato ma współczynnik sprawności kilka razy wyższy od jedności i że do wytworzenia 500 watów mocy na wyjściu zużywa jedynie 34 waty na wejściu. Inne testy wykazały, że do wyprodukowania 300 watów na wyjściu potrzeba 16 watów na wejściu. (Dalsze komentarze na ten temat można znaleźć pod adresem http://keelynet.com/gravity/curtis.htm).

Zauważyliśmy, że Minato używa elektromagnesów, do których naładowania potrzeba niewielkiej ilości energii elektrycznej, i kiedy już funkcjonują one jako „magnetyczny zestaw”, dostarczają takiej ilości energii, która pozwala obracać się kołu, wytwarzając więcej użytecznej energii, niż jej zużywając. Co równie ważne w nowoczesnej technice, ten zestaw wytwarza bardzo mało lub w ogóle nie generuje ciepła ani dźwięku, a jedynie obroty koła. Sceptycy podkreślają, że energia z urządzenia Minato nie pochodzi ze stałych magnesów, ale z magnesów ładowanych elektrycznie (elektromagnesów). Mimo to jest to fascynująca metoda, nawet jeśli jest stosowana tylko w wentylatorach i układach chłodzących, jak to ma obecnie miejsce.

Obecnie trwają prace nad wieloma innymi elektromagnetycznymi rozwiązaniami. Część tych urządzeń przedstawia elektroniczna książka A Practical Guide to Free Energy Devices (Praktyczny przewodnik po urządzeniach wykorzystujących wolną energię), którą można pobrać ze strony www.free-energy-info.co.uk). Badacze donoszą o udanych replikach niektórych z przedstawionych tam konstrukcji.
Wynalazca John Bales stworzył niezwykły zestaw statora i rotora. Jego amerykański patent (nr 6552460) zatytułowany „Brushless Electro-mechanical Machine” („Bezszczotkowa maszyna elektromechaniczna”), udzielony mu 22 kwietnia 2003 roku, dotyczy zarówno elementów statora, jak i rotora. Stator jest wyposażony w co najmniej jeden zestaw czterech elektromagnetycznych części w kształcie torusów umieszczonych wzdłuż fragmentu łuku w ściśle określonych odległościach. Każda z tych części ma szczelinę, zaś rotor dostosowany do przechodzenia przez nią dysk. Dysk posiada szereg stałych magnesów rozmieszczonych obok siebie przy krawędzi ułożonych na przemian przeciwnymi biegunami. Człony elektromagnetyczne są pobudzane w czterofazowym trybie przyciągania-odpychania, tak by wytworzyć wysoki moment obrotowy.

Dlaczego wszystkich naukowców tak bardzo intrygują urządzenia na energię elektromagnetyczną? Po pierwsze, dlatego że rzeczywiste źródło pól elektromagnetycznych jest nie w pełni zrozumiałe. Po drugie, wydaje się, że istnieje jakaś „siła”, która może przesuwać obiekty poprzez proste oddziaływanie z polem magnetycznym, generując jednocześnie pole elektryczne. Oczywiście prąd elektryczny generuje pole magnetyczne, jako że elektryczność i magnetyzm wydają się być spokrewnione z tą samą siłą lub polem falowym i są zawsze w jakiś sposób powiązane. W stałych magnesach istnieje zarówno pole magnetyczne, jak i prąd elektryczny. Jednak rodzi się pytanie: „Czy pole jest w magnesie, czypoza nim, w otaczającym «strumieniu energetycznymi lub w kwantowym polu wokół magnesu?”

Pola magnetyczne zawsze są w ruchu lub wirują i generalnie traktuje się je jako nieszkodliwe i nie zanieczyszczające środowiska - teoretycznie mogą istnieć w każdym zakątku wszechświata. Te generatory wykorzystują pewne aranżacje północnych i/lub południowych biegunów i próbują uzyskać poprzez obroty koła lub przepływ prądu elektrycznego efekt „ponadjedności” (czasami bardzo niewielki prąd wtórnego obwodu jest wykorzystywany do naładowania pierwotnego pola). Sądzimy, że cywilizacje przemierzające kosmos mogły opanować tę technikę i wykorzystują ją do ciągłych podróży po wszechświecie. Opanowanie technologii generowania energii za pomocą wirujących „pól falowych” wyeliminowałoby potrzebę stosowania dodatkowych konwencjonalnych źródeł energii.

Podczas gdy urządzenie Balesa bazuje na umieszczonych obok siebie magnesach z naprzemiennie usytuowanymi biegunami, John Bedini podszedł w swoim urządzeniu do tego zagadnienia inaczej (patrz www.johnbedini.net). Bendini ściśle współpracował z Tomem Beardenem i 21 maja 2002 roku otrzymał w Stanach Zjednoczonych patent (nr 6392370) zatytułowany „Device and Method of a Back EMF Permanent Electromagnetic Motor Generator” („Urządzenie i metoda działania opartego na sile przeciwelektromotorycznej stałego elektromagnetycznego silnika-generatora”). To urządzenie posiada rotor z magnesami o tych samych biegunach oraz cewki wejściowe i wyjściowe wykonane w ten sposób, że każdy rdzeń jest owinięty przewodnikiem prądu, takim jak na przykład miedziany drut. Jedna z najnowszych wersji jego silnika/generatora jest dziesięciobiegunową maszyną z rotorem posiadającym stałe magnesy i równoległymi - pierwotnymi i wtórnymi - uzwojeniami na cewkach umieszczonych na zewnątrz motoru.
Magnesy rotora są w opozycji do namagnesowanych biegunowych części wewnętrznych cewek. W wynalazku tym pole strumienia stworzone przez cewki zapada się z powodu odwrócenia pola magnetycznego w namagnesowanych biegunowych częściach, umożliwiając w ten sposób przejęcie energii siły przeciwelektromotorycznej (elektromagnetycznego pulsu).

Bedini pracował również nad urządzeniem nazwanym Bączkiem Hamela (Hamel Spinner), które po raz pierwszy zaprezentował David Hamel. Urządzenie to jest nadal rozwijane i amerykański badacz George Green zademonstrował je ostatnio w formie zabawki. Tworzy ono coś, co jest nazywane „magnetycznymi wrotami” generowanymi przez większy pierścień złożony z magnesów ze skierowanymi do środka północnymi biegunami oddziałującymi na wewnętrzny pierścień zbudowany z mniejszej liczby magnesów zwróconych północnymi biegunami na zewnątrz. Według George'a Greena (tak jak zostało to przedstawione na stronie www.youtube.com, przy czym jego opis różni się od podanego powyżej) wewnętrzny pierścień wiruje, kiedy jest umieszczony w środku większego, generując coś w rodzaju stałego magnetycznego ruchu. Green nazywa przestrzeń między obydwoma pierścieniami „wirem energii”. Zostało to potwierdzone przez Jana Mertę, czeskiego inżyniera, który pracował wcześniej w Narodowym Zarządzie Energetyki (National Energy Board) w Kanadzie.

Prędkość drgań i elektroradiacyjne impulsy

Jeszcze inny badacz uważa, że sekrety wolnej energii nie kryją się w geometrii impulsów magnetycznych lub napięciowych, ale raczej w szybkości pulsacji. W swojej książce The Free Energy Secrets of Cold Electricity (Sekrety wolnej energii zimnej elektryczności) dr Peter Lindemann (http://www.%20free-energy.ws) pisze, że kiedy wysokonapięciowa przerwa iskrowa jest prawidłowo wywoływana, efektem jest ogromny zysk netto mocy w sieci elektrycznej. Odwołuje się on tu do opisu Nikoli Tesli zawartego w jego amerykańskim patencie nr 787412 z 18 kwietnia 1905 roku zatytułowanym „Art of Transmitting Electrical Energy Through The Natural Mediums” („Sztuka transmitowania energii elektrycznej przez naturalne ośrodki”). W opisie patentowym na drugiej stronie w wierszach 122-130 Tesla pisze: „Odkryłem, że możliwe jest wytworzenie w ten sposób ruchu elektryczności tysiące razy większego od pierwotnego - to jest tego wywartego na wtórny przez pierwotny A - i w ten sposób uzyskałem aktywność lub przepływ energii elektrycznej w układzie E' C E mierzony w dziesiątkach tysięcy koni mechanicznych”. To rzeczywiście byłaby „wolna energia”!

Dr Lindemann uważa, że stosując impuls wysokiej częstotliwości i o wysokim napięciu do wytworzenia „elektropromiennego wydarzenia” (patrz http://www.free-ener...ant-energy.html), udało mu się częściowo odtworzyć proces kryjący się za „transformatorem Tesli” (rezonansową cewką wysokonapięciową). Ma to miejsce, kiedy prąd stały zostaje rozładowany poprzez przerwę iskrową i gwałtownie przerwany, zanim zdoła powrócić. Uważa on również, że takie elektropromienne impulsy krótsze od 100 mikrosekund są zupełnie bezpieczne i nie powodują wstrząsu elektrycznego ani jakiegokolwiek urazu. Co więcej, elektropromienne impulsy krótsze od 100 nanosekund są zimne i z łatwością wywołują efekt świecenia w kulach próżniowych. Kilku innych badaczy twierdzi, że udało się im powtórzyć to doświadczenie i że należy przeprowadzić dalsze badania. Streszczenie książki dra Lindemanna i wyżej opisane wyniki można znaleźć pod adresem http://www.padrak.co...ley_082505.doc.

Interesujący wynik można również uzyskać, kiedy gwałtowne elektryczne impulsy są transmitowane dookoła, a następnie z powrotem przez stały magnes! Opisów takich eksperymentów nie znajdzie się w dostępnej literaturze. Prawdę mówiąc, jedyna znana wzmianka o takim urządzeniu dotyczy „Magnetstromapparatu” zbudowanego przez Hansa Colera w czasie drugiej wojny światowej na zmówienie niemieckiego rządu, o czym wspomina niedawno odtajniony Końcowy Raport nr 1043 Celowego Podkomitetu Brytyjskiego Wywiadu (patrz http://www.rexresear...er/colerb~1.htm).

Nie ma tu niczego nowego. Jedna z pierwszych metod, która ukazywała te pluralistyczne cechy stałych magnesów lub magnetycznych prętów rozmieszczonych w regularnych odstępach, została opisana w amerykańskim patencie nr 4025807 zatytułowanym „Electromagnetic Motor” („Elektromagnetyczny silnik”) udzielonym Leonardowi W. Cloverowi 24 maja 1977 roku. Jego wynalazek składa się z rotora z dużą liczbą magnesów na obrzeżu oraz statora dokładnie otaczającego rotor wyposażonego w dużą liczbę stałych magnesów i elektromagnesów rozmieszczonych w taki sposób, aby odpowiednio oddziaływały na magnesy rotora. Clover twierdzi, że magnesy muszą być umieszczone w odpowiednich odległościach kątowych na statorze, różnych od tych, które oddzielają magnesy na rotorze.

Większość tego typu urządzeń posiada stator i rotor. Jest tak, ponieważ założenia większości badań zakładają konieczność istnienia stacjonarnego magnesu i wirującego rotora. Są jednak tacy, którzy poddają tę zasadę w wątpliwość. Ich przykładem są Michael Faraday i Bruce DePalma, którzy zauważyli, że istotne pole nie mieści się w magnesie, ale w otaczającej go przestrzeni.

Koła wewnątrz kół

Gdybyśmy mieli dokonać rekonstrukcji wizji proroka Ezechiela dotyczącej „koła w kole”, musielibyśmy mieć dwa mogące obracać się obiekty z równoległymi lub na wpół równoległymi magnesami. Z technicznego punktu widzenia prawdziwe koło w kole mające zastąpić stator i rotor wymaga co najmniej dwóch rotorów, które mogą lepiej wykorzystywać otaczające je pola.

Konstrukcją najbliższą idei wielu poruszających się przy pomocy elektromagnetyzmu kół w „fazie równoległej” w celu wytwarzania energii jest „konstrukcja funkcyjna” wywodząca się z dziecięcej „wizji” brytyjskiego wynalazcy Johna Searla. Efektem tego jest jego „generator efektu Searla” (Searl Effect Generator”; w skrócie SEG) (patrz http://www.searlsolution.com). Prototypowy generator Searla składa się nie z dwóch, ale z trzech (!) koncentrycznych pierścieni (obecnie zamocowanych na podstawie), przy czym każdy z nich jest wykonany z czterech różnych materiałów. Każdy pierścień otaczają rolki i cewki wzmacniające energię poprzez swój ruch. Searl stara się stworzyć nie tylko technologię wytwarzania energii, ale także działający latający spodek, który wykorzystuje według niego do poruszania się odwrócenie grawitacji (antygrawitację).

Miejmy nadzieję, że te wszystkie wynalazki zbliżają nas nic tylko do podróży kosmicznych, ale też do prawdziwego generatora wolnej energii. Warto zauważyć, że niektórzy wynalazcy, tacy jak John Searl i Nikola Tesla, ujrzeli te konstrukcje w sugestywnych wizjach. Czy gdzieś w kosmosie istnieje cywilizacja, która stara się nam pomóc w opuszczeniu statku kosmicznego Ziemia w celu rozszerzenia naszych granic? Właściwe naukowe przełomowe odkrycia mogłyby pomóc nam w pokonaniu wielu trudności i we wprowadzeniu nas w prawdziwy XXI wiek.

Magnetohydrodynamika

W wielu z tych konstrukcji używane są stałe magnesy, tymczasem zaawansowany technicznie pojazd elektromagnetyczny może wykorzystywać podobną metodę posługując się szczególnym stopem lub naenergetyzowaną plazmą, czyniąc całą konstrukcję magnetyczną ze zmiennymi polami tworzącymi siłę elektromagnetyczną. Nie jest to wcale odległa przyszłość, ponieważ wraz z postępem w technice elektromagnetyzmu powstają interesujące opracowania w dziedzinie magnetohydrodynamiki (magnetohydrodynamics; w skrócie MHD), zwłaszcza w Rosji. Ten termin definiuje sam siebie, jako że człon „magneto” oznacza pole magnetyczne, a „hydro” ciecz (wodę, ciekły metal lub plazmę) w dynamicznym ruchu. Ujmując to najprościej, chodzi tu o pola magnetyczne indukujące prądy w ruchomej, przewodzącej prąd cieczy. Uważa się, że właśnie takie zjawisko kryje się za działaniem dynama w jądrze Ziemi i że jest ono również powodem rozbłysków na Słońcu.

W roku 2005 rozeszły się pogłoski mówiące, że trzej czołowi francuscy fizycy, doktorzy Jean-Pierre Petit, Claude Poher i Maurice Viton, zbudowali silnik o nazwie „Petit-Viton Magnetohydrodynamic Motor” wykorzystując kombinację energii elektromagnetycznej i jądrowej (patrz http://www.%20mhdprospects.com). Twierdzono, że jest on zdolny do wytworzenia ponad 10 watów energii i wygaszenia fal wstrząsowych mogących spowolnić pojazd przy wejściu w kontakt z naszą atmosferą. Chociaż nie udało się nam tego potwierdzić, zgadzamy się z tym, że magnetohydrodynamika może okazać się kluczem do napędu statków kosmicznych.
Dokonano również postępu w fizyce plazmy i jest coraz więcej paliwa takiego jak plazma o niskiej zawartości lub wolnego od produktów ubocznych węgla. Na przykład przy pomocy dwóch elektrod i impulsowego wyładowania elektrycznego w „łuku plazmowym” można dokonać gazyfikacji plazmy.
Znaczenie magnetohydrodynamiki potwierdził pewien dokument odtajniony w oparciu o amerykańską ustawę o wolności informacji dotyczący obserwacji pojazdu latającego na brazylijskim niebie. Kilka lat temu widzieliśmy w Brazylii raport, który sugerował, że system napędowy jednego z odnalezionych pojazdów mógł być magnetohydrodynamiczny.

Fizyk Robert („Bob”) Lazar (http://www.boblazar.com) prawdopodobnie pisał swoją pracę naukową z magnetohydrodynamiki. Bez względu na to, czy ktoś się zgadza z jego twierdzeniami dotyczącymi wykorzystywania pierwiastka 115 jako źródła energii, jest jeszcze jedna bardzo interesująca informacja, którą upublicznił i która jest zborna ze stworzeniem systemu „kontrolowanej grawitacji”. Otóż, już w roku 2004 naukowcy w Rosji i USA stworzyli na moment pierwiastek 115, który następnie rozpadł się i przekształcił w pierwiastek 113. Ten superciężki pierwiastek 115 nazwano Ununpentium (Uup).

Interesujące jest również, co podkreśla Lazar, że pojazd nie tylko musi posiadać odnawialny układ napędowy na wolną energię, ale również mieć zdolność przezwyciężania ziemskiego pola grawitacyjnego. Lazar omawia, podobnie jak tekst The Keys of Enoch, dwie formy grawitacji: „grawitację A” i „grawitację B”.
The Keys of Enoch nazywa to „grawitacją” kontra „Grawitacja”. Lazar twierdzi, że „grawitacja A” to siła, która utrzymuje masy razem i w fizyce określana jest mianem „silnej siły jądrowej”, czyli to, co jest stosowane do zakrzywiania czasoprzestrzeni w podróżach międzygwiezdnych. Pole normalnej „grawitacji” („grawitacji B”) jest tym, co istnieje na poziomie gwiezdnym i planetarnym, czyli tym, z czym większość ludzi ma na co dzień do czynienia, to znaczy siłą, która pozwala nam chodzić po Ziemi.

Lazar utrzymuje, że pojazdy istot pozaziemskich, które widział w czasie swojego pobytu w „Sektorze S4 w Strefie 51”, były wyposażone w trzy duże wzmacniacze grawitacji, z których każdy mógł być osobno pozycjonowany. Twierdzi, że pojazd, przy którym pracował, do startu z powierzchni gruntu wykorzystywał jeden generator grawitacji, a kiedy już wisiał w powietrzu, załoganci mogli obrócić dwa pozostałe, aby wytworzyć zniekształcające pole.
Pojedynczy wzmacniacz po aktywacji jest nazywany „konfiguracją omikron”, zaś wszystkie trzy działające razem „konfiguracją delta”, która jest stosowana do podróży w próżni, poza atmosferą. Pojazd nie „przeciwstawia” się wówczas grawitacji i tworzy własne pole grawitacyjne, a następnie podróżuje wewnątrz niego, przemieszczając się w odkształceniu, jakie sam wytworzył. The Keys of Enoch mówi, że po przybyciu tutaj „pojazdy mogą wytwarzać swoje własne korytarze energetyczne, aby pojawić się na powierzchni Ziemi”, oraz że pojazdy nie „podróżują” między planetami, ale przemieszczają się w obejmującym wszystko polu energetycznym.

Lazar podaje, że statki nie wydają żadnych dźwięków, chociaż inni naoczni świadkowie informowali o dziwnych dźwiękach wysokiej lub niskiej częstotliwości, które mogą być generowane przez źródło energii wykorzystywane przez pojazd.
Lazar wyjaśnia także, że otaczająca pojazd kosmiczny poświata jest efektem wywoływanym przez wysokoenergetyczne źródło napędu, które powoduje pobudzenie azotu i tlenu zawartego w naszej atmosferze za sprawą dostarczanej ich molekułom energii, w następstwie czego emitują one fotony (światło).

Morze nie wykorzystanej energii

Jak utrzymuje fizyk Tom Bearden: „Każdy ładunek we wszechświecie jest już prawdziwym ujemnym rezystorem najczystszego i najbardziej definitywnego (i łatwo eksperymentalnie demonstrowanego) rodzaju” (http://www.icehouse....hnl/index34.htm). W ten sposób dotarliśmy do następnego możliwego zasobu energii: energii punktu zerowego (zero-point energy; w skrócie ZPE). Planck i Nernst (1916) próbowali zdefiniować pole próżni jako hf/2, co oznacza, że średnia minimalna energia jest równa połowie „h” (stałej Plancka) pomnożonej przez „f” (częstotliwość).
Energię punktu zerowego można zdefiniować jako energię wibracji, która pozostaje w molekułach nawet w temperaturze absolutnego zera. Fizycy nowej energii, którzy zajmują się badaniem ZPE, mówią, że jest to energia istniejąca w każdej objętości przestrzeni, co wiąże się w jakiś sposób z faktem, że bardzo trudno jest uzyskać temperaturę bezwzględnego zera. W rzeczywistości energia punktu zerowego jest klasyczną energią wibracji, jaką molekuły zachowują nawet w temperaturze absolutnego zera, w którym to punkcie ruch jednak nigdy całkowicie nie zanika.

Tak więc energia punktu zerowego teoretycznie istnieje w postaci ukrytego morza energii. Może ona mieć bezpośredni związek z elektromagnetyzmem lub może być tak, że za każdym atomem w przestrzeni kosmicznej kryje się potężne pole energii. Istnieje słynny efekt Casimira i spektrum czarnego ciała Plancka, które zdają się dowodzić istnienia energii punktu zerowego.
Co więcej, nowe osiągnięcia z zakresu mechaniki kwantowej dowodzą, że pola falowe lub strumieniowe mogą przypominać zmarszczki w uniwersalnym, wszystko przenikającym polu. Pozostaje to w zgodzie z badaniami wynalazcy dra T. Henry'ego Moraya, który w latach 1930. podobno prezentował przez kilka dni przedstawicielom prasy Stanów Zjednoczonych autonomiczne urządzenie na „wolną energię”, a potem opublikował książkę The Sea of Energy in Which the Earth Floats (Morze energii, w którym pływa Ziemia) (patrz http://www.rexresear...y2/morayrer.htm).

Termin „energia punktu zerowego” został po raz pierwszy użyty w popularnej literaturze w The Keys of Enoch ponad 30 lat temu do opisania niezwykłych funkcjonalnych aspektów warunków granicznych oraz sposobu, w jaki niektóre formy życia dostosowują się do zmian kwantowych. Mówi się tam: „Wtórne układy fizycznej kreacji muszą uznać uniwersalny punkt zerowy jako źródło galaktycznej materii w taki sam sposób, w jaki dziecko uznaje pępowinę łona swej matki, na końcu której jest umocowane” (Key 302:13).
Fizycy Richard Feynman i John Wheeler podobno wyliczyli, że ilość takiej energii punktu zerowego lub energii torsyjnej zawarta w niewielkim obiekcie, takim jak na przykład filiżanka kawy lub żarówka, mogłaby zagotować oceany, gdyby udało się ją pozyskać.

Wygląda więc na to, że żyjemy w morzu niewyczerpanej energii. Co jeszcze ważniejsze, ta energia wydaje się nie zużywać i może przechodzić z jednej formy w drugą, po czym wracać do pierwotnej postaci. W takim przypadku energia nigdy nie ulega rozproszeniu ani zużyciu.

Rozbudzenie ludzkości

Najwyraźniej musimy przygotować się na zrozumienie wyższych realiów, jakie nas czekają. Bez względu na to, czy będzie chodziło o szczegóły dotyczące małych statków kosmicznych, statków-matek, superstatków, czy też przypominających całe miasta biosatelitów, uważamy, że te wyższe realia wkrótce się nam objawią.
Prawdę mówiąc, pod wieloma względami już tak się dzieje. Rodzi się jednak poważne pytanie, jakie winniśmy sobie zadać: „Czy naprawdę jesteśmy przygotowani na realia cywilizacji, które wykorzystują tak zaawansowane środki?”

Ostatnie trzydziestolecie przyniosło nam ogrom wiedzy i informacji dotyczących tego, jak możemy wejść w XXI wiek jako mieszkańcy Ziemi roszczący pretensje do kosmicznego obywatelstwa.
Czy jesteśmy psychologicznie i społecznie przygotowani na ogarnięcie i wykorzystanie tych zdobyczy techniki dla dobra ludzkości, czy też zmagania o władzę znaczące całą naszą przeszłość, wciąż będą nas ograniczały i determinowały nasze przyszłe losy?

O autorach:

Dr J.J. Hurtak jest założycielem i prezesem Akademii Nauki Przyszłości, międzynarodowej organizacji, której celem jest doprowadzenie do współpracy między nauką i religią poprzez pozytywny dialog dotyczący przedsięwzięć społecznych i nienaruszania równowagi ekologicznej. Jest specjalistą w zakresie nauk społecznych, futurystą, archeologiem, antropologiem oraz ekstrasensem obdarzonym zdolnością zdalnego postrzegania. Jest autorem ponad 15 książek, w tym The Book of Knowledge: The Keys of Enoch (Księga wiedzy - Klucze Henocha), oraz współautorem (wspólnie z fizykiem Russellem Targiem) książki The End of Suffering: Fearless Living in Troubled Times (Koniec cierpień - wolne od strachu życie w ciężkich czasach).

Dr Desiree Hurtak jest specjalistką w dziedzinie nauk społecznych i ekologii, a także filmowcem i autorką, której ostatnie prace dotyczą ochrony środowiska i dziedzictwa kulturowego. Współpracuje z Akademią Nauk Przyszłości w zakresie promowania nowych technologii mających zapewnić lepszą przyszłość rodzaju ludzkiego.
Z J.J. i Desiree Hurtakami skontaktować się można za pośrednictwem poczty elektronicznej pisząc na adres [email protected] oraz poprzez ich stronę internetową zamieszczoną pod adresem http://www.futurescience.org.

Przełożył Jerzy Florczykowski"


Źródło: NEXUS - nowe czasy, nr.74, 2010

Użytkownik XGOŚĆ edytował ten post 13.02.2012 - 23:25

  • 0

#96

XGOŚĆ.
  • Postów: 429
  • Tematów: 11
  • Płeć:Mężczyzna
Reputacja zadowalająca
Reputacja

Napisano

4. Teoria Nieśmiertelności

Zapraszam na NOWOŚĆ Z BIOTECHNOLOGII !!

http://wiadomosci.wp...d=6e117#m978081
  • 0

#97

XGOŚĆ.
  • Postów: 429
  • Tematów: 11
  • Płeć:Mężczyzna
Reputacja zadowalająca
Reputacja

Napisano

4. Teoria Nieśmiertelności - zmienia się w RZECZYWISTOŚĆ !!!

Artykuł:
Cyt. "Jesteście gotowi na to, by żyć wiecznie? Era nieśmiertelności nadchodzi wielkimi krokami! Czy nadszedł wreszcie czas długo oczekiwanego przełomu? Naukowcy twierdzą, że tak. Dzięki dokonanemu właśnie odkryciu, już wkrótce każdy z nas otrzyma szansę na to, by żyć długo i cieszyć się nieskalaną piętnem czasu urodą.

Badaczom udało się odkryć cztery geny, które - ich zdaniem - odpowiadają za to, jak szybko oraz w jaki sposób się starzejemy. Przedstawiciele świata nauki uważają, że dalsza realizacja programu badań powinna dostarczyć wskazówki pozwalające na stworzenie czegoś w rodzaju "eliksiru młodości” - substancji, która na długo pozwoli nam zachować witalność, a być może spowoduje również, że będziemy mogli żyć wiecznie.

Już teraz wiadomo, że olbrzymi wpływ na wspomniane geny ma ciąg czynników - począwszy od kryteriów środowiskowych, na naszej diecie kończąc. Co więcej, geny te mogą być "włączane" i "wyłączane". Dzięki dalszym, szczegółowym badaniom eksperci chcą się dowiedzieć czegoś więcej na temat procesu ich starzenia się. Takie odkrycie spowoduje prawdziwą rewolucję w medycynie i pozwoli na opracowanie nowej generacji leków, które będą zapobiegać starzeniu - poinformował dziennik "Daily Mail".

"Odkryliśmy wiele zmian epigenetycznych, związanych z cechami kojarzonymi z wiekiem, które wcześniej wykorzystywano do określenia wieku biologicznego" - powiedziała dr Jordana Bell z King's College London. "Cztery z nich wydają się mieć znaczący wpływ na stopień zdrowego starzenia się i ewentualną długowieczność. Teraz możemy je wykorzystać jako potencjalne znaczniki starzenia się".

Wyniki badań zostały opisane w dzienniku "Public Library of Science Genetics".


Inne sposoby na nieśmiertelność

Obecnie na całym świecie prowadzonych jest szereg różnych badań, które w niedalekiej przyszłości mają nam umożliwić wieczystą egzystencję. Trzeba przyznać, że niektóre z idei, które mają nas doprowadzić do tej wielkiej rewolucji, są naprawdę śmiałe. Wyróżnić tu należy przede wszystkim Dmitrija Itskowa. Ten pochodzący z Rosji wynalazca uważa, że w ciągu 10 lat uda mu się wyprodukować robota, do którego będzie można przenieść ludzki mózg.

O nietuzinkowym projekcie, nad którym pracuje Dmitrij Itskow, świat dowiedział się już rok temu. Program o wiele mówiącej nazwie "Avatar" przewiduje, że w przyszłości ludzie, którzy nie będą chcieli rozstać się ze światem, będą mogli żyć dalej, gdy przyjdzie na nich pora - ich mózgi, a co za tym idzie świadomość, umieszczane będą w idealnych, zaprojektowanych specjalnie dla nich, androidach.

Itskow nie poprzestał na samych słowach. Kilkanaście miesięcy po pierwszych deklaracjach przystąpił do działania. W trakcie konferencji Global Future 2045, która zakończyła się niedawno w Moskwie, Rosjanin poinformował zgromadzonych, że w swój projekt zaangażował już ok. 100 naukowców z całego świata."
  • 0


 

Użytkownicy przeglądający ten temat: 1

0 użytkowników, 1 gości oraz 0 użytkowników anonimowych