Komputer i wcielenie Arymana

David B. Black, Komputer i wcielenie Arymana (The Computer and the Incarnation Ahriman). Tłumaczenie ma charakter roboczy! (Intermediarius: B.S.)

Komputer przekształca nasze społeczeństwo i nasz sposób życia. Początkowo ograniczone do centralnych biur wielkich korporacji, instytucji naukowo-badawczych i agencji rządowych, komputery znajdują szerokie zastosowanie w samochodach, urządzeniach i małych firmach. Wiele osób zaniepokoiło się zmianami wynikającymi z rozpowszechnienia komputerów. Chociaż komputery dają nam mile widzianą ulgę w znoju, mają też inne skutki, których nie przyjmujemy z zadowoleniem.

Komputer jest szczególny ze względu na jego związek z istotą duchową, zwaną tutaj „Arymanem”. W ostatnich częściach tej książki pan Black próbuje wyjaśnić dokładną naturę relacji między komputerem a istotą Arymana.

David B. Black zaczął programować w szkole średniej, pisał oprogramowanie do optymalizacji przemysłu naftowego i wczesnej obsługi sieci ARPAnet do czasu ukończenia Harvardu w 1972 roku, a następnie zaczął pisać oprogramowanie w wielu branżach, studiując prace Rudolfa Steinera i uczestnicząc w działalność antropozoficzna. Ta książka z 1981 roku jest wynikiem lat doświadczeń z komputerami „od środka” wraz z jego ezoterycznymi, historycznymi i matematycznymi studiami. W latach 90. zaczynał w venture capital, a obecnie koncentruje się na inwestycjach w ochronę zdrowia i technologie finansowe.

1. Wstęp

Komputer przekształca nasze społeczeństwo i nasz sposób życia. Początkowo ograniczone do centralnych biur wielkich korporacji, instytucji naukowo-badawczych i agencji rządowych, komputery znajdują powszechne zastosowanie w samochodach, urządzeniach i małych firmach. W 1980 roku sprzedano około 400 000 „komputerów osobistych”, wprowadzając komputer jako taki do wielu z naszych żyć, bardziej bezpośrednio niż wszechobecny rachunek generowany przez komputer.

            Wiele osób zaniepokoiło się zmianami wynikającymi z upowszechnienia komputerów. Podczas gdy niewielu utrzymywałoby, że armia urzędników dodających kolumny cyfr jest lepsza (dla urzędników lub dla reszty z nas) niż komputery wykonujące tę pracę, ludzie skarżą się, że są dehumanizowani, redukowani do liczby lub maszyny, stają się sługami nieludzkich panów i ogólnie czują, że ich życie zmienia się w sposób, którego nie mogą kontrolować i nie lubią. Choć komputery przynoszą nam mile widzianą ulgę w pracy, mają też inne skutki, których nie przyjmujemy z zadowoleniem.

            Norbert Wiener podjął ten temat już w 1948 roku. [1] Opisał on bezprecedensową szybkość zmian, jakie nauka i technologia jako całość wniosły do społeczeństwa, i podkreślił kluczową rolę cybernetyki w doprowadzeniu do tego w późniejszych fazach. Opisał też niektóre złe konsekwencje tych zmian, ale zdawał się uważać, że zło tkwi w społecznym aspekcie nowej sytuacji, w tym, do jakich celów wykorzystujemy nasze nowe moce.

            Od czasów Wienera powstała i rozwinęła się dziedzina znana jako „sztuczna inteligencja”, w której próbuje się sprawić, by komputery naśladowały ludzką inteligencję. To, co na początku było głupimi, szybkimi maszynami, przekształciło się w automaty, które w coraz większym stopniu potrafią wykazywać cechy podobne do ludzkich. Joseph Weizenbaum, który wymyślił program do prowadzenia osobistej rozmowy po angielsku z człowiekiem, opisał [2] swoje przerażenie, gdy ludzie potraktowali to, co on uważał za sprytny eksperyment, zupełnie poważnie. Na przykład, „Wielu praktykujących psychiatrów poważnie wierzyło, że program komputerowy DOCTOR rozwinie się w prawie kompletną automatyczną formę psychoterapii.” [3] Pośród innych ważnych obserwacji i spostrzeżeń, Weizenbaum martwił się o to, jak w miarę jak maszyny stają się coraz bardziej zdolne, my wyobrażamy sobie siebie jako mniej zdolnych, bardziej podobnych do maszyn i coraz bardziej zaangażowanych w bezmyślnie „scjentystyczne” [4] podejście do świata.

            Niektórzy ludzie sądzą, że sprawy z komputerem wymykają się spod kontroli, że maszyny uzyskują pewien rodzaj autonomii. „Podsumowując swoje ostatnie badanie przeprowadzone wśród 50 właścicieli komputerów, Sherry Turkle, profesor socjologii w Massachusetts Institute of Technology, powiedziała, że konsumenci lubią poczucie władzy związane z programowaniem komputera. Kiedy programujesz komputer, czujesz ogromną kontrolę i opanowanie’ – powiedziała. Ludzie zaczynają od chęci sprawienia, by komputer coś zrobił, a kończą na tym, że są pochłonięci robieniem czegoś dla nich,’ powiedziała.” [5] To doświadczenie odwracania się od siebie jest powtarzane na wielu poziomach i w wielu kontekstach.

            To prowadzi nas do myśli, że komputer nie jest zwykłą maszyną, że może sprawować nad nami władzę, jakiej nie miałoby zwykłe narzędzie. Co jest takiego w komputerze, co czyni go wyjątkowym?

            Dla mnie to nie jest abstrakcyjne pytanie. Po wielu latach programowania komputerów na zaawansowanym poziomie i obserwowania tego, co działo się ze mną i z innymi, którzy nawiązali intymne relacje z maszynami, stanąłem wobec tego pytania z poczuciem osobistej pilności i w niespokojnym nastroju. Większość doświadczeń, jakie miałem, nie była omawiana przez tych, którzy ze mną pracowali; w istocie, w atmosferze, jaka panuje wokół komputerów, pewne rzeczy dotyczące maszyn są niemal nie do pomyślenia, choć mimo to prawdziwe. Nie miałem ochoty angażować się w romantyczną relację z maszynom, ani w żaden sposób walczyć z racjonalnością. To, co mnie martwiło, to fakt, że czułem, iż moje zdolności rozumowania są zamknięte i ograniczone, i trudno było mi być tak racjonalnym w stosunku do wszystkich moich doświadczeń, jakbym chciał być. Odczuwałem potrzebę większego zrozumienia, a nie mniejszego, i zacząłem zdawać sobie sprawę, że komputer sam w sobie miał coś wspólnego z moim brakiem intelektualnej penetracji.

            To, co przydarzyło się mnie, wielu innych ludzi również doświadczyło w różnym stopniu. W szczególności zauważyłem, że moje myślenie stało się bardziej wyrafinowane i dokładne, zdolne do łatwego przeprowadzania rozległych analiz logicznych, ale jednocześnie bardziej powierzchowne i mniej tolerancyjne dla dwuznaczności lub sprzecznych punktów widzenia. Moje życie uczuciowe w jakiś sposób stopniowo odłączało się od reszty mnie. Uczucia, które były mi bliższe, stały się płaskie i szare, straciły swoją siłę i kolor, i odpowiednio odgrywały mniej znaczącą rolę w moim życiu. Z drugiej strony, uczucia, które były ode mnie oddalone, stały się silniejsze i bardziej surowe; straciły wiele ze swojej ludzkiej jakości i modulacji. Wreszcie, w życiu woli, rozwinęła się we mnie ogromna zdolność do zastosowania w rozwiązywaniu problemów związanych z komputerem oraz zdolność do trwałej koncentracji intelektualnej znacznie powyżej przeciętnej, tak długo, jak długo przedmiotem koncentracji był komputer. W innych dziedzinach straciłem siłę woli, a to, co miałem, nabrało charakteru obsesyjnego. Wiele innych rzeczy również mi się przydarzyło, ale przemiany, które właśnie opisałem, są natury ogólnej, powszechnie doświadczane i posłużą mi na chwilę obecną.

            Komputer jest szczególny ze względu na jego związek z istotą duchową zwaną tutaj „Arymanem”. Nazwa Aryman pochodzi od zoroastryjskiego boga ciemności, istoty wiecznie przeciwstawianej bogu światła, który nazywany jest Ormuzd. W koncepcji Rudolfa Steinera Arymanowi przeciwstawia się Lucyfer (dosłownie światłonośca), a im dwóm razem przeciwstawia się odkupieńcza moc Chrystusa. Myśl Steinera jest formalnie podobna do tej, którą przedstawił Arystoteles „Etyka nikomachejska”, gdzie zło przedstawione jest w postaci wzajemnie sprzecznych, nadmiernych przeciwieństw, którym przeciwstawia się dobro, stojące pośrodku obu złych stanów. Ogólna idea, której szczegółowe wyjaśnienie jest celem tej książki, polega na tym, że świat w ciągu ostatnich dwóch tysiącleci, a w ostatnich stuleciach coraz szybciej, przechodzi pod władzę Arymana, a komputer stanowi awangardę tego rozwoju.

            Dużo czasu zajęło mi zrozumienie, jakie znaczenie może mieć taka pozornie abstrakcyjna i religijna koncepcja w odniesieniu do oczywistej rzeczywistości technologii elektronicznej. Kluczowym punktem w dostrzeżeniu tego znaczenia jest uznanie, że podział, którego dokonujemy pomiędzy religią a nauką jest fałszywy, i że przedmiot zarówno religii jak i nauki cierpi, ponieważ, na przykład, nie wiemy jak być racjonalnym i obserwującym w stosunku do całkowicie obiektywnych zjawisk, które klasyfikujemy jako religijne. Jeśli tylko aktywnie zajmiemy się takim tematem jak relacja między istotą duchową a techniką elektroniczną, lub choćby tylko spróbujemy wniknąć w sedno techniki, nie pomijając żadnego z faktów, możliwe jest nauczenie się naukowego i obiektywnego podejścia do szerszego zakresu zjawisk, niż się powszechnie uważa za możliwe do zbadania. Badania te prowadzą do takich rezultatów, jak opisane w dalszych częściach tej książki, w których postaram się wyjaśnić dokładną naturę relacji między komputerem a istotą Arymana.

[1] Norbert Wiener: Cybernetyka, 1948; The Human Use of Human Beings, 1950-1954.

[2] Joseph Weizenbaum: Computer Power and Human Reason, San Francisco, 1975.

[3] Tamże, str. 5

[4] „Z nauką samą w sobie nie może być kłótni. Inną sprawą jest scjentyzm. Podczas gdy nauka jest pozytywna, zadowalając się relacjonowaniem tego, co odkrywa, scjentyzm jest negatywny. W ten sposób porzuca naukę na rzecz metafizyki – tak się składa, że złej metafizyki, ponieważ twierdzenie, że nie ma żadnych prawd poza tymi naukowymi, samo w sobie nie jest prawdą naukową, a potwierdzając je, scjentyzm zaprzecza sam sobie.” Huston Smith: Forgotten Truth, New York, 1976 r.

[5] Michael de Courey Hinds: „New Fixture in the Home: The Computer”, New York Times, 4 czerwca 1981, s. C1

2. Metodologia

„Mamy demonstracje na temat koła, ale tylko przypuszczenia na temat duszy; prawa natury są przedstawiane z matematycznym rygorem, ale nikt nie stosuje porównywalnej staranności do badań nad tajemnicami myślenia. Źródło ludzkiej nędzy leży w tym, że człowiek poświęca więcej myśli wszystkiemu oprócz najwyższego dobra w życiu … Stąd mamy zasiany w ludziach potajemny ateizm, lęk przed śmiercią, wątpliwości co do natury duszy, najsłabsze lub co najmniej chwiejne wypowiedzi o Bogu, a także fakt, że wielu ludzi jest uczciwych raczej z przyzwyczajenia lub konieczności niż na mocy swego sądu.” [6] Dość długa dyskusja na temat metodologii będzie wymagana, jeśli współczesny czytelnik ma się spodziewać, że będzie w stanie wydobyć sens z argumentów i opisów, które następują. Wyniki, do których doszedłem, są bezsensowne z punktu widzenia ogólnie przyjętych pojęć naukowych. Istnieje jednak rama, w której wyniki te mają sens i która dostarcza jasnego, logicznego sposobu dochodzenia do tego rodzaju rezultatów. Zadaniem więc tej sekcji jest opisanie tych ram, w szczególności skupiając się na metodologii jaką zastosowałem. Ponadto, aktywnie bronię jej w dwóch punktach, które rażą współczesnych: poleganie na autorytecie (w tym przypadku, głównie Rudolfa Steinera) oraz przyjmowanie za w pełni realne istot ponadzmysłowych nieposiadających ciała fizycznego w zwykłym sensie. Wreszcie, podaję krótki opis logiki zawartej w moim podejściu, która ponownie różni się od form zwyczajowo przyjętych. Podczas gdy od czasu odkrycia geometrii nieeuklidesowych w XIX wieku zdaliśmy sobie sprawę z arbitralnego charakteru systemów aksjomatycznych, nie zauważyliśmy jeszcze, że nasze pojęcie systemów aksjomatycznych jako całości jest jedną z kilku alternatyw, z których każda jest ważna dla określonej sfery doświadczenia.

2.1 Metoda metafizyczna

Zastosowana tu metodologia została zaadaptowana z bardziej ogólnej metody metafizycznej [7], to znaczy z metody zaprojektowanej i dostosowanej do rozpatrywania kwestii dotyczących całości świata, który, jak się zakłada, zawiera element wykraczający poza to, co zwykło się uważać za „materię”. [8]Nie jest to miejsce na przedstawienie ogólnego argumentu za tym, dlaczego świat ma niematerialny składnik, a zatem dlaczego istnieje potrzeba metafizycznej metody jako bardziej inkluzywnego zastąpienia ewidentnie prostszej metody materialistycznej. [9] Takie pytania w każdym razie na ogół nie są rozstrzygane za pomocą argumentów, niezależnie od tego, jak bystre i przekonujące by one nie były. Nasze zdolności rozumowania zostały tak osłabione przez długotrwałe wystawienie na działanie scjentyzmu, że nauczyliśmy się nie ufać naszemu racjonalnemu umysłowi, gdy w grę wchodzi naprawdę ważne pytanie, a tym samym poświęcamy możliwość korzystania z narzędzia, które mogłoby najbardziej pozytywnie rozstrzygnąć sprawę. Posłużę się więc po prostu szerszą metodą i mam nadzieję, że niewielu będzie żałować braku argumentów w jej obronie.

            Metoda metafizyczna zaczyna się od uznania, że każdy człowiek ma (czy to w wyniku indywidualnych dążeń, czy nieświadomego wychowania) postawę lub stanowisko wobec świata i wiedzy, którą można z niego zdobyć. W praktyce niemożliwe jest zajęcie „neutralnego” stanowiska wobec świata, gdy prowadzi się wyczerpujące badania i inwentaryzację jego zawartości, wstrzymując się z osądem do czasu zestawienia pełnych wyników. Tak więc każdy z nas z konieczności przyjmuje takie czy inne stanowisko, zazwyczaj nawet nie na podstawie częściowych informacji, ale w wyniku swojej klasy, kultury, wykształcenia itd. Metoda materialistyczna albo ignoruje kwestię stanowiska, albo uważa ją za nieistotną, wyobrażając sobie, że wszystkie „fakty” na świecie mają mniej więcej jednakową wielkość i gęstość, i że zdecydowane dążenie do tego, co wyobraża sobie jako obiektywnie istniejące „fakty”, w końcu je wszystkie uporządkuje. Metoda metafizyczna, z drugiej strony, uważa, że postawa, jaką człowiek zajmuje wobec faktów, jest co najmniej tak samo ważna jak same fakty, odgrywając dużą rolę w ich ustalaniu, a nawet tworzeniu, oraz determinując drogę, jaką człowiek podąża przez ten świat (tj. wybór niewielkiej części rzeczywiście doświadczanej z niezliczonej ilości tego, co potencjalnie mogłoby być doświadczane).

            Głównym zadaniem metody metafizycznej (w tym kontekście) jest ustalenie „prawdziwej” postawy wobec danego zbioru faktów. Wśród tych, którzy stosują tę metodę, jest miejsce na uzasadnioną różnicę zdań, tak jak wśród tych, którzy pracują w uznanej dziedzinie naukowej; są też dobre i złe odpowiedzi, a także owocne i bezowocne drogi dochodzenia. Metoda metafizyczna utrzymuje, że to właśnie z takich rzeczy jak „postawy” utkane jest przeznaczenie dusz, i że to jest źródłem znaczenia tej metody.

Teraz trzeba przyznać, że postawy i fakty są splecione razem i odbijają się od siebie nawzajem. (Współcześni filozofowie nauki posunęli się tak daleko, że przyznają, iż nasze postawy wpływają na naszą percepcję faktów. [10] ) Zostało to już wspomniane, i dalekie od bycia wadą, jest motywacją do poważnego traktowania naszych postaw i szczególnego ich badania.

            Dramaturgia dobrego kryminału dostarcza ilustracji związku między pozbawionymi twarzy faktami a naszym ważeniem i splataniem ich w jedną sieć. W miarę jak historia się rozwija, wszystkie fakty, na których opiera się ostateczne zrozumienie, są wymieniane, ale ponieważ nie mają sensu w kontekście budowanej teorii, są ignorowane przez czytelnika i przez detektywa. W miarę jak każdy z faktów jest rozpoznawany jako taki, zmienia się rozumienie wszystkich innych faktów; taka całkowita zmiana może nastąpić wielokrotnie w ciągu jednego opowiadania. Mistrz detektywistyczny musi jednocześnie podążać dwiema sprzecznymi drogami: po pierwsze, musi zbudować jak najpełniejszą teorię z faktów, którymi dysponuje, i realizować ją tak, jakby była na pewno prawdziwa, a po drugie, musi wątpić w swoją teorię z bezgranicznym cynizmem, zawsze szukając faktów lub perspektyw, które mogłyby spowodować jej upadek.

            Postawa detektywa jest bardzo podobna do postawy pewnego rodzaju naukowca, który z równą łatwością potrafi podbudować teorię, jak i ją rozbić. W miarę przechodzenia od detektywa do naukowca i metafizyka (lub duchowego naukowca), zakres faktów, które należy uwzględnić, staje się coraz bardziej ograniczony i niemalże wszechogarniający, a uwaga zaczyna się koncentrować na faktach, by w końcu zająć się reakcją na nie lub faktami widzianymi w jak najszerszym kontekście. Zaczyna się od postrzegania faktów jako stałych i pierwotnych, a kończy na postrzeganiu ich jako elastycznych i wtórnych.

            Można sobie wyobrazić, że metafizyka jest czymś w rodzaju psychologii odkrycia naukowego. W rzeczywistości metafizyka ma niewiele wspólnego z przedmiotem współczesnej psychologii, a nawet z domniemanym światem „psychicznym”, który próbuje penetrować parapsychologia. Wyobraźmy sobie, że człowiek zaczyna życie jako całkowicie odizolowane ego, niezdolne do nawiązania jakiegokolwiek kontaktu ze światem zewnętrznym. Następnie osoba ta dociera do niego i w końcu znajduje pełny, spójny, obiektywny świat, który wypełnia jej doświadczenie. To jest to, co współczesny świat rozumie jako normalny stan dorosłej istoty ludzkiej. Teraz należy zadać pytanie: co sięgnęło? Gdzie i z czego jest ta „ręka”, która sięgnęła? Ponieważ zazwyczaj nie jesteśmy świadomi sięgania i nie myślimy o nim, wyobrażamy sobie świat fizyczny jako istniejący natychmiast, a do jego dostarczenia nie potrzeba nic więcej niż fale dźwiękowe lub świetlne (które również są jego częścią). Wybór tego, co dociera do naszej świadomości sprowadzamy do psychologicznego pojęcia „uwagi”. Ale w rzeczywistości świat fizyczny, który wydaje się nam tak bezpośredni, jest (jako całość) tak odległy od nas, jak to tylko możliwe, żeby coś mogło być. Luka między nami a światem wypełniona jest żywą substancją, czymś, co jest zróżnicowaną mieszaniną ja, my, nie-ja i nie-ja, której każda część jest nam bliższa i bardziej realna niż jakakolwiek część tego, co uważamy za świat fizyczny. To właśnie ona utrzymuje dystans pomiędzy podmiotem i przedmiotem, ale także utrzymuje je razem. To właśnie w tym ultra realnym świecie nasze przeznaczenie składa się z wydarzeń i doświadczeń. I to jest świat, który bada metafizyk.

            Świat, który bada metafizyk, jest jednością lub jednością, w której nasz podwójny lub rozdwojony świat ma swoje źródło. Ponieważ tego świata nigdzie tutaj nie ma, badacz musi umieścić się w pustce, w której by się znajdował, gdyby tu był, czyli w przepaści, która oddziela podmiot od przedmiotu, a do której nasz najbardziej bezpośredni dostęp daje to, co scharakteryzowałem jako „postawę”. Współczesny naukowiec zwykle pochłonięty jest światem przedmiotowym i przyjmuje wszystko to, co przekazują mu zmysły, za podstawę rzeczywistości. Świat podmiotu doświadcza jako coś obecnego, ale nieistotnego, jako obserwatora i źródło na ogół niewiarygodnych komentarzy. Krytyczny idealista (którego prototypem jest Kant) zdaje sobie sprawę z logicznych nieścisłości tkwiących w tym stanowisku. Z pełną powagą traktuje on sposób, w jaki konfrontujemy się ze światem z naszego wnętrza i nieuchronnie narzucamy nasze teorie na nasze postrzeganie, konstruując wszelkiego rodzaju wyobrażenia o źródle naszego postrzegania, ale nie mogąc faktycznie spotkać się czy skonfrontować się z tym źródłem bezpośrednio. Istnienie realistów i idealistów, z których każdy uwikłany jest w światy, które dla drugiego wydają się fantomowe, stanowi wyrazistą ilustrację świata podmiotu i świata przedmiotu, które oddzielone są od siebie przepaścią pozornie nie do przebycia.

Metafizyk, afirmując to, co pozytywne w każdym z tych stanowisk i przyjmując to, co negatywne, jako drogowskaz do poszukiwanej przez niego międzyświatowej „pustki”, stoi zdecydowanie w obu światach, wykorzystując sprzeczności między nimi jako siłę, która podtrzymuje go w pustce, wznosząc się, aż do momentu, gdy objawi mu się jedno twórcze źródło każdego z nich.

            Doświadczenie to nie jest jedynie subiektywnym przeżyciem mistycznej jedności czy kosmicznej ekstazy, nie mającym żadnego znaczenia w świecie faktów czy teoretycznego rozumienia. Jest to jakby odkrycie teorii, która posiada percepcyjną teraźniejszość i niepodważalną trwałość zaobserwowanego faktu, a jednocześnie faktu, który posiada przejrzystą jasność i powiązanie przenikliwej teorii. Z tego powodu metoda metafizyczna wymaga jako warunku wstępnego nabycia umiejętności zwyczajowo cenionych w sferze subiektywnej i obiektywnej, a ponadto pewnych cnót religijnych, które stanowią rzeczywisty przewód dla opisywanych tu doświadczeń.

 2.2 Obrona metodologii

Obrona metody metafizycznej w każdym punkcie jest zbyt dużym zadaniem, aby podjąć się go tutaj. Zamiast tego postanowiłem szczegółowo rozważyć dwa punkty pozornego konfliktu pomiędzy współczesną myślą a metodą metafizyczną, aby zilustrować rodzaje obrony, które można podjąć. Wybrałem jeden rodzaj argumentu spośród wielu jako właściwy, a mianowicie pokazanie, że różnice nie są tak wielkie, jak nam się wydaje, tak że ataki na tę metodę są równie odpowiednie dla metody nowożytnej.

            Po pierwsze, kwestia autorytetów. Kontrast, jaki rysujemy między obecną praktyką a poprzednią (która ma wiele wspólnego z metodą metafizyczną), polega na tym, że „przednaukowe” prace zwykły ustalać punkty poprzez odwoływanie się do czczonych postaci, które zgadzały się z autorem (konkurs popularności), podczas gdy obecnie ustalają punkty poprzez połączenie eksperymentów, danych i ścisłego rozumowania matematycznego (test doświadczenia i prawdy). Istnieje wiele sposobów, w których ten kontrast jest mylący i samoobsługowy.

            Wiele ważnych punktów jest obecnie ustalanych przez nowoczesną wersję konkursu popularności. Przykładem jest sposób, w jaki „obalenie” teorii zmiennej ukrytej w mechanice kwantowej von Neumanna zyskało szeroką akceptację pomimo niewielkiej liczby osób, które ją zrozumiały. Ogromny prestiż Von Neumanna jako matematyka, w połączeniu z jego niezwykle długim, zawiłym dowodem, spowodował niemal natychmiastową akceptację kopenhaskiej interpretacji mechaniki kwantowej, pomimo faktu, że dowód ten, jak później wykazano, ma poważne trudności. [11]

            Co ważniejsze, system naukowy jako całość jest czymś, co akceptujemy na podstawie autorytetu. Nie idziemy ostrożnie, upewniając się o jego słuszności krok po kroku, w miarę jak uczymy się akceptować naukę. Akceptujemy go najpierw i możemy, ale nie musimy, zinternalizować któryś z jego wyraźnych nakazów. Większość z nas nie jest wykształcona w dziedzinie nauki, a nawet ci nieliczni z nas, którzy stają się biegli w jakiejś dziedzinie, czynią to po uprzednim gruntownym przesiąknięciu atmosferą, w której nauka uważana jest za autorytatywną. Nasze wyobrażenie o tym, kto lub co stanowi autorytet, zmieniło się, ale nasze poleganie na autorytecie jako takim z pewnością nie.

            Nieuczciwe jest twierdzenie, że starożytni odrzucali doświadczenie jako drogę poznania na rzecz autorytetu. Szanowali oni doświadczenie tak bardzo, że uważali je za umiejętność samą w sobie. Traktowali wysoko wykwalifikowanych „testerów” jak szlachetne instrumenty i pokładali w nich wiarę i zaufanie, tak jak my pokładamy je w naszych maszynach. My też mamy swoje autorytety, tyle że w większości nie są to ludzie, lecz maszyny i logika.

            Kiedy starożytni chcieli zbadać rzeczy fizyczne, używali swoich zmysłów i budowali instrumenty, które pomagały im w razie potrzeby. Ale nie interesowali się światem materialnym w takim stopniu jak my. Aby odpowiedzieć na większość pytań zadawanych w książkach, które piętnujemy jako pełne autorytetów, nie bylibyśmy w stanie skonstruować fizycznych instrumentów, które mogłyby nam pomóc. Ale starożytni wiedzieli, że instrumenty są mimo wszystko potrzebne, że naiwni i niedouczeni raczej nie natkną się na odpowiedzi na głębokie i subtelne pytania. Poddawali więc utalentowanych ludzi rygorystycznemu treningowi, aby uczynić z nich narzędzia (bezpośrednio widzianej) wiedzy, i słuchali z szacunkiem tego, co donosili. To, co może nam się wydawać nadmiernym poleganiem na autorytetach, jest często po prostu właściwym szacunkiem dla tego rodzaju instrumentu, który jest najbardziej odpowiedni dla danego pytania.

            To prowadzi nas do roli Rudolfa Steinera, głównego „autorytetu” w tym przypadku. Jego rola jest taka sama, jak rola naukowca, który przedstawia swoje wyniki badań grupie zajmującej się rozwojem produktu w firmie. Grupa ta nie mogła sama dojść do tych wyników, ale jest w stanie je sprawdzić i ocenić na podstawie swojej ogólnej wiedzy w danej dziedzinie i poprzednich wyników naukowca. Aby to zrobić, muszą znać metody naukowca i ufać im – jeśli jego poprzednie sukcesy były wynikiem szczęśliwego zbiegu okoliczności, nie ma powodu, by ufać kolejnym. Przesądna osoba i naukowiec mogą w danym przypadku postawić taką samą prognozę, a nasze różne reakcje zależą od znajomości metodologii, która doprowadziła do wyniku.

            Ale przypadek duchowego badacza różni się od przypadku zwykłego naukowca tym, że jego wyraźna praca nad sobą przekształciła to, co było po prostu postawami wobec faktów (postawy są subiektywne, a fakty obiektywne) w cały nowy świat faktów, tak samo obiektywny, ale bardziej rzeczywisty (głębszy, bardziej inkluzywny i istniejący) niż zwykły zestaw. Takie jest pochodzenie jako faktów bytów ponadzmysłowych, o których będzie mowa w tej książce, a które traktuje się jak każdy inny fakt, którego nie odkryło się samemu.

            Rozważywszy kwestię autorytetu, przejdę teraz do kwestii światów okultystycznych i istot niewidzialnych. Mówimy, że kiedyś ludzie rzutowali swoje uczucia na naturę i wyobrażali sobie świat ożywiony ukryty za nieożywionym, podczas gdy teraz po prostu badamy zjawiska, które znajdujemy, i konstruujemy testowalne teorie, aby je wyjaśnić. Ale co jest o wiele lepszego w rzutowaniu naszych myśli na zjawiska w sposób, w jaki przypuszczamy, że starożytni rzutowali swoje uczucia? Cała istota nowoczesnej nauki nie polega na tym, aby zadowolić się zjawiskami takimi, jakich się doświadcza, ale aby „przebić się przez nie” do rzekomych „praw fizycznych”, które one wyrażają, innymi słowy, aby skonstruować ukryty lub okultystyczny świat, który porządkuje zjawiska jawne. Newton był atakowany przez swoich współczesnych nie za swoją naukę, ale z powodu tego, co było postrzegane jako okultystyczna natura siły grawitacji. I jesteśmy bardziej zadowoleni z naszego okultystycznego świata niż z rzekomo pierwotnego; teoria obecnie często poprzedza obserwację, a nie podąża za nią, a nasi najwięksi naukowcy pokładają tyle samo lub więcej zaufania w dobrych teoriach, co w obserwacjach. [12]

            Kiedy już rozpoznamy sposób, w jaki współczesna nauka opisuje spekulatywny świat okultystyczny, który leży za zjawiskami, których doświadczamy, możemy rozważyć następny poziom argumentacji. Nawet jeśli nowoczesna nauka ma pewną okultystyczną jakość, argument ten mówi, że jest to okultyzm, który przewyższa stary okultyzm. Ze względu na ścisłe poleganie nauki na metodzie eksperymentalnej, uzyskuje ona lepsze wyniki niż stary okultyzm i dlatego powinna być od niego lepsza.

            Z pewnością byliśmy w stanie dokonać wielu pomiarów i przewidywań dokładniej niż starożytni – ale stało się to pomimo naszej „okultystycznej” metody, a nie z jej powodu. Wygraliśmy wiele bitew na dokładne pomiary nie z powodu lepszej broni, ale z powodu posiadania większej jej ilości; wygraliśmy dzięki skali naszej machiny wojennej, a nie jej skuteczności czy stosowności. Historia astronomii, zwykle brana za przykład triumfu nowoczesnej nauki, może być użyta do pokazania czegoś dokładnie przeciwnego: błędne przedstawienie jej historii przypadkowo dostarcza dowodów na nieszczerość i brak samoświadomości współczesnego „okultyzmu”.

            Obraz, jaki mamy, jest taki, że Ptolemeusz skonstruował swój arbitralny system sfer planetarnych w prymitywnej próbie mechaniki nieba i musiał wprowadzić wszelkiego rodzaju „poprawki”, aby w ogóle zadziałał. [13] Następnie pojawił się Kopernik, który wysunął pogląd heliocentryczny wbrew tysiącletniej tradycji, ponieważ rodzący się nastrój naukowy wymagał teorii, która lepiej niż teoria Ptolemeusza pasowałaby do faktów. W końcu Kepler dostrzegł, że orbity są elipsami, i era modemu została zapoczątkowana.

            Prawdziwa historia jest bardziej interesująca. Zaczyna się od Babilończyków, którzy zgromadzili wiele wieków obserwacji planetarnych i którzy w trzecim wieku przed Chrystusem określili takie rzeczy jak okres słoneczny z dokładnością, której astronomia współczesna nie przekroczyła aż do dziewiętnastego wieku, stosując teorię czysto empiryczną. [14] Następnie, korzystając z obserwacji babilońskich, Ptolemeusz (ok. 100 – ok. 178) skonstruował swoją teorię, aby „ocalić pozory”. [15] To, że potrzebował takiej teorii pokazuje, że modernizm już w nim działał, ale nie reifikował on swoich pojęć, ani nie wprowadzał do nich rozbudowanych pojęć idealnych. Choć utrzymywał, że wszelki ruch na niebie jest kulisty, wprowadził do swoich konstrukcji równik, co sprawiło, że jego okręgi stały się matematycznie równoważne elipsom.

            Kopernik pojawił się na scenie w XVI wieku. Przyznał, że rzadko prowadził obserwacje, a jako główną motywację podał ustalenie orbit planet jako idealnych okręgów. [Dlatego, przedkładając teorię nad obserwację, wyrzucił konstrukcję elipsy Ptolemeusza i mówił o tym, że Słońce jest „naprawdę” centrum naszego układu.

            Właściwie, oczywiście, można traktować zarówno Ziemię, jak i Słońce jako centrum naszego układu – jest to tylko kwestia tego, gdzie wolimy (dla wygody), aby znajdował się środek układu współrzędnych. Kopernik jednak uważał tę kwestię układów współrzędnych – nie mającą żadnego wpływu na zjawiska – za niezwykle istotną. Czyniąc to, jest on właściwie uważany za stojącego na początku naszej ery, ponieważ uznał to, czego nie ma i nie można zobaczyć, i co nie zmienia zjawisk, za ważniejsze od samych zjawisk. Znaczenie Keplera polega na tym, że pracował on w nowej „okultystycznej” sferze i pokazał, jak można w niej wykorzystać bardziej wyszukane idee; poprawił skuteczność metody, nie zmieniając jej jakości. [17]

            Historia pokazuje, że w stopniu, w jakim dbali o to, co nas obchodzi, starożytni uzyskali bez zastrzeżeń godne podziwu rezultaty, i że zrobili to bez postulowania wyszukanych światów, które stoją niewidzialne za zjawiskami; to my jesteśmy okultystami, nie oni. A jeśli użyjemy „wyników” jako miary cnoty, nasza metoda nie wytrzymuje tak dobrze jak ich, ponieważ mamy zobowiązanie do bezpośredniego połączenia między światem okultystycznym a światem zjawisk, które nie krępowało starożytnych. Być może dlatego byli oni w stanie przy tak oszczędnych środkach uzyskać wyniki dokładniejsze niż dokładność ich narzędzi obserwacyjnych.

            Istnieją istotne różnice pomiędzy światem okultystycznym postulowanym przez współczesną naukę, a tym obserwowanym przez niektórych starożytnych i kilku współczesnych spirytualistów. W szczególności, mój świat okultystyczny jest zaludniony przez żywe istoty. Ale okultystyczny świat żywych istot nie jest wewnętrznie trudniejszy do uzasadnienia niż okultystyczny świat matematycznie wyrażonych „praw” lub innych matematycznych quasi-obiektów, takich jak „atomy” czy „elektrony”, gdy tylko przyzna się, że jakiś okultystyczny świat istnieje. Oczywiście, nie jesteśmy przyzwyczajeni do tego, aby nasz okultystyczny świat był zaludniony przez żywe istoty; wydaje nam się to dziwne i niewygodne – ale co z tego? Jedynym naukowym pytaniem jest: czy możemy poznać ten świat (w takim stopniu, w jakim świat okultystyczny jest poznawalny), czy możemy pokazać poprzez jego wykorzystanie, że możemy wyjaśnić zjawiska, które w przeciwnym razie pozostawiają nas w zakłopotaniu? Kiedy dojdziemy do tego pytania, jest możliwe, że emocjonalnie i intelektualnie grunt jest oczyszczony dla nowych myśli, które zostaną tutaj przedstawione, i możemy kontynuować.

2.3 Logika materialna i duchowa

Ponieważ jest to książka o komputerach, a nie o samej metodologii, obecna dyskusja o metodologii musi wkrótce dobiec końca. Ponieważ jednak coś, co nazywa się „Aryman”, zostanie w sposób definitywny powiązane z maszynami, należy jeszcze przekazać jeszcze jeden zestaw myśli, myśli o logice, która przenika nasze myślenie.

            Prawa myślenia i logiki, które rozwinęły się na zachodzie, począwszy od Greków, są wystarczające do jasnego potraktowania natury komputera. Nie da się jednak adekwatnie potraktować pojęcia „Aryman” i pozostać w granicach zwykłej logiki; trzeba wybierać między tym, co prawdziwe, ale niejasne i nielogiczne, a tym, co jasne i spójne, ale wprowadzające w błąd. Źródłem problemu jest to, że – z kilkoma godnymi uwagi wyjątkami – nasza logika przyszła do nas poprzez zanurzenie w materialnym aspekcie świata. Nie dotyczy ona w całości myśli, lecz w węższym stopniu myśli o materii. W rezultacie nie możemy jasno myśleć (w zwykłym sensie) o czymś takim jak Aryman, który nie ma po prostu materialnego istnienia.

            Jako ostatni temat metodologiczny muszę więc krótko wskazać na naturę logiki, która leży u podstaw głównej treści tej książki, a także u podstaw innych wewnętrznie przejrzystych ekspozycji rzeczywistości duchowych. Dla uproszczenia będę nazywał wszystkie zwykłe logiki od sylogizmu przez rachunek predykatów „logiką materialną”, a rodzinę logik, których ogólną charakterystykę tu przedstawię, „logiką duchową”.

            Logika materialna pojawiła się w wielu różnych formach i przeszła w swojej historii znaczące transformacje. Nawet stosunkowo niewielkie różnice w zapisie miały niekiedy duży wpływ. Istnieją jednak pewne cechy wspólne wszystkim logikom materialnym. Wszystkie opierają się na stosunkowo niewielkim zestawie twierdzeń zwanych aksjomatami lub postulatami. Aksjomaty są podstawą każdego systemu logicznego, ponieważ pojawiają się jako pierwsze, twierdzone przez konstruktora systemu z jego własnych meta-logicznych powodów. Aksjomaty są niezwykle prostymi stwierdzeniami, tak prostymi, że ich prawda jest oczywista. Kiedyś uważano, że aksjomaty są uniwersalnie prawdziwe, ale obecnie powszechnie przyjmuje się, że są one arbitralne, że tworzą podstawę systemu nie ze względu na ich konieczną prawdziwość, ale dlatego, że system musi się na czymś opierać.

Słynnym aksjomatem w geometrii jest „linie równoległe na płaszczyźnie nigdy się nie spotykają”. [18] W logice symbolicznej typowym aksjomatem jest „a lub nie-a”, który mówi, że twierdzenie musi być albo prawdziwe, albo jego negacja musi być prawdziwa.

            Dwa odrębne rodzaje obiektów, które występują w systemach logicznych można nazwać operandami i operatorami. [Operandy są pasywnymi obiektami systemu. W geometrii są to rzeczy takie jak punkty i linie, podczas gdy w logice propozycjonalnej mogą one składać się po prostu z „prawda” i „fałsz”. Operatory są dynamicznymi aktorami systemu, zazwyczaj służą do powiązania operandów ze sobą. W arytmetyce operatorem jest „plus”, a w logice propozycjonalnej typowym operatorem jest „i”. Wypowiedzi w systemie logicznym składają się z zgodnych z prawem sekwencji operandów i operatorów. 

            Systemy logiczne muszą również posiadać reguły transformacji, które przekształcająObrazek jedno prawdziwe stwierdzenie w inne prawdziwe stwierdzenie. Są one być może najbardziej znane z algebry, w której prostą regułą transformacji może być:

Reguła ta wyraża myśl, że jeśli zaczniemy od dowolnego równania „s=t” i dodamy stałą „c” do każdej strony równania, to wartość prawdziwa tego równania pozostanie niezmieniona. Reguły transformacji, zastosowane do aksjomatów, pozwalają na uzyskanie nieskończenie dużej liczby prawdziwych twierdzeń, z których najważniejsze nazywane są twierdzeniami. Twierdzenia są po prostu zdaniami złożonymi, które zostały wyłonione z aksjomatów poprzez zastosowanie reguł transformacji w określonym porządku.

            Tak jak aksjomaty są podstawą systemu logicznego, tak twierdzenia są w pewnym sensie jego celem. Twierdzenia są często na tyle skomplikowane, że ich prawda nie jest dla większości z nas oczywista, ale mimo to można wykazać, że są tak samo prawdziwe jak aksjomaty. W odpowiednich okolicznościach wykazanie, że jakieś twierdzenie jest z konieczności prawdziwe lub fałszywe (udowodnienie lub obalenie przypuszczalnego twierdzenia) może być wyzwaniem i może być użyteczne.

            Aby wyjaśnić pojęcie systemu logicznego, rozważmy system, który możemy nazwać „liczbami nieparzystymi”. [20]

            Definicja systemu składa się z trzech części. Pierwszą z nich jest alfabet, czyli zbiór znaków, które mogą występować w wypowiedziach. W tym przypadku alfabet ma tylko jeden znak, „1”. Drugą jest zbiór aksjomatów, w tym przypadku pojedynczy aksjomat „1”.Obrazek Wreszcie, istnieje pojedyncza reguła produkcji, jak pokazano na rysunku, gdzie „x” jest rozumiane jako oznaczające dowolne stwierdzenie (aksjomat lub twierdzenie). Reguła ta mówi, że każde prawdziwe stwierdzenie pozostaje prawdziwe po dodaniu do niego „II”. Kolejne zastosowanie reguły produkcji do aksjomatu daje w rezultacie twierdzenia „111”, „11111”, „1111111” itd. Jeśli każdą serię jedynek zinterpretujemy jako liczbę (w jednoargumentowym systemie liczbowym), to okaże się, że nasz system logiczny obejmuje liczby nieparzyste 1, 3, 5, 7 itd. Podczas gdy ten system jest trywialny, bardziej skomplikowane systemy różnią się jedynie tym, że mają większe alfabety, więcej aksjomatów [21] i więcej reguł produkcji.

            Siła logiki materialnej wynika z faktu, że jest ona czysto formalna. Nie jest ona niczym innym jak zbiorem reguł, które mówią, jak przekształcać ciągi znaków w inne ciągi znaków. Znaki te nie mają żadnego własnego znaczenia. Nie są symbolami ani nawet znakami czegokolwiek: nie jest konieczne przyznanie jakiejkolwiek wspólności pomiędzy czterema obiektami i znakiem „4”, aby mieć logicznie poprawny system arytmetyki. W istocie, cudem szczęścia jest to, że korespondencje mimo wszystko istnieją, że z całkowicie pustego systemu można sporządzić dokładne mapy znacznej części świata. Dla logika jednak, być może większą rozkoszą jest sposób, w jaki twierdzenia o takiej mocy, pięknie i subtelności mogą być zbudowane z małego stosu trywialności.

            W logice materialnej idea logik wyższego rzędu jest już obecna. Na przykład, mówi się o logice pierwotnej lub prostej logice propozycjonalnej, a następnie o logice ogólnej, która zawiera kwantyfikatory takie jak „jakiś” i „każdy”. Ten sposób budowania logiki wprowadza do gry (symbolicznie rzecz ujmując) element wertykalny, ale element wertykalny jest niestety fałszywy. Punkt ten można uchwycić przez porównanie królestwa roślin i królestwa zwierząt, w którym zwierzęta są rzeczywiście wyższym porządkiem bytu niż rośliny; dodają one element jakościowy (z odpowiednim wyrazem fizycznym), który nie jest obecny w roślinach. Gdyby królestwo zwierząt było wyższego rzędu w takim sensie, w jakim termin ten może być rozumiany w logice materialnej, zwierzęta byłyby zbudowane z tych samych zasad i materiałów co rośliny, z tą różnicą, że w jakiś sposób żywiłyby się innymi roślinami zamiast lub oprócz przeprowadzania fotosyntezy. W rzeczy samej, rośliny pasożytnicze, takie jak jemioła i rośliny owadożerne, takie jak mucha wenusjańska, są w tym sensie fałszywymi zwierzętami, roślinami wyższego rzędu. Prawdziwie logiki wyższego rzędu są jednak możliwe. Wiem o dwóch poziomach, a może istnieć ich więcej. Poziom bezpośrednio powyżej logiki materialnej jest logiką metamorfozy i transformacji w świecie rządzonym przez dynamiczne bieguny. Goethe wyczuwał tę logikę podczas studiów botanicznych, a Hegel rozwinął ją pod szyldem dialektyki. Opisałem wstępnie tę logikę i szczegółowo przedstawiłem jej zastosowanie w innym miejscu. Podczas gdy logika materialna jest właściwa dla świata minerałów, ta pierwsza logika wyższego rzędu przenika wszędzie tam, gdzie żywa istota rozwija się organicznie,

            Interesuje nas tutaj logika drugiego rzędu, którą nazwałem logiką duchową. O ile wiem, formalizm, w którym można by wyrazić twierdzenia tej logiki, nigdy nie został opracowany, ani nie będę go tutaj przedstawiał. Niemniej jednak można zauważyć, że logika duchowa przenika rzeczywistości duchowe w sposób odpowiedni do ich natury, a ludzie, którzy badali te rzeczywistości w dokładny sposób, intuicyjnie sprawiali, że ich opisy były zgodne z logiką duchową, niezależnie od tego, czy byli tego świadomi, czy nie. W dalszej części postaram się scharakteryzować i opisać logikę duchową, ale nie w pełni ją zdefiniować.

            Logika duchowa jest powiązana z logiką materialną poprzez serię inwersji, odwróceń i połączeń dotyczących jej centralnych elementów i cech. Najbardziej oczywista inwersja wiąże się z pustką, która charakteryzuje logikę materialną jako całość. Jej znaki i ciągi są puste, arbitralne i trywialnie oczywiste. Alfabet nie jest niczym innym, jak zestawem uchwytów miejsca. Twierdzenia, jakkolwiek mądre, dają się mechanicznie wyprowadzić z aksjomatów za pomocą reguł produkcji. W logice duchowej należy powiedzieć, że znajdujemy nie znaki, lecz symbole. Wszystkie twierdzenia, zarówno aksjomaty, jak i twierdzenia, wskazują na źródła sensu, bytu i jakości. Oczywiście, znaki, które można wykonać na kartce papieru, powierzchownie wydają się podobne do tych, które występują w logice materialnej. Chodzi o to, że logika materialna może być w pełni reprezentowana przez znaki na papierze, podczas gdy logika duchowa może być odpowiednio wskazana jedynie przez poprawnie uformowane symbole graficzne.

            Logika materialna jest bardziej trywialna w swoich aksjomatach i bardziej wyrafinowana w swoich twierdzeniach, których odkrycie wymaga nie lada geniuszu. Jej aksjomaty są tak oczywiste, że początkujący studenci często są nimi zdezorientowani: kto przy zdrowych zmysłach zadałby sobie trud, by stwierdzić zasadę tożsamości, że każda zmienna lub stała jest równa sobie? W logice duchowej ta relacja jest odwrotna – aksjomaty są pełne, konieczne i stanowią tę część systemu, która jest najgłębsza i najtrudniejsza do zrozumienia, podczas gdy twierdzenia są (relatywnie rzecz biorąc) łatwiejsze do uchwycenia i arbitralne. W logice materialnej chodzi o to, by odkryć i wyjaśnić twierdzenia; w logice duchowej łatwiej natknąć się na twierdzenia, a chodzi o to, by wyjaśnić aksjomaty, głębokie źródła systemu.

            Inny aspekt odwrócenia relacji między aksjomatami i twierdzeniami dotyczy jedności i złożoności. W logice materialnej aksjomaty są prostymi twierdzeniami, podczas gdy twierdzenia są prawie zawsze złożone. W logice duchowej aksjomaty nadal są w pewnym sensie jednością, ale są nią w sposób złożony, wieloaspektowy, podczas gdy w momencie, gdy dochodzimy do konsekwencji, do twierdzeń, złożoność jest przynajmniej znacznie zredukowana. Twierdzenia najbardziej odległe od aksjomatów są prostymi nieredukowalnymi, takimi jak indywidualne percepcje doświadczane przez ludzi.

            W większości przypadków logiki materialnej (choć nie w podanym wyżej przykładzie – myśl zamiast algebry) istnieje wyraźne rozróżnienie między operandami pasywnymi a operatorami aktywnymi. Podobne rozróżnienie zachodzi między pasywnymi systemami logicznymi a aktywnymi maszynami abstrakcyjnymi (np. Turinga), mimo że można całkowicie modelować jedne w kategoriach drugich. [22] Ponownie, rozróżnia się pomiędzy aktywnymi regułami produkcji i pasywnymi twierdzeniami. Chociaż takie dualności przenikają logikę materialną, jest ona jako całość pasywna (substancjalna) w stosunku do logiki duchowej, która jako całość jest aktywna (esencjalna). Pewne oblicze tej relacji pojawiło się w dyskusji o pełni i pustce logik powyżej.

            W miarę jak przechodzi się od pasywnej (jako całość) logiki materialnej do aktywnej logiki duchowej, dualizm aktywny/pasywny schodzi na dalszy plan, tak że na przykład znika wyraźne rozróżnienie między operandami (takimi jak zmienne w równaniu) i operatorami (takimi jak „+”). Symbole logiki duchowej mają jednocześnie naturę substancji i esencji.

            Logika duchowa nie jest alternatywą dla logiki materialnej, ponieważ nie zastępuje ona logiki materialnej w jej właściwym obszarze zastosowania. Nadal trzeba być w stanie wyłapywać i eliminować sprzeczności w logice zwyczajnej. Jednakże ta godna podziwu praktyka, powszechnie stosowana, skutecznie uniemożliwia myślenie o zjawiskach, które mają przede wszystkim duchowe podłoże. Stąd logika duchowa, która dostarcza podstaw do jasnego myślenia o duchowych rzeczywistościach i która jest implicite zawarta (a więc konieczna do racjonalnego zrozumienia) w istniejących opisach zjawisk duchowych.

[6] Leibniz: „On True Method in Philosophy and Theology”, 1686, z „Selections”, P. Wiener, Ed., New York, 1951.

[7] Najbardziej zwięzłe podsumowanie metody metafizycznej poza pracami Rudolfa Steinera znajduje się w Rene Guenon: „Oriental Metaphysics”, Tomorrow, vol. 12, nr 1; także w Jacob Needleman: The Sword of Gnosis, Baltimore, 1974.

[8]Nie musi to koniecznie oznaczać przyjęcia stanowiska dualistycznego, które jest artefaktem podejścia do materialistycznej koncepcji świata. Składnik nadzmysłowy”, o którym mowa, opiera się na pojęciowym rozróżnieniu między duchem a materią, które jest konieczne ze względu na kontekst współczesności, ale nie należy go traktować jako implikacji ontologicznego rozróżnienia między nimi, działającego na wszystkich poziomach.

[9] Zob. Guenon: The Reign of Quantity, Baltimore, 1972, i Symbolism of the Cross, London, 1945, dla argumentacji w tym kierunku.

[10] N. R. Hansen: Patterns of Discovery, Cambridge, 1958, szczególnie rozdział pierwszy.

[11] Przykład ten jest szczegółowo wyjaśniony w Feyerabend: Science in & Free Society, London, 1978, s.

[12] Einstein uważał negatywne wyniki testu szczególnej względności za „nieprawdopodobne, ponieważ ich podstawowe założenia (…) nie są sugerowane przez systemy teoretyczne, które obejmują szersze kompleksy zjawisk”. W odniesieniu do testu ogólnej teorii względności powiedział: „To naprawdę dziwne, że istoty ludzkie są zwykle głuche na najmocniejsze argumenty, podczas gdy zawsze są skłonne do przeceniania dokładności pomiaru.” Odnośniki i dalsza dyskusja tego punktu są podane w Feyerabend: Against Method, London 1975

[13] Jesteśmy o tym przekonani do tego stopnia, że jeden z nich, „epicykl”, zaczął oznaczać każdy mechanizm ad hoc, który rozbudowuje teorię, nie pogłębiając jej.

[14] „Obecnie uznaje się, że wartość [Oppolzera z 1887 r.] dla ruchu Słońca od węzła była o 0,7” za mała w skali roku; (w IV w. p.n.e. babiloński} Kidinnu był w rzeczywistości bliższy Słońcu. Kidinnu był rzeczywiście bliżej prawdy z błędem 0,5 „zbyt wielki”. Cytowane w Toulmin i Goodfield: The Fabric of the Heavens, New York, 1961, str. 39.

[15] Jest to wyrażenie użyte przez Ptolemeusza, aby wyrazić to, co chciał osiągnąć w swojej teorii matematycznej. Owen Barfield, w swoim Saving the Appearances, New York, 1965, idzie daleko w wyjaśnianiu implikacji tej frazy w relacjach podmiot-przedmiot, oraz w ewolucji świadomości.

[16] „Ruch ciał niebieskich jest regularny, kolisty i wieczny – albo inaczej złożony z ruchów kolistych” nagłówek księgi I, sekcja 4, O obrotach sfer niebieskich.

[17]Matematycznie rzecz biorąc, słynne „odkrycie” Keplera dotyczące eliptycznej natury orbity Marsa należałoby raczej nazwać „odzyskaniem”, ponieważ nie uczyniło ono nic więcej, niż przywróciło teorię astronomiczną do punktu, w którym znajdowała się ona w czasach Ptolemeusza. Istnieje dokładna równoważność między trzema punktami Ptolemeusza: 1) ziemia, 2) środek ekscentrycznej i 3) środek równika, a trzema punktami Keplera: 1) słońce w jednym ognisku elipsy, 2) środek elipsy i 3) drugie ognisko elipsy.

[18] „Że, jeśli linia prosta zawodząca na dwóch liniach prostych sprawia, że kąty wewnętrzne po tej samej stronie są mniejsze od dwóch kątów prostych, to te dwie linie proste, jeśli są wytwarzane w nieskończoność, spotykają się na tej Bide, na której są kąty mniejsze od dwóch kątów prostych.” Euklides: Elementy , Księga I, Postulat 5. Euklides oparł swój system na tym, co można przetłumaczyć jako 23 definicje, 5 postulatów i 5 zwykłych pojęć. Różnice między nimi i zmiany, jakim podlegały, choć mają wielkie znaczenie w historii logiki materialnej, są nieistotne w obecnej próbie scharakteryzowania logiki materialnej jako całości.

[19] Rozróżnienie to jest kluczowe dla sformułowań logiki dla celów praktycznych, takich jak języki komputerowe, i dlatego przenika do myślenia tych, którzy się nimi zajmują. W czysto teoretycznych formach logiki opracowanych w celu udowodnienia twierdzeń o granicach i mocach systemów logicznych jako takich, rozróżnienie to jest zazwyczaj nieistotne.

[20] Forma przyjęta w przykładzie jest formą systemu produkcji Post. Jak pokazał Poet („Formal reductions of the general combinatorial decision problem*, Am. Journal of Math, €5, s. 197-268, i opisane w Minsky), każdy system formalny, w tym maszyny Turinga, może być zredukowany do kanonicznej postaci systemu produkcyjnego typu zilustrowanego tutaj. Więcej przykładów można znaleźć u Hofstadtera: Gödel, Escher, Bach, New York, 1980. Dla pośredniej prezentacji, zobacz Mínsky: Computation: Finite and Infinite Machines, Englewood Cliffs, 1967.

[21] Chyba, że system jest w Post „normalnej” formie, w którym to przypadku zawsze istnieje jeden aksjomat.

[22] To rozróżnienie jest czymś więcej niż tylko kwestią notacji. Nawet od czasu, gdy izomorfizm wszystkich takich systemów został definitywnie wykazany, logicy nadal myślą w kategoriach modelowania maszyny Turinga za pomocą systemu produkcji Post, a nie po prostu przekładania między notacjami.

3. Przesłanki historii/wskazania

W tym rozdziale opiszę przesłanki lub aksjomaty, na których opiera się bardziej konkretna historia, która następuje, lub, z innego punktu widzenia, które przenikają i ożywiają wydarzenia historyczne. Zgodnie z zasadami logiki wprowadzonymi w poprzednim rozdziale, wszystko, co będzie można tu zrobić, to zidentyfikować odpowiednie przesłanki, nazwać je i podać ich wstępny, raczej strukturalny opis. Niemniej jednak postaram się ożywić te opisy, podając dla ilustracji niektóre bezpośrednie konsekwencje i korelaty aksjomatów.

            W świecie, tak jak go zazwyczaj postrzegamy, nie ma miejsca na istoty, które nie są w sposób oczywisty i jasny jego częścią. Ponieważ będę rysował związek między taką istotą a światem, to oczywiście nie mówię o świecie takim, jakim go zwykle pojmujemy, które to pojmowanie jest samo w sobie symptomem wpływu Arymana. Aby ujawnić istnienie i obecność Arymana, musimy odłożyć na bok ukrywającą go koncepcję i zastąpić ją czymś, co można (dla wygody) nazwać „światem stworzonym”. To jest pierwszy aksjomat.

            Świat stworzony to taki, który wprawdzie zajmuje pewien poziom istnienia, ale nie czyni tego w sposób konieczny. Nie generuje swego istnienia sam z siebie. Nie trzeba mówić, że stworzenie nastąpiło w określonym czasie, przed którym nic nie istniało; mówi się raczej, że głównym dziełem stworzenia jest ustanowienie matrycy świata, miejsca (mówiąc metaforycznie), które będzie zawierało zawartość świata. Tę matrycę lub naczynie nazywamy przestrzenią i czasem. Z tego jasno wynika, że świat został stworzony na początku czasu, ponieważ przed jego stworzeniem nie było czasu.

            „Miejsce”, w którym świat miałby się znaleźć, było puste, zanim świat został stworzony, ale to wymaga, aby istniało coś w jakimś innym (symbolicznie mówiąc, wyższym) „miejscu”, które istnieje i jest w stanie zapoczątkować istnienie, i które faktycznie dokonało aktu stworzenia naszego świata. Dalsze badanie tego świata jest nieistotne. Myślenie o nim jako o „niebie” lub „Bogu” byłoby niewłaściwe i nieścisłe. Wystarczy uświadomić sobie, że istnienie innego i wyższego rodzaju niż nasz własny jest logiczną koniecznością, jeśli nasz świat może być właściwie nazwany „stworzonym”.

            Stan świata stworzonego jest ukształtowany lub przeniknięty przez aksjomat wysokiego rzędu, który możemy nazwać „podwójnością”. Aksjomat ten pojawia się w wielu postaciach i leży u podstaw kilku pojęć, które okażą się fundamentalne dla naszej dyskusji. Jest on nam być może bardziej znany jako pojęcie „biegunowości”, w którym dwie wzajemnie sprzeczne zasady są postrzegane jako dynamicznie przeciwstawne sobie, a w rzeczywistości są komplementarnymi aspektami zunifikowanej całości. Fizyk Niels Bohr, który zrobił tak wiele, aby ustanowić takie biegunowości jak dualizm fali/cząsteczki wbrew wielkiemu oporowi, określił to jako: „Przeciwieństwem poprawnego stwierdzenia jest fałszywe stwierdzenie. Ale przeciwieństwo głębokiej prawdy może równie dobrze być inną głęboką prawdą„. Biegunowość, choć służy jako dobre wprowadzenie do niej, nie jest tożsama z dwoistością, lecz jest tylko jednym z jej aspektów; poznamy ich więcej później.

            Pozostawiając na razie „jedność” na boku, przejdźmy teraz do aksjomatu „zerowości”, czyli „nicości”, który już poruszyliśmy, opisując, co było, gdy nie było stworzonego świata. Trudności, jakie napotykamy w zrozumieniu tego aksjomatu w kontekście świata stworzonego, który sam jest rządzony przez dwuwartość, dobrze ilustrują znaczenie dwuwartościowości. Jak bowiem mamy zrozumieć nicość, jeśli nie poprzez wyobrażenie sobie tego, co jest, gdy czegoś nie ma? Trudno nam wyobrazić sobie nicość jako absolut, którego definicja zależy tylko od niej samej – jesteśmy zmuszeni przyznać, że nicość byłaby „niedefiniowalna, nie miałaby żadnego znaczenia, gdyby nie „coś”, z czym można by ją przeciwstawić”. Ale zerowość jest aksjomatem, który istnieje niezależnie od dwutonowości, chociaż jesteśmy zobowiązani do wyobrażenia jej sobie z wnętrza stworzonego świata, w którym dwutonowość jest regułą. Poza tym, co zostało już zasugerowane, o zerowości można powiedzieć (odpowiednio) niewiele.

            Jedność, którą można również nazwać „jednością”, jest pośrednia w stosunku do poprzednich dwóch aksjomatów. Jedność rządzi wtedy, gdy świat został stworzony w swoim istnieniu, ale zanim nadano mu formę. Jedność panuje w matrycy wspomnianego świata, w bycie, który utrzymuje świat, który następnie zostaje wrzucony w stan wielości, w stan, w którym napotykamy byt zjednoczony. Jedność panuje, jeśli uda się wspiąć z powrotem po ontogenetycznej drabinie stworzenia tam, gdzie rządzi podwójność – wtedy mówi się, jak buddyści, o przezwyciężeniu fałszywego rozróżnienia między podmiotem i przedmiotem (aspekt podwójności), albo, jak w islamie, o absolutnej i bezwarunkowej jedności Boga.

            Teraz zajmiemy się kilkoma głównymi aspektami podwójności w świecie stworzonym. Jedno z takich oblicz znane jest z nazw jego dwóch końców: mikrokosmos (mały świat) i makrokosmos (wielki świat). To oblicze jest ważne, ponieważ jest utożsamiane z człowiekiem i stanowi drzwi, przez które można bezpośrednio uzyskać wiedzę o rzeczach tu opisanych. Konkretnie, każdy człowiek uczestniczy i jest odmianą prototypowego człowieka, który jest mikrokosmosem. Człowiek uniwersalny, makrokosmos, utożsamiany jest ogólnie ze światem nie-ludzkim, a w szczególności ze światem niebieskim – światem siedmiu planet i dwunastu znaków. Mikrokosmos/makrokosmos jest aspektem podwójności, który określa strukturę świata doświadczanego przez każdego człowieka; opisuje, w jaki sposób potencjalna istota ludzka jest wprowadzana do stworzonego świata.

            Proces wprowadzania człowieka do świata stworzonego, o którym właśnie była mowa, jest ogólnie nazywany „inkarnacją” i zasługuje na osobne omówienie. Aby potencjalny człowiek mógł stać się częścią świata stworzonego, musi podążać drogą tworzenia świata – w przeciwnym razie skończyłby w innym miejscu niż wtopiony w świat stworzony, co jest przypuszczalnym celem procesu inkarnacji. Człowiek zostaje najpierw wyniesiony z nicości do prostego bytu, do tego, co jest dla nas stacją drogi jedności lub jedności. Następnie człowiek przekracza granicę od jedności do dwoistości, pojawiając się jednocześnie na dwóch granicach świata stworzonego. Pierwsza granica, odpowiadająca mikrokosmosowi, jest nieskończenie małym punktem, fizycznie reprezentowanym przez zapłodnioną komórkę jajową. Drugą granicą, odpowiadającą makrokosmosowi, jest nieskończenie odległa płaszczyzna lub sfera, peryferie wszechświata, symbolizowane przez zodiak. Ten punkt przejściowy pomiędzy jednością a podwójnością jest symbolicznie reprezentowany przez Uroborosa (wąż gryzący swój ogon), ponieważ głowa i ogon węża są bardziej odległe od siebie niż jakiekolwiek inne części węża, ale mogą być również połączone bardziej intymnie niż jakiekolwiek inne części, w którym to stanie wąż jest zamkniętą figurą, bez początku i końca. Kiedy przejście w bliźniaczość zostało dokonane, zasadnicza fuzja ze światem stworzonym została osiągnięta, a wcielenie jest zakończone poprzez rozwój metamorficzny, którego szczegóły nie muszą nas tutaj interesować.

            Aspektem dwoistości, który bezpośrednio przejawia się w ludzkim doświadczeniu, jest aspekt podmiotu i przedmiotu. Podmiot jest tym, czym (lub, bardziej typowo, kim) jesteśmy, podczas gdy przedmiot jest tym, czym (rzadko kim) nie jesteśmy. Podobnie jak wszystkie aspekty podwójności, wydają się one być absolutnie odrębne od siebie, bez możliwości ich połączenia czy nawet prawdziwej komunikacji.

            Blisko spokrewnionym aspektem podwójności jest aspekt ducha i materii. Status tej biegunowości został zaciemniony w czasach współczesnych z powodu coraz powszechniejszego zaprzeczania, że termin „duch” oznacza cokolwiek innego niż urojone myślenie. Współczesny świat najbardziej zbliżył się do uznania tej biegunowości w fizycznym pojęciu materii i energii oraz równoważności między nimi. W tym pojęciu „kawałek” materii jest postrzegany jako ściśle związana koncentracja ogromnej ilości energii, która, podobnie jak duch, jest postrzegana jako czysty dynamizm, aktywność bez jakiejkolwiek materialnej czy fizycznej podstawy. W doktrynie hinduistycznej analogiem materii jest Prakriti, która jest pasywna i substancjalna, podczas gdy duch jest analogiczny do Purusha, który jest aktywny i esencjonalny.

            W manifestacji stworzonego świata, każda z liczb rządzi światem w sekwencji, choć żadna z nich nigdy nie przestaje istnieć, co pokazuje możliwość doświadczenia jedności poprzez mistycyzm podczas inkarnacji w świat, gdzie regułą jest dualizm – „dwójnia”. To prowadzi nas do pojęcia sekwencji w formach przejawiania się świata stworzonego. (Używam słowa „sekwencja”, próbując oddzielić zmiany od naszego zwykłego pojęcia czasu, które wymaga doświadczenia różnic, doświadczenia, które po raz pierwszy stało się możliwe dzięki regule dwoistości). Podczas jedności całe stworzenie jest razem, bez rzeczywistej odrębności; ten stan jest przedstawiony w Biblii jako Ogród Eden. Po Wypędzeniu rozpoczęło się panowanie dwójkowości, a wraz z nim nasz obecny czas i to, co można nazwać „ewolucją”. Termin ten jest wyłączną własnością podwójności i oznacza wypracowywanie istotnych właściwości podwójności, z których najbardziej centralne obracają się wokół różnicy i rozróżnienia. Podczas ewolucji rozróżnienia pojawiają się tam, gdzie ich nie było, a istniejące różnice wyostrzają się i powiększają.

            Można więc powiedzieć, że w toku ewolucji człowiek zostaje oddzielony od bogów (wygnany z Ogrodu, odcięty od wyższych poziomów bytu); człowiek zostaje oddzielony od samego siebie (oddzielenie mikrokosmosu od makrokosmosu, ograniczenie komunikacji z wyższym „ja” do „głosu sumienia”); pojawiają się języki (wieża Babel), rasy, narody, płcie; pojawiają się i różnicują gatunki; i w ogóle cały byt ulega fragmentaryzacji i separacji.

            Wprowadzenie „trójczłonowości” jest punktem zwrotnym w rozwoju dwoistości i ewolucji. Tak jak dwa to liczba ewolucji, tak trzy to liczba tego, co nazwano „inwolucją”, która jest odwrotnością ewolucji, a mianowicie przezwyciężeniem różnic i powrotem przemienionego człowieka na łono bogów. Kiedy trójka całkowicie przezwycięży dwuczłonowość, czas dobiegnie końca i sekwencyjność stworzonego świata we wszystkim, co przypomina jego obecny stan, dobiegnie końca.

            W tym momencie należy wprowadzić nasze trzy główne pojęcia w formie, w jakiej pojawią się w dalszej części tej książki: Lucyfer, uosobione oblicze jedności, Aryman, dwojakości, i Chrystus – „trójczłonowości”. Naszym głównym bohaterem jest oczywiście Aryman, który uosabia tendencje charakterystyczne dla epoki, w której żyjemy, i który będzie związany z charakterystycznym produktem naszej epoki, komputerem. Ale zrozumienie czegoś oznacza przynajmniej częściowe ujrzenie tego w odpowiednim kontekście, a kontekst Arymana obejmuje Lucyfera i Chrystusa.

            Aby stworzyć bardziej żywy, wstępny obraz Arymana, zwróćmy się do tego, co można nazwać mitologią Arymana. Rudolf Steiner mówi nam, że istoty Arymaniczne [23] są „największą, najbardziej wszechstronną i przenikliwą inteligencją w kosmosie.” [24] Ale ta inteligencja jest wyrachowana, jest lodowato zimna, do tego stopnia, że „im bardziej [Aryman] osiąga swoje cele, tym surowszy jest mróz wokół niego…” [25] Inteligencja Arymana sprowadza wszystko, z czym pracuje, do miary, wagi i liczby. Jest ona mechanistyczna i deterministyczna. Istnieją sposoby bycia inteligentnym, które nie są sposobem Arymana, ale ponieważ „Bogowie […] uwolnili kosmiczną intelektualność, aby stała się częścią ludzkiej natury”, a istoty arymaniczne wykorzystały swoją zdolność „do zjednoczenia z własną istotą sumy wszystkich inteligencji” [26], Aryman jest mocno utożsamiany (z pewnego punktu widzenia) z rodzajem prawdziwej inteligencji.

            Nie powinno być trudno dostrzec, jak opis Steinera wiąże się z tym, co wcześniej powiedziano o Arymanie; wszystko to wynika z natury dwuczłonowości. Inteligencja, szczególnie gdy jest zimna, oddziela się od świata, traktuje świat jako przedmiot i obserwuje go. Odrębność jest niezbędna do jej funkcjonowania. Rozwój inteligencji idzie zwykle w parze z doświadczeniem alienacji, w którym przepaść towarzysząca dwuczłonowości wydaje się nie do przebycia.

            Pozostawiając na razie na boku jego cechy, przejdźmy teraz do działalności Arymana w historii. Interesuje nas tu jeden centralny fakt, a mianowicie to, że Aryman wcieli się w ludzkie ciało fizyczne na Zachodzie w trzecim tysiącleciu po Wcieleniu Chrystusa. [27] To wydarzenie zapewni symetrię z wcieleniem Lucyfera, które miało miejsce na Wschodzie w trzecim tysiącleciu przed Wcieleniem Chrystusa.

            Postaram się teraz wyjaśnić to wydarzenie z dwóch stron. Po pierwsze, w dalszej części niniejszego rozdziału pokażę, jak przedstawione już aksjomaty prześwietlają je z różnych punktów widzenia. Po drugie, w części historycznej prześledzę konkretne wydarzenia, które wynikają z nadchodzącego wcielenia, w sposób, który – mam nadzieję – uwydatni ich związek z aksjomatami.

Co oznacza inkarnacja Arymana? Z naszej poprzedniej dyskusji wiemy, że wszelkiego rodzaju wcielenie wiąże się z wejściem w stworzony świat bytu w dwóch formach: makrokosmicznej i mikrokosmicznej. Kiedy istota, która wciela się, jest zwykłym człowiekiem, pozostaje na powierzchni rzeczy; to znaczy, że ma swoje ciało, a jego narodziny są właściwie wyrażone w konfiguracjach, które obecnie badane są jako „astrologia”, ale „nic specjalnego” nie trzeba zrobić, aby go przyjąć. Jakkolwiek może się zdarzyć, że Aryman przybierze ludzką postać, nie jest człowiekiem; ma on korzenie głębiej w strukturze świata niż jakikolwiek śmiertelnik, będąc w rzeczywistości częścią tej struktury. Kiedy Aryman inkarnuje, nie może pozostać na powierzchni rzeczy, ponieważ w jednym przebraniu sam tworzy lub konstytuuje powierzchnię rzeczy. Ta głębia wyraża się w tym, że to, co najmniejsze i to, co największe, nie jest w nim tak odległe od siebie w nieskończoność, jak dla śmiertelników, ale rozciąga się do siebie i zbliża: mikrokosmiczna forma Arymana rozrasta się, by wypełnić przestrzeń, podczas gdy aspekt makrokosmiczny, daleki od ograniczania się do peryferii świata, kurczy się i faktycznie przenika naszą lokalną przestrzeń. Tak więc ucieleśnienie Arymana (mówiąc o mikrokosmosie) rozciągnęłoby się na znaczną odległość poza namacalne granice jego ciała, zachowując jednocześnie w tej przestrzeni swój mikrokosmiczny charakter.  Konsekwencją tego jest to, że Aryman wydawałby się niezwykle osobisty i otwarty; spotkanie z nim głębokie i poruszające, indywidualny sposób, bez poczucia społecznego fałszu, byłoby normą.  Podobnie ciała tych, którzy byli fizycznie blisko niego, zmieniliby się, by wyglądać tak, jakby się w nich inkarnował. W przypadku słabo zindywidualizowanego współpracownika rezultatem byłoby fizyczne podobieństwo; z silnie zindywidualizowanym współpracownikiem, rezultatem byłby zaakcentowany rozwój tych cech, które były zgodne z naturą bytu Arymana.

            Konsekwencją makrokosmicznego aspektu wcielenia Arymana jest to, że świat nabierałby Arymanicznego odcienia. Można by wyjrzeć na zewnątrz i zdawać by się mogło, że widzimy, nie całkiem namacalnie, uśmiechającego się do nas Arymana. W szczególnych miejscach lub przedmiotach, zwłaszcza w tych, których charakter lub funkcja nie były dobrze uformowane lub nie istniały przed rozpoczęciem procesu inkarnacji, można by było zobaczyć (makrokosmiczny aspekt) oblicze Arymana całkiem wyraźnie. Jednym z małych przykładów tego jest sposób, w jaki myślimy o samych niebiosach. Wystarczy wspomnieć fakt, że Babilończycy mieli jedno słowo, które oznaczało zarówno „boga”, jak i „gwiazdę”, co nie odzwierciedla doświadczenia większości naszych współczesnych, gdy patrzą na niebo.

            Polaryzacja podmiot-przedmiot została wymieniona jako aspekt dwoistości, która teraz rządzi światem stworzonym. Możemy spojrzeć na wcielenie z perspektywy tego aspektu, podobnie jak na pozostałe. Z jednego końca biegunowości, wcielenie polega na zbiorze pewnych (Arymanicznych) zmian zachodzących w subiektywnym aspekcie doświadczeń dużych grup ludzi. Zmiany te nie występowałyby z jednakową intensywnością u wszystkich jednostek, ani u wszystkich grup. Ale postęp wcielenia polegałby na ogólnej tendencji w kierunku Arymanicznym. Istnienie tendencji, która dotyka prawie każdego przynajmniej w niewielkim stopniu, odzwierciedla uniwersalny lub uniwersalny ludzki charakter wcielenia. Fakt, że tendencja ta jest wyraźnie widoczna w pewnych grupach i u pewnych jednostek, identyfikuje je jako przywódców lub szczególne wcielenia tej tendencji; są one bardziej wrażliwe lub otwarte na nią, a jednocześnie bardziej zdolne do wpływania na tych, którzy są mniej nią dotknięci.

            Z perspektywy drugiego końca biegunowości, wcielenie polega na zbiorze zmian w świecie zewnętrznym, które powodują, że obiektywny aspekt naszego doświadczenia wypełnia się obiektami i wydarzeniami o coraz bardziej arymanicznym charakterze. I znowu, niektóre części świata nie zmienią się prawie wcale, a inne zmienią się bardzo, ale musi istnieć wyraźnie dostrzegalna tendencja i pewne wiodące elementy, które szczególnie ucieleśniają ten wpływ i przyczyniają się do jego rozprzestrzeniania.

            Jeśli spojrzymy na inkarnację z perspektywy duchowo-materii aspektu dwoistości, to to, co widzimy, jest bardziej dynamiczne niż strukturalne. Proces inkarnacji polega na doprowadzeniu do pozornego zjednoczenia ducha i materii, podczas którego obydwoje reagują na siebie i rosną do punktu połączenia.

            W przypadku zwykłych istot ludzkich, reakcja sfery materialnej na zbliżanie się duchowej jaźni do inkarnacji jest pokazana w gromadzeniu się różnych strumieni dziedzicznych w ciągu kilku pokoleń w jedną zapłodnioną komórkę jajową, której właściwości genetyczne zapewniają odpowiednią fizyczną podstawę dla doświadczeń, które powinny mieć miejsce podczas inkarnacji. Podobnie, przejście jaźni przez sfery planetarne obrazuje duchową odpowiedź na proces fuzji. Pośrednie „ciała” są tworzone z „substancji”, które nie są ani czystym duchem, ani czystą materią; w trakcie ich formowania, one również kondensują się i nabierają bardziej określonego stosunku do przestrzeni i czasu, rozciągając się w sensie jakościowym w kierunku materii, z którą się połączą.

            W przypadku wcielenia się wywyższonej istoty duchowej, ciało fizyczne jest przygotowywane z wielką starannością przez wiele pokoleń, z konkretną wiedzą na temat tego, do czego zostanie użyte. Ciało pochodzi od dwojga rodziców, z których każde ma dwoje rodziców, i tak dalej; liczba osób zaangażowanych wzrasta tak szybko, że liczba w każdym pokoleniu przodków przekracza sumę wszystkich pokoleń w bezpośredniej linii, które następują po sobie. Włączenie jeszcze jednego pokolenia do procesu przygotowania oznacza ponad dwukrotne zwiększenie ilości fizycznych jednostek zaangażowanych w ten proces. Ma to na celu podkreślenie ogromnego nagromadzenia, selekcji i intensyfikacji sił dziedzicznych, które towarzyszą wielkiemu wcieleniu. Genealogia Jezusa podana w ewangeliach ilustruje troskę, jaką poświęca się temu zagadnieniu w literaturze sakralnej.

            Tak jak ciało fizyczne (mikrokosmos) musi się wznieść, aby dopasować się do natury ducha, który do niego zstępuje, tak samo świat fizyczny jako całość (makrokosmos) musi się wznieść, aby sprostać swojemu duchowemu odpowiednikowi. W przypadku zwykłego wcielenia, jednostka nie ma zauważalnego wpływu w tej sferze, chociaż natura całej grupy podobnych ego może mieć znaczenie. Ale w przypadku specjalnego wcielenia, o którym mówimy, świat fizyczny jako całość musi być przygotowany „poprzez pokolenia”, tak aby on (jako całość, a nie tylko jego szczególna część) był gotowy. Powinniśmy być w stanie dostrzec wzajemne działanie świata fizycznego w jego makrokosmicznym aspekcie, gdy reaguje on na stopniowe zbliżanie się Arymana. Makrokosmiczny Aryman pojawi się w jednym miejscu w określonym czasie; Makrokosmiczny Aryman pojawia się wszędzie, bez wyraźnego momentu w czasie oddzielającego „tutaj” od „nie tutaj”.

[23] Rudolf Steiner używa terminów „Aryman” i „istoty arymaniczne” praktycznie zamiennie. Można sobie wyobrazić, że czyni tak dlatego, że Aryman jest głową zastępu istot, które można określić jako „arymaniczne”, i że jego sformułowanie przypomina historyka, który mówi o „inwazji Napoleona na Rosję”, najwyraźniej obojętny na fakt, że towarzyszył mu „napoleoński zastęp” o znacznej liczebności. To jednak nie oddaje sprawiedliwości różnicy rodzaju pomiędzy Arymanem a Napoleonem, ani też nie oddaje oceny tego faktu przez Rudolfa Steinera. Z pewnego punktu widzenia nie można znaleźć czegoś takiego jak antropomorficzna istota „Aryman”, lecz tylko „istoty arymaniczne”; to tak, jakbyśmy patrząc od południa widzieli armię inwazyjną pozbawioną Napoleona.

[24] Rudolf Steiner: Anthroposophical Leading Thoughts (Antropozoficzne Myśli przewodnie), London, 1973, s. 77.

[25] tamże, s. 99.

[26] Tamże, s. 77.

[Rudolf Steiner: The Influences of Lucifer and Aryman, North Vancouver, 1976 (wykłady wygłoszone w listopadzie 1919 r.).

4. Historia Wcielenia Arymana w jego Makrokosmicznym aspekcie

 Wspomniane przed chwilą makrokosmiczne wcielenie Arymana prowadzi nas do możliwości istnienia obiektywnej, zewnętrznej, fizycznej historii wcielenia, zachodzącej jako stopniowy proces rozciągnięty w czasie. Taka historia to nic innego jak jeden spójny zbiór twierdzeń w postaci prostych faktów historycznych, który wynika z podstawowych aksjomatów, które zostały przedstawione w poprzednim rozdziale.

            Historia ta ma być jak najdokładniejsza ze swojego punktu widzenia; z konieczności jest sprzeczna z równie dokładnymi opisami z przeciwnego punktu widzenia. Nie jest podnoszony argument, że ponieważ Aryman wcieli się w nie-ludzką formę fizyczną, nie wcieli się w formę ludzką. Jednak Aryman w ludzkiej postaci będzie głosił miłość i obdarzał swych wyznawców zdolnościami jasnowidzenia, podczas gdy Aryman w opisanej tu postaci bardziej przypomina to, czym jest naprawdę; istnieją więc pewne zalety prowadzenia dochodzenia z opisanej wyżej perspektywy.

            Prześledźmy pokrótce, czego będziemy szukać w naszej historii i dlaczego. Wiemy, że kiedy Aryman się wcieli, na świecie pojawią się nowe fizyczne obiekty, które będą ucieleśniać Arymana w jego makrokosmicznym aspekcie; nasza historia będzie polegać głównie na identyfikacji tych obiektów i śledzeniu ich rozwoju, wraz z powiązanym rozwojem konceptualnym. Nasza historia skupia się na rozwoju fizycznym z powodu natury Arymana. Istnienie Lucyfera i Arymana w ich obecnej formie można prześledzić do czasu, kiedy pierwotna jedność świata została podzielona na dwie części, kiedy ziemia została oddzielona od niebios i kiedy duch i materia po raz pierwszy pojawiły się jako odrębne kategorie; Aryman ucieleśniał biegun materii, podczas gdy Lucyfer ucieleśniał biegun ducha, przy czym żaden z nich nie był ani wyższy, ani niższy od drugiego. Kiedy wyobrażamy sobie Arymana jako indywidualną istotę, myślimy w kategoriach antropomorficznych, mikrokosmicznych. W kategoriach makrokosmicznych Aryman jest tożsamy z całym materialnym biegunem rzeczywistości, a więc jego pojawieniu się tutaj w sposób naturalny towarzyszy intensyfikacja obecności obiektów materialnych, a ucieleśnieniem tego jest pojawienie się obiektów szczególnie odpowiadających jego naturze. Te nowe obiekty są (makrokosmicznie) jego wcieleniem.

            Do czasu pojawienia się mikrokosmosu w postaci ciała fizycznego, te nowe obiekty muszą być powszechne i rzeczywiście posiadać naturę Arymana. Ale na długo przed tym pojawieniem się, muszą istnieć obiekty, które, chociaż nie są w pełni natury Arymana, zdecydowanie zmierzają w tym kierunku; wymaga tego wzajemna reakcja makrokosmicznego aspektu świata fizycznego na zbliżanie się istoty. Powinniśmy być w stanie scharakteryzować te obiekty, odnaleźć je w historii i prześledzić rozwój, który pokazuje, że ich Arymaniczna natura staje się coraz silniejsza, czystsza i szerzej zaangażowana w ludzkie sprawy.

            Obiektami, które w najczystszy sposób ucieleśniają Arymaniczną obecność, są maszyny liczące i obliczeniowe. Najwcześniejszą z tych maszyn było urządzenie do dodawania i odejmowania skonstruowane przez Pascala w latach 1642-4. Leibniz ukończył bardziej skomplikowaną maszynę, która mogła również mnożyć i dzielić, w 1673 roku.

            Już na najwcześniejszym etapie wyraźnie widać arymaniczny charakter tych urządzeń, choć nie był on jeszcze tak czysty ani tak wyraźny, jak to miało się stać później. [28] arymaniczny charakter przejawia się w funkcji tych urządzeń jako manipulatorów skwantyfikowanych, intelektualnych bytów; w naturze nie można znaleźć analogii ich funkcji. Inne cechy charakterystyczne to budowa z dobrze znanych (aczkolwiek rafinowanych i przetworzonych) materiałów oraz z dobrze znanych podzespołów (koła zębate, cylindry, dźwignie, itp.). fakt, że wykonywana funkcja dość dokładnie naśladuje ludzkie działania i wskaźniki, oraz to, że kalkulatorowi wciąż bliżej do dopracowanego narzędzia (czyli przedłużenia ludzkich działań) niż do w pełni zrealizowanej wolnostojącej maszyny (czyli urządzenia, które robi coś podobnego do tego, co mógłby zrobić człowiek, ale w inny i zwykle bardziej „wydajny” sposób, i to samodzielnie – nie jest używane przez człowieka, ale stoi obok niego).

            Mniej więcej w tym samym czasie pojawiły się filozofie, które żywo wyobrażały sobie cały świat jako zgodny z naturą tego, co może być wyraźnie manifestowane tylko w relatywnie prostych i ograniczonych maszynach liczących.

            Leibniz w młodości miał intuicję uniwersalnego rachunku logicznego, który składał się z dwóch części: spisu wszystkich prostych, nieredukowalnych przedmiotów w świecie (zbiór aksjomatów) oraz metody kombinacji i analizy, która pozwalałaby wydobyć z danego zbioru postulatów całą możliwą wiedzę. Utrzymywał, że system ten leży u podstaw każdego z jego ważnych osiągnięć i jest kluczem do zbudowania nauki, która obejmowałaby całą możliwą wiedzę, aż do teologii włącznie. [29] W tym względzie posunął się znacznie dalej niż Newton czy Kartezjusz chcieli lub byli w stanie się posunąć.

            Filozofie te nie odzwierciedlały ogólnego stanu ludzkiej świadomości w czasie, gdy powstawały; podobnie jak maszyny liczące były one zapowiedzią tego, co miało nadejść. Filozofie opisywały wizję świata, która wieki później miała być podzielana w sposób ukryty przez szerokie grupy ludności, zwłaszcza w jej wiodącej i „postępowej” części; w ten sam sposób maszyny liczące zapowiadały mechanizmy, które miały objąć cały glob.

            Maszyny liczące po wynalezieniu rozwijały się powoli. Wielu ludzi potrafiło dostrzec ich potencjał, ale zawsze coś stawało na przeszkodzie, by go zrealizować, mimo że ogólniejszy proces mechanizacji postępował w szybkim tempie. Na przykład programowalne krosno wynalezione przez Josepha Marie Jacquarda w 1805 roku ucieleśniało wiele idei współczesnego komputera, tyle że zastosowanych raczej do tkania fizycznych tkanin niż do idealnej logiki. Maszyna, która stosowała wcześniej ustalone wzory do pracy krosna, odniosła natychmiastowy sukces; do 1812 roku we Francji działało 11 000 krosien Jacquarda.

            Z drugiej strony, właściwy kalkulator/komputer stał w miejscu przez większą część stulecia, pomimo inspiracji, jaką stanowił wynalazek Jacquarda. Charles Babbage wpadł na pomysł swojego silnika różnicowego w 1812 lub 1813 roku, a poważne prace nad nim rozpoczął w 1823 roku. Celem maszyny było zautomatyzowanie obliczeń tablic wielomianowych przybliżeń funkcji matematycznych, zwłaszcza dla potrzeb konstruowania tablic astronomicznych. W 1827 r. Babbage przeszedł załamanie nerwowe i nigdy nie ukończył pracy. W 1833 r. wymyślił silnik analityczny, który, jak tłumaczył, był adaptacją idei krosna żakardowego do procesu obliczeń numerycznych. Była ona niezwykle podobna do komputera Mark I, który ostatecznie został zbudowany na Harvardzie w 1944 roku. Pracował nad maszyną aż do śmierci w 1871 roku, ale nigdy jej nie ukończył, ani nikt nie przyłączył się do jego pracy, pomimo entuzjastycznego wsparcia i propagandowych wysiłków Lady Lovelace.

            Brak w pełni sprawnej maszyny nie był jednak przeszkodą, o czym świadczą prace Pehra Georga Scheutza (1785-1873), któremu w 1834 r. udało się skonstruować silnik różnicowy według projektu Babbage’a. Dotacja rządu szwedzkiego umożliwiła mu skonstruowanie silnika różnicowego według projektu Babbage’a. Dotacja rządu szwedzkiego umożliwiła mu stworzenie ulepszonej wersji w 1853 roku; maszyna zdobyła złoty medal na wystawie w Paryżu w 1855 roku, była pokazywana w Londynie, a w końcu została użyta w Albany, w stanie Nowy Jork. Najwyraźniej rząd angielski zlecił wykonanie jej kopii. Mimo całej tej ekspozycji w pełni sprawnej maszyny, w połączeniu z prominentną pozycją Babbage’a w życiu intelektualnym XIX wieku, nie doczekał się kontynuowania pracy. [30]

            W sferze filozoficznej w połowie wieku nastąpił znaczący postęp, który, gdy jego skutki przeniosły się na grunt fizyczny, usunął wspomniane wcześniej przeszkody. George Boole, Anglik, wynalazł coś, co stało się znane jako „algebra boole’a”, którą rozumiał jako rodzaj uniwersalnego rachunku, algebry procesów leżących u podstaw samej myśli. [Wszystkie algebry są symbolicznymi systemami do manipulowania elementami wziętymi z dobrze zdefiniowanego zbioru elementarnych, idealnych, nieredukowalnych obiektów, bez konieczności dokładnego określania, o który z tych obiektów chodzi w każdym punkcie sekwencji operacji. Algebry, z którymi większość z nas jest zaznajomiona, mają zbiór liczb zwykłych, racjonalnych lub rzeczywistych jako swoje obiekty elementarne. Zbiory te są nieskończone w swej rozciągłości. Algebra Boole’a przyjmuje za swoje obiekty elementarne zbiór tylko dwóch elementów, które mogą być nazywane (w zależności od kontekstu) prawda i fałsz, jedynka i zero, włączony i wyłączony, lub dowolną inną dychotomiczną parą nazw. W tej algebrze relacja, jaka zawsze istniała między operacjami intelektualnymi a obiektami tych operacji, została postawiona na głowie: przedtem mieliśmy do czynienia z rozległym, nieskończenie różnorodnym światem (zbiorem elementarnych obiektów) i mogliśmy na nim dokonywać tylko stosunkowo prostych (w sensie intelektualnym) operacji; teraz świat jest tak prosty, że są w nim tylko dwa rodzaje obiektów i aby zrobić z nich cokolwiek interesującego, musimy (a dzięki nowej algebrze możemy) dokonywać na nich ogromnej liczby nieskończenie różnorodnych operacji. Świat zostaje zredukowany do minimum, a intelektualne operacje na tym, co pozostało, zajmują jego miejsce. I rzeczywiście okazało się, że można produkować odpowiedniki pierwotnej różnorodności obiektów elementarnych za pomocą skomplikowanych manipulacji binarnymi elementami algebry boole’owskiej.

            W wyniku praktycznych potrzeb wynikających z projektowania układów komputerowych, podobny proces analizy i redukcji nastąpił w dziedzinie operatorów na liczbach. Odkryto, że wszystkie operacje mogą być zbudowane z kombinacji jednego rodzaju operatora lub „bramki”, mianowicie operatora „- nie – i – lub – nie- lub-„. Operator not-and, na przykład, daje wynik zero lub fałsz wtedy i tylko wtedy, gdy wszystkie jego operandy są jedynkami lub prawdą; w przeciwnym razie daje jedynkę lub prawdę.

            Tworząc praktyczną logikę binarną, Boole nie tylko odkrył system liczbowy i logiczny, na którym miały się opierać komputery, ale także zakończył proces opróżniania treści z liczb i przekształcania ich w dowolne znaki. Najwcześniejsze znane systemy liczbowe mają jako podstawę liczbę wysoką (liczbę, po przekroczeniu której zaczyna się używać systemu miejsc i powtarzać sekwencję liczb od początku), u Babilończyków nawet sześćdziesiąt. Zmniejszenie podstawy zmniejsza liczbę indywidualnie charakterystycznych liczb, które mają swoje własne istnienie, a nie jedno skonstruowane z bardziej prymitywnych jednostek. Chociaż liczby są z natury dyskretne lub cyfrowe (w przeciwieństwie do ciągłych lub analogowych), w ramach danego systemu liczbowego, liczby same w sobie reprezentują bardziej analogowy koniec, podczas gdy system miejsca jest bardziej cyfrowy. Gdy liczymy liczby, marsz jest płynny i regularny, ale następuje ostra przerwa przy najwyższej liczbie, kiedy zmienia się forma reprezentacji liczby, a ostatnia cyfraObrazek przeskakuje z najwyższej wartości do najniższej. W systemie binarnym liczenie wymaga tyleż manipulacji układem miejsc, co prostej zamiany cyfr, a więc element cyfrowy, który jest pustym czy intelektualnym końcem polaryzacji, jest maksymalny.  

            Rok 1879 został wymieniony przez Rudolfa Steinera jako mający szczególne znaczenie w historii Arymana, a szczególnie listopad tego roku. [Rozpoczęta w 1841 roku walka pomiędzy istotą Michaela (oblicze Chrystusa) a Arymanem zakończyła się wyrzuceniem Arymana ze sfer niebieskich na ziemię, a konkretnie do ludzkich głów. Bezpośrednich skutków tego wydarzenia doświadczyli Thomas Edison i Hermann Hollerith, co zostanie opisane za chwilę.

            W dziedzinie polityki narodzili się Leon Trocki i Józef Stalin. (Lenin urodził się w tym samym roku co Steiner, 1861) Byli oni przykładem jasnych (takich jak to) i ciemnych stron Arymana; Trocki, na przykład, był gorącym zwolennikiem cnót technologii i uważał, że społeczeństwo komunistyczne jest naturalnie również wysoce technologiczne. W drukarstwie, Merganthaler wynalazł maszynę linotypową, która otworzyła drzwi do nowoczesnej techniki drukarskiej. W przemyśle ciężkim Bessemer wprowadził swój proces produkcji twardej stali, który znacznie rozszerzył możliwości wykorzystania tego wszechstronnego metalu i stworzył podstawy dla wielu przyszłych urządzeń.

            W naszym obszarze zainteresowań znaczącym wydarzeniem było zatrudnienie Hermanna Holleritha przez Biuro Spisu Powszechnego Stanów Zjednoczonych w październiku 1879 roku. To przyniosło mu kontakt z Johnem Shaw Billingsem, który był odpowiedzialny za pracę w statystykach życiowych dla spisu powszechnego z 1880 i 1890 roku. Billings zasugerował Hollerithowi, w jaki sposób praca może być bardziej efektywna, a Hollerith odpowiedział wynalezieniem systemu kart perforowanych i maszyn tabulacyjnych.

            W swojej nowoczesnej formie, karta Holleritha jest prostokątnym kawałkiem ciężkiego papieru, podzielonym na osiemdziesiąt kolumn i dwanaście rzędów. Kartę wykorzystuje się do przechowywania informacji poprzez wybijanie w niej otworów zgodnie ze spójnym schematem kodowania. Można więc zbudować maszyny, które wyczuwają obecność lub brak dziur w określonych miejscach na zestawie kart i reagują na różne użyteczne sposoby. Na przykład, można zakodować na karcie imię i nazwisko osoby, jej zarobki, stan cywilny, płeć i miasto, a następnie automatycznie wyłowić z ogromnego zbioru kart nazwiska wszystkich samotnych kobiet po pięćdziesiątce mieszkających w Yonkers i zarabiających mniej niż 5000 dolarów.

            System Holleritha został po raz pierwszy zastosowany w spisie powszechnym z 1890 roku i odniósł wielki sukces. [W 1896 roku Hollerith założył Tabulating Machine Company, aby wykorzystać swój wynalazek komercyjnie. Po kilku transformacjach firma ta przekształciła się w IBM.

            Wynalezienie karty Holleritha i maszyn do jej przetwarzania było przełomem poza sferę kalkulatora i w sferę komputera. Różnica polega na umiejscowieniu bezpośredniej kontroli nad działaniem maszyny. Maszyna taka jak kalkulator jest bezpośrednio kontrolowana przez operatora; nawet jeśli rezultat polecenia może być wyszukany, to z tego punktu widzenia nie ma jakościowej różnicy między ołówkiem a maszyną do pisania. W maszynie takiej jak komputer, przynajmniej część kontroli nad operacjami przechodzi do samej maszyny; nawet jeśli operator zachowuje ostateczną kontrolę, robi krok do tyłu, a maszyna zyskuje pewien stopień autonomii. Maszyny do gry w karty Holleritha są w rzeczywistości bardzo prostymi komputerami: podłącza się je, wkłada stos kart, a następnie stoi z tyłu, podczas gdy maszyna wykonuje sekwencję operacji na każdej z kart.

            Wraz z pojawieniem się tego pierwszego komputera, autonomiczna wola Arymana po raz pierwszy pojawia się na ziemi w niezależnym, fizycznym wcieleniu. Jak pływak powoli wchodzący do wody, który nie czuje się „w środku”, dopóki jego głowa nie jest mokra, tak ciało Arymana jest w ziemi, podczas gdy on sam przygląda się z zewnątrz w fazie kalkulatora, dopóki rozwój maszyny z technologicznym odpowiednikiem woli nie umożliwi rzeczywistej identyfikacji. Możemy bezkarnie patrzeć na kalkulator; jego autonomiczna natura pozwala komputerowi patrzeć na nas, choć w tych pierwszych przypadkach słabo. Różnicę widać też w tym: uszkodzone narzędzie jest po prostu zepsute; uszkodzona maszyna sterująco-łożyskowa może być po prostu zepsuta, ale może też dalej doskonale spełniać swoją funkcję, ignorując nasze polecenia – jeśli mechanizm sterujący jest zepsuty, może robić co chce.

            W okresie międzywojennym powstawały skomplikowane kalkulatory specjalnego przeznaczenia, głównie do rozwiązywania problemów balistyki wojskowej. Około 1930 r. w MIT zbudowano „analizator różniczkowy”, który był mechanicznym komputerem analogowym mogącym rozwiązywać układy równań różniczkowych. Powstały również komercyjne kalkulatory elektromechaniczne, które znalazły szerokie zastosowanie w biznesie i nauce.

            Teraz, u progu pojawienia się pierwszego prawdziwie nowoczesnego komputera, będziemy musieli wprowadzić kilka nowych strumieni rozwoju, które działały już od pewnego czasu i które połączyły się z bezpośrednią linią ewolucyjną, którą opisujemy, aby wytworzyć następny wielki postęp. Jeden z tych strumieni to linia rozwoju fizycznego, a drugi to rozwój filozoficzny i matematyczny; przy okazji dostarczą one przykładów dla teoretycznych uwag, które zostaną poczynione na temat formalnego postępu wcielenia.

            Chociaż w pełni zadowalające mechaniczne maszyny liczące zostały w końcu opracowane, ich możliwości były bardzo ograniczone. Decydującym czynnikiem, który pozwolił na przezwyciężenie tych ograniczeń i umożliwił dalszy rozwój, była elektryczność. Elektryczność była znana już Grekom; co więcej, nie jest ona czymś niezwykłym, gdyż występuje we wszystkich nerwach zwierzęcych. Jednak w przyrodzie elektryczność pełni funkcję pomocniczą, całkowicie ukrytą w strukturze rzeczy (wiązania między i wewnątrzatomowe) lub drugorzędną w stosunku do bardziej podstawowego zjawiska (impulsy elektryczne w nerwach pochodzą z różnej migracji jonów przez błony aksonów).

            Na początku XIX wieku badano właściwości elektryczności jako wyizolowanego, pierwotnego zjawiska. Kluczowym wydarzeniem było wynalezienie generatora elektrycznego w 1831 roku przez Michaela Faradaya. Wynalazek ten został wkrótce wykorzystany w postaci telegrafu, który doprowadził do tego, że między wszystkimi ośrodkami działalności gospodarczej rozciągnięto przewody przenoszące elektryczność.

            Jednak punktem zwrotnym w pojawieniu się wolnostojącej elektryczności na Ziemi był okres od 19 do 21 października 1879 roku, kiedy to Thomas Edison przeprowadził pierwszą udaną próbę praktycznej żarówki dla domu. Ogłoszenie tego odkrycia 21 grudnia wywołało światową sensację, która doprowadziła do tego, że Edison został nazwany „czarodziejem z Menlo Park”. Wynalezienie żarówki doprowadziło do budowy stacji elektroenergetycznych i systemów dystrybucji.

            Pojawienie się elektryczności jako niezależnego, samodzielnego zjawiska można uznać za początek wcielania się substancjalnego ciała Arymana, podczas gdy kalkulator lub komputer jest formalnym lub funkcjonalnym ciałem Arymana. Interesujące jest to, że te dwa aspekty pojawiły się niezależnie od siebie, ale w tym samym czasie.

            Proces inkarnacji przebiega od tego, co duchowe, do tego, co materialne. Na każdym etapie, im bardziej duchowa warstwa jest brana pod uwagę, tym bardziej proces jest zaawansowany, tak jak proces jest bardziej zaawansowany w wiodących jednostkach lub grupach. Co więcej, „straż przednia” wcielenia, pierwsze przejawy procesu w danym punkcie kontinuum duch-materia, mogą wydawać się oderwane od ruchu, którego są częścią; ale dzieje się tak tylko dlatego, że jedność procesu leży daleko pod powierzchnią rzeczy, a w każdym razie dalszy rozwój wprowadza straż przednią w wyraźny związek ze starszymi, bardziej widocznymi przejawami procesu.

            Tak więc Leibniz był w stanie stworzyć pełny obraz filozoficzny przejawiający zaawansowany stan wcielenia w warstwie pojęciowej, o czym świadczy także równoczesny rozwój fizyki, astronomii i innych nauk. Nie można jednak powiedzieć, że maszyna ta w swej oczywistej fizyczności ucieleśniała Arymana, a jedynie, że w swym funkcjonalnym działaniu naśladowała (w ograniczonym zakresie) postać Arymana; robiła to, co Aryman, ale sama nie była jeszcze członkiem Arymana. W ostatniej warstwie Leibniz nie mógł nic zrobić.

            Sto lat później inkarnacja posunęła się na tyle daleko, że ciało Arymana mogło się po raz pierwszy pojawić w postaci wolnostojącej elektryczności. Na początku ważne było, aby to wcielenie po prostu się pojawiło, aby mogło cieszyć się okresem rozwoju i udoskonalenia; odpowiednią analogią jest pojawienie się na ziemi form fizycznych, takich jak małpy i proto-humanoidy (człekokształtne gatunki), przed wcieleniem się człowieka, aby umożliwić czysto fizyczną linię rozwoju, skutkującą ciałami odpowiednimi do wcielenia się przez ludzi. W ten sam sposób pojawiła się elektryczność i przeszła przez okres wstępnego rozwoju, w wyniku którego powstało odpowiednie „ciało” dla postępu inkarnacji do etapu wcielenia substancji. Osiągnięcie tego etapu charakteryzowało się połączeniem ucieleśnienia funkcjonalnego (kalkulatory) z ucieleśnieniem substancjalnym (elektryczność), czego efektem były zunifikowane obiekty (w szczególności kalkulatory elektryczne, ogólnie urządzenia elektromechaniczne).

            W czasie, gdy elektryczność przechodziła jeszcze swoją przedwcieleniową ewolucję, zastosowania, do których była wykorzystywana, były bardzo prorocze. Te zastosowania to komunikacja (telegraf, telefon) i światło (żarówka i wszystkie jej zastosowania). Te zastosowania wydają się nam naturalne, ponieważ jesteśmy do nich przyzwyczajeni, ale trudno było je przewidzieć. Oba zastosowania służą i ucieleśniają główną cechę Arymana: inteligencję. W zastosowaniach komunikacyjnych jest to postrzegane z ludzkiego punktu widzenia, ponieważ kiedy rozmawiamy, przekazujemy sobie nawzajem pojęcia. Można twierdzić, że w ludzkiej rozmowie wymienia się więcej niż pojęcia, ale to tylko uwydatnia sedno sprawy, ponieważ urządzenia komunikują się poprzez redukcję tego, co się mówi, do uporządkowanego ciągu znaków, do „informacji”; eliminują one lub znacznie zniekształcają wszystko poza jasną, zimną, ilościową treścią intelektualną. Światło jest okultystyczną wersją tego samego; to znaczy, że tym, co leży u podstaw tego, co widzimy jako światło, jest myśl. Rozpoznajemy to, gdy rysujemy żarówkę nad głową postaci z kreskówki, aby zaznaczyć, że miała ona pomysł. I tak jak szyba, która najlepiej wpuszcza światło do pokoju jest „przejrzysta”, tak samo głowa, która najlepiej wpuszcza idee. Przyszły rozwój w niezwykły sposób zbliżył do siebie ludzkie i okultystyczne aspekty myśli.

            W tym stuleciu, szczególnie od pierwszej wojny światowej, proces wcielania wydaje się postępować bardzo szybko. Widać to w czasie, który dzieli pojawienie się nowego etapu w warstwie pojęciowej od pojawienia się w warstwach bardziej materialnych. Pierwsze pojawienie się prawdziwego, nowoczesnego komputera na poziomie pojęciowym, a następnie funkcjonalnym, pokazuje tę szybką sukcesję. Prześledzę rozwój na poziomie pojęciowym, którego kulminacja nastąpiła w latach trzydziestych XX wieku i po którym szybko pojawił się pierwszy funkcjonalny komputer. Analogiczne pojawienie się na poziomie w pełni merytorycznym jest bardzo zaawansowane, ale jeszcze nie zakończone.

            Pojęcie uniwersalnego rachunku Leibniza było stosowane i rozwijane na niezliczone sposoby, ale postęp w nadawaniu mu pewnego rodzaju mechanicznego, autonomicznego życia pojawił się dopiero w tym stuleciu. Tak długo, jak rachunek pozostawałby wieczny i bezczasowy, nie byłby w stanie podtrzymywać pseudo-życia, które było konieczne jako manifestacja wcielenia. Ograniczenie wynikało z tego, że ludzie najlepiej potrafią myśleć czystymi, pustymi, pozbawionymi życia myślami Arymana w formie matematyki; kiedy myślą o naturze, te myśli nie są tak łatwe. Nawet jeśli w matematyce mówi się o czasie i nawet jeśli pewne matematyczne sformułowania mogą dotyczyć procesów zachodzących w czasie, to jednak w samej matematyce (w przeciwieństwie do tego, co sobie wyobrażamy, że dotyczy) czas pojawia się jako zmienna „t”, zmienna jak każda inna, jakościowo nieodróżnialna od przestrzeni. Modelujemy czas jako wymiar w wielowymiarowej przestrzeni, a proces, który zachodzi w czasie, jest po prostu relacją funkcyjną z czasem jako zmienną niezależną. Czas jest modelowany w matematyce, ale nie występuje w niej jako taki.

            Wysiłki zmierzające do pokonania tej fundamentalnej bariery, do nauczenia się, jak wprowadzić realne istnienie czasu do formy matematycznej, podejmowane były w wielu dziedzinach. Oczywiście, częścią tego wysiłku było znalezienie sposobów wyrażenia w kategoriach matematycznych procesów obserwowanych w przyrodzie, ale zauważmy, że największy postęp dokonał się w fizyce, w traktowaniu przyrody pozbawionej życia. Filozoficzne i astronomiczne teorie Laplace’a stanowiły postęp w stosunku do teorii Leibniza, ponieważ były bardziej jednoznaczne i dopracowane, a także opierały się na procesach obserwowanych w samej przyrodzie. Starano się zarówno przybliżyć te pojęcia do obserwowanych procesów, jak i poszerzyć zakres ich zastosowania. Wybitną postacią w poszerzaniu zakresu stosowalności tych pojęć był C. S. Pierce, który podjął pierwszą systematyczną próbę zastosowania pojęć logiki do pełnowartościowej filozoficznej analizy problemów rzeczywistości i wiedzy. Podobnie w matematyce podejmowano wysiłki zmierzające do ustanowienia fundamentu całej matematyki w postaci w pełni aksjomatycznego systemu logiki, reprezentowanego przez takie postaci jak Frege, Peano, Russell i Whitehead. Wysiłki te zaowocowały postępem w technicznej aparaturze logiki, który umożliwił prawdziwy przełom w centralnej linii ewolucji.

            Przedostatnim krokiem był rozwój rachunku predykatów, a zwłaszcza opracowanie przez Churcha rachunku lambda. Umożliwiło to po raz pierwszy całkowite oddzielenie przedmiotów operacji intelektualnych od samych operacji intelektualnych. Dało to w pełni rozwiniętą formę temu, co potencjalnie zostało ustanowione przez George’a Boole’a. Boole zredukował obiekty rachunku do najprostszej możliwej postaci, natomiast rachunek lambda pokazał, jak tworzyć światy operatorów intelektualnych stojących w rozległych, misternie połączonych strukturach, gotowych do działania, którym brakuje jedynie ostatecznego wypchnięcia z uniwersum struktury do świata procesu. [34]

            To ostateczne pchnięcie zostało zapewnione, w prymitywnej formie, przez stworzenie teorii maszyn skończonego stanu, a w pełniejszej formie, przez teorię maszyn Turinga. Maszyna Turinga jest obiektem intelektualnym, który można sobie wyobrazić jako czytającą taśmę o nieskończonej długości, podzieloną na kwadraty, które mogą być wypełnione albo X, albo O. Maszyna może czytać z taśmy, zapisywać na niej, przesuwać ją w dowolnym kierunku i zmieniać stany w zależności od tego, co czyta.

            Na przykład, następująca maszyna Turinga określa, czy ciąg znaków X na taśmie jest nieparzysty czy parzysty. Maszyna zaczyna w stanie oznaczonym A, w którym czyta taśmę. Jeśli na taśmie znajduje się O, to maszyna zatrzymuje się i informuje, że na taśmie jest parzysta liczba znaków X (zero). W przeciwnym razie przesuwa taśmę do przodu i przechodzi do stanu B, w którym ponownie odczytuje taśmę. Jeśli na taśmie znajduje się O, to maszyna zatrzymuje się i zgłasza, że na taśmie jest nieparzysta liczba znaków X (jeden z nich). W przeciwnym razie przesuwa taśmę do przodu i wraca do stanu A, po przejściu przez dwa X. Proces ten jest kontynuowany, maszyna przechodzi między stanami A i B i przesuwa taśmę, dopóki na taśmie znajdują się znaki X. Gdy tylko napotka O, maszyna zatrzymuje się i, w zależności od stanu, w którym się znajdowała, jest w stanie określić, czy zatrzymała się po nieparzystej czy parzystej liczbie znaków X.

            Chociaż maszyny Turinga są bardzo proste, możliwe jest skonstruowanie uniwersalnych maszyn Turinga, które czytają swoje programy z taśmy, tak jak komputer; można też pokazać, że maszyna Turinga może obliczyć wszystko, co jest obliczalne, to znaczy, że (teoretycznie rzecz biorąc) wszystkie komputery są równie potężne, jeśli są tak potężne jak maszyna Turinga, i że żaden komputer nie jest potężniejszy od maszyny Turinga. [35]

            Nawet w sferze pojęciowej realizacje tych idei, które były mniej określone, były bardziej uniwersalne. Wybitnym przykładem jest ruch logicznych pozytywistów w ogóle, a w szczególności The Logical Structure of the World Rudolfa Carnapa, który był w efekcie próbą opracowania systemu logicznego zdolnego do wyrażenia całego ludzkiego doświadczenia świata. Chodzi tu o wyrażenie: zdolny do podtrzymania pojmowania świata jako czystego intelektu, czyli zdolny do pełnienia funkcji nośnika wcielenia na jego poziomie. Prace nad dokończeniem programu Carnapa trwają do dziś; niech świadczy o tym choćby praca Nelsona Goodmana The Structure of Appearance. Chociaż intencją tej pracy jest wytworzenie struktur logicznych, które byłyby tak przejrzyste jak maszyny Turinga i w tak oczywisty sposób dające się zmechanizować, to ogromny zakres ich zastosowania jak dotąd wykluczał jakiekolwiek realne pretensje do automatyzacji.

            Około roku 1930, bazując na rozwoju wydarzeń sprzed kilku lat, miały miejsce dwa wydarzenia, które, choć nie były częścią procesu inkarnacji Arymanicznej, miały na niego decydujący wpływ. Jedno z nich miało miejsce na pograniczu logiki matematycznej i stanowiło jedno z największych osiągnięć pojęciowych naszych czasów, drugie zaś na pograniczu układu słonecznego i było ukoronowaniem wysiłków największego programu odkryć astronomicznych podjętych do tego czasu. Pierwsze wydarzenie, twierdzenie o niezupełności Gödla [36], postawiło na drodze procesu inkarnacji przeszkodę nie do pokonania i zmusiło go albo do zatrzymania się, albo do przekierowania jego pędu na ścieżki, na których jego prawdziwa natura była bardziej oczywista. To wydarzenie było bezpośrednim skutkiem nowego przyjścia Chrystusa „w eterze” [37] Drugie wydarzenie, odkrycie planety Pluton, mitologicznie władcy podziemnego świata, wyrażało pojawienie się na scenie nowej postaci, której wpływ na wydarzenia na świecie był natychmiast oczywisty. [38] Te dwa wydarzenia razem wzięte reprezentują polaryzację ludzkości na radykalne grupy, początkowo o niewielkiej liczebności, sprzymierzone z siłami transcendentnego dobra lub transcendentnego zła.

            Wynik Gödla, który został wyprzedzony o kilka lat (ale bez całego technicznego bagażu) przez Paula Finslera, był pełnym rozwinięciem implikacji paradoksu autoreferencji. Russell i Whitehead natknęli się na ten paradoks, opracowując Principia Mathematica, w postaci „zbioru, który zawiera wszystkie zbiory, które nie zawierają samych siebie”; nie rozwiązali go, lecz odsunęli na bok za pomocą teorii typów. Gödel nie uniknął paradoksu, lecz uchwycił go mocno i wbił go w serce rozwoju nietrywialnych, kompletnych systemów logiki mechanicznej. Jego wynik pokazał, że nie mogą się one udać.

            Wynik ten miał w tym kontekście dwie ważne implikacje. Rozwój prostego mechanicznego automatu został powstrzymany przez wprowadzenie analogu myślenia, które myśli o swoim myśleniu, czyli został powstrzymany przez moc samoświadomego poznającego. Był to akt odkupienia. Umożliwił on jednak nową i o wiele potężniejszą perwersję: mechanizację procesu samopoznania. Z tego ziarna rozwinęły się całe teorie rekurencyjnych, samomodyfikujących się i samoreprodukujących się automatów [39], które stanowią konceptualną podstawę dla wcielenia samoświadomego podmiotu w maszynę. Możliwość ta jest obecnie poszukiwana na bardziej prymitywnym poziomie we współczesnych pracach nad sztuczną inteligencją.

            Odkrycie Plutona, okrzyknięte podręcznikową demonstracją metody naukowej, było od początku do końca komedią celnych błędów i jest podręcznikową demonstracją okultystycznego prowadzenia historii. Po pierwsze, jego pozycja miała być wydedukowana z zaobserwowanych perturbacji na orbicie Neptuna, a obliczenia w tym celu zostały faktycznie wykonane, co dało pozycje bliskie tym, w których Pluton został znaleziony. [40] Ale ostatnie dokładne określenie masy Plutona na podstawie obserwacji jego nowo odkrytego księżyca pokazują, że był on zbyt lekki, aby wywołać efekty, które rzekomo doprowadziły do jego odkrycia. Po drugie, Pluton pojawił się na co najmniej kilkunastu płytach wykonanych przed płytami odkrycia, w tym na czterech zdjęciach na płytach wykonanych na Mount Wilson w 1919 roku podczas poszukiwania planety O Pickeringa; Pluton pojawia się tuż poza obszarem płyt poddanych najdokładniejszej kontroli. [41] Wreszcie, poza koniecznością zbiegania się z dowodem Godela, pewne konieczności natury astrologicznej wiązały się z terminem odkrycia planety w zgodzie z przeznaczeniem impulsów kulturowych, które miały nadejść w jego następstwie. Przez tranzyty Saturna i Urana do pozycji odkrycia Plutona, czas eksplozji w Hiroszimie i detonacji pierwszej bomby wodorowej w 1952 roku zostały określone z wielką dokładnością. [42] Ta zbieżność również jasno ukazuje naturę przynajmniej części sił wprowadzanych przez Plutona.

            Powróćmy teraz do głównej narracji, gdzie znajdujemy się na skraju wynalezienia pierwszego nowoczesnego komputera. Istnieje kilka maszyn, które walczą o to miano, wszystkie zbudowane w ciągu dekady. Najprymitywniejsza z nich, Mark I, została wymyślona przez Aikena w 1937 roku, a ukończona około roku 1944. Została zbudowana na Harvardzie we współpracy z IBM dla Marynarki Wojennej, była całkowicie elektromechaniczna, miała 730 000 części i mogła wykonywać trzy operacje dodawania na sekundę. Słynny ENIAC był również finansowany przez wojsko. Budowano go od 1942 do 1946 roku, zawierał 18 000 lamp próżniowych i mógł wykonywać 5000 operacji dodawania na sekundę. Zwróć uwagę na wzrost szybkości, o trzy rzędy wielkości, uzyskany dzięki zastąpieniu elementów mechanicznych elektronicznymi.

            Johnowi von Neumannowi, wielkiemu matematykowi, który dołączył do projektu ENIAC jako konsultant, przypisuje się zwykle decydujące osiągnięcie, które odróżnia kalkulator (niezależnie od tego, jak wielki i zdolny) od prawdziwego komputera: koncepcję zapisanego programu, w którym sekwencja operacji, jakie ma wykonać maszyna, nie jest w niej zapisana, lecz wczytana do pamięci w postaci liczbowej, tak jakby to były dane. Ponieważ program maszyny jest dla niej danymi, może ona operować na swoim własnym programie z taką samą łatwością, jak na zwykłych danych. Ten prosty wynalazek stworzył podział między rozwojem maszyn a rozwojem programów; programy musiałyby być napisane tak, aby dana maszyna mogła je wykonać, ale ten praktyczny aspekt mógł być odkładany do ostatniej chwili. Tak długo, jak utrzymana była synchronizacja, maszyny mogły kontynuować odrębną linię rozwoju, w której ich ogólna wartość jako maszyn do nieokreślonych celów była ulepszana, podczas gdy programy, które stosowały niespecyficzne możliwości maszyny do konkretnych obszarów problemowych, były rozwijane w synchronizacji, ale nie w ścisłym powiązaniu z maszynami. Od tego momentu rozwój programów (niezależnych od maszyny) był jedną rzeczą, a konwersja i instalacja programów (zależnych od maszyny) inną. Pierwszą maszyną w pełni ucieleśniającą koncepcję programu zapisanego w pamięci był BINAC, ukończony w sierpniu 1950 roku.

            Znaczenie tego rozwoju na głębszym poziomie ujawnia się poprzez uderzające podobieństwo do relacji człowieka z niższymi zwierzętami. U prymitywnych zwierząt można wykazać, że sieci neuronowe działają jak proste, przewodowe kalkulatory, a każdy obwód ma bardzo ograniczoną, stałą funkcję do wykonania. Biorąc pod uwagę pewne dane wejściowe z nerwów czuciowych, nerwy „odpalą” w określony sposób, dając w rezultacie charakterystyczną, wzorcową odpowiedź. U ludzi, próby powiązania funkcji danego zestawu neuronów w mózgu zazwyczaj kończą się niepowodzeniem, albo dlatego, że nie można znaleźć żadnej konkretnej funkcji, albo dlatego, że funkcja może być wykonywana gdzie indziej, jeśli wymaga tego uszkodzenie neuronów zwykle odpowiedzialnych za daną funkcję. Ludzki „biokomputer” zawsze wykonuje jakiś program, ale program ten nie jest częścią samego biokomputera (choć wydaje się być w nim „przechowywany”) i podlega samokodyfikacji.

            Jest to niebezpieczny punkt. Kiedy wspomina się o tej analogii, zwykle ma się na myśli to, że ludzie (których trudno nam zrozumieć) są jak komputery (które wydaje nam się, że rozumiemy, choć ludzie, którzy o tym mówią, rzadko są prawdziwymi ekspertami komputerowymi), a zatem możemy zrozumieć ludzi, wyobrażając sobie, że są komputerami. Noszenie takiego obrazu w swojej głowie tworzy duchowy impuls: „niech świat będzie zgodny z moją wizją tego świata”; szczere przekonanie, że wizja ta jest już prawdziwa, dodaje tylko siły, by tak się stało. Ta droga i jej efekty są destrukcyjne.

            Chodzi o coś odwrotnego: wraz z oddzieleniem kontroli funkcji (jak myśl) od wykonywania funkcji (jak wola czy mięśnie), komputer uczynił ogromny krok w kierunku dalszej zdolności do naśladowania człowieka. W szczególności stworzono techniczną podstawę dla oddzielnej, wcielającej się świadomości – ale świadomości o czysto intelektualnej, mechanicznej (choć samoświadomej) naturze. Wraz z osiągnięciem komputera z zapisanym programem zaczyna być możliwe mówienie w kategoriach (makrokosmicznego) wehikułu inkarnacyjnego, zdolnego do podtrzymania istoty Arymana. Nie sprowadzamy człowieka do poziomu komputera, ale opisujemy, w jaki sposób komputer osiąga (w wąski, bardzo szczególny sposób) poziom rozwoju analogiczny do człowieka.

            Pierwszy komercyjny komputer, Univac I, został użyty w spisie powszechnym w 1950 roku. W 1960 r. w Stanach Zjednoczonych było już 5000 komputerów, z czego około 350 bardzo dużych. Następnie liczby te podwajały się co dwa, trzy lata.

Odkrycie zjawiska półprzewodnictwa, którego wyrazem było wynalezienie tranzystora w 1947 roku, umożliwiło pod względem technicznym ogromny postęp w szybkości, miniaturyzacji i opłacalności, które charakteryzują rozwój komputerów. Tranzystory łączą w sobie te dwa aspekty (fizycznych rzeczy na świecie, które są szczególnie polarne do) myślenia, mianowicie elektryczność i światło. Większa część tranzystora wykonana jest z krzemionki (dwutlenku krzemu), znanej nam jako zwykłe szkło. Szkło to rzecz na świecie, która jest przezroczysta – osłania nas przed światem, ale przepuszcza światło, tak jak nasza głowa, która (miejmy nadzieję) przepuszcza myśli. Teraz krzemionka, gdy jest odpowiednio wyprodukowana i gdy jest zaszczepiona pewnymi drobnymi zanieczyszczeniami, reaguje w bardzo użyteczny sposób na przepływ elektryczności. W tranzystorze przez skażone szkło przechodzi prąd elektryczny (światło Arymaniczne), a nie światło – czyste szkło nie zadziała. Ze względu na jakościową zgodność użytego substratu materialnego z tym, co się wcielało, droga została wygładzona, a postępy przyszły zapierająco szybko. Były poważne przeszkody techniczne, ale spadały tak szybko, że traciło się szacunek dla tego, jak niesamowite (abstrakcyjnie rzecz ujmując) były.

            Pominę wiele fascynujących osiągnięć ostatnich dwóch dekad, w tym całą dziedzinę sztucznej inteligencji, i rozważę ostatnią linię rozwoju w najbardziej konkretnym, fizycznym aspekcie tych maszyn. Pokażę, jak cechy Arymana znajdują konkretny, fizyczny wyraz w materiałach wybieranych do budowy komputerów; jak wewnętrzny pęd tej dziedziny, świadomie kierowany przez nikogo, z konieczności technicznych zadań, prowadzi przez pozorny przypadek do maszyn, które zawierają coraz więcej tego, co jest zgodne z naturą Arymana, a coraz mniej tego, co nie jest.

            Chociaż tranzystory są lepsze od lamp próżniowych, które z kolei były lepsze od przekaźników elektromechanicznych, to jednak wciąż „stawiają opór” przepływającej przez nie elektryczności. Technicznie rzecz biorąc, opór przewodu wobec przepływającego przez niego prądu powoduje kinetyczne rozproszenie części energii; nie cały prąd wychodzi na drugim końcu przewodu, a przewód staje się cieplejszy. Drut, o ile jest „neutralną” częścią świata, nie przejawiającą ani cech Lucyfera, ani Arymana w nadzwyczajnym stopniu, odpowiada na „arymanizację” „lucyferyzacją”; stając się ciepłym, staje się lucyferyczny, a tym samym przywraca równowagę, którą naruszyła elektryczność. Drut nie jest własnością Arymana; jest on jedynie używany do Arymanicznego celu, i to za pewną cenę. Co więcej, drut może wytrzymać tylko tyle nadużyć; przeciągnięty poza swoje granice, stopi się w nadmiarze lucyferycznej pasji i sprawi, że dalsze nadużycia staną się bezużyteczne.

            Ten problem doprowadził do wysiłków zmierzających do zmniejszenia ilości materiału (a więc także oporu i generowanego ciepła) w komponentach elektronicznych. Idealnym rozwiązaniem byłyby maleńkie komponenty połączone długimi przewodami, dzięki czemu między nimi byłoby dużo miejsca i nie odczuwałyby one skutków łączącego je ciepła. Jednak elektryczność nie przemieszcza się wzdłuż przewodów błyskawicznie; przemieszcza się w przybliżeniu o jedną stopę w ciągu jednej nanosekundy (jednej miliardowej części sekundy), a ponieważ nowoczesne komponenty wykonują swoje zadania (mają „czasy przełączania”) w ciągu zaledwie kilku nanosekund, długość przewodu łączącego komponenty staje się istotnym czynnikiem ograniczającym ogólną szybkość maszyny. Tak więc idealne rozwiązanie jest nie do utrzymania, a komponenty muszą być umieszczone w tak małej przestrzeni, jak to tylko możliwe. Ale wtedy, nawet jeśli uda się bardzo szybko schłodzić komponenty na zewnątrz, ciepło szybko narasta w środku bloku komponentów do nieakceptowalnego poziomu.

            Rozwiązanie tego problemu, stanowiące podstawę stanu techniki w dziedzinie sprzętu komputerowego, opiera się na efekcie Josephsona, który pozwala na konstruowanie półprzewodników z materiałów nadprzewodzących. Powinniście się domyślać, które z cech Arymana znalazły swój fizyczny wyraz w tym nowym osiągnięciu. Już wyrażono miarę, wagę, liczbę, intelekt i mechanizm; ale jak dotąd nie wyrażono fizycznie faktu, że Aryman jest zimny, lodowato zimny. „Im bardziej [Aryman] osiąga swoje cele, tym silniejszy jest mróz wokół niego […]”. [Nowy postęp opiera się na fakcie, że materia traci swój opór elektryczny (kapituluje i staje się naturą Arymana), gdy zostanie doprowadzona do temperatury bardzo bliskiej zeru absolutnemu. Ekstremalne zimno niszczy naturalną neutralność materiału i traci on zdolność do generowania ciepła w odpowiedzi na przepływ prądu. „Nadprzewodnictwo” zostało odkryte w 1911 roku, ale dopiero niedawno udało się z materii w tym ekstremalnym stanie stworzyć półprzewodniki, a więc i komputery.

            Fakt, że materia znajduje się w stanie szczególnej nierównowagi, gdy jest nadprzewodząca, uwidacznia się w szczegółach jej reakcji na elektryczność i magnetyzm.  Wiemy, że w normalnych warunkach pomiędzy tymi dwiema siłami zachodzi subtelna symetria wyrażona równaniem Maxwella, tak jak można by się tego spodziewać w podnaturalnych manifestacjach spolaryzowanych istot kosmicznych Arymana i Lucyfera. Ale kiedy materia znajduje się w tym stanie (czyli jest bez zastrzeżeń utożsamiana ze sferą Arymaniczną) i przyłożone jest do niej niewielkie pole magnetyczne, na powierzchni materiału powstaje trwały nadprąd i traci on swoje właściwości nadprzewodzące.

            Najbardziej zaawansowany komputer firmy IBM, który nie jest jeszcze w użyciu komercyjnym, jest całkowicie zamknięty w sześcianie o boku 6 cali i jest utrzymywany w stałej temperaturze zaledwie kilka stopni powyżej zera absolutnego. Mimo niewielkich rozmiarów, będzie on szybszy i potężniejszy niż jakikolwiek obecnie istniejący komputer. W międzyczasie trwają intensywne prace badawcze nad zwiększeniem ilości strumienia magnetycznego, który materiał może wytrzymać zanim przejdzie w bardziej zwyczajny stan, tak aby technologia nadprzewodząca mogła być również zastosowana do wytwarzania i przesyłu energii elektrycznej. Co więcej, odkryto związek organiczny, który będzie wykazywał to zjawisko. Nowy etap fizycznego wcielenia będzie więc wnikał coraz głębiej (w miarę jak będzie wnoszona do niego „inteligencja”) i szerzej (w miarę jak znajdowane będą dla niego szerokie zastosowania).

            Na jakim etapie znajduje się proces inkarnacji w roku 1981? Wszystkie formalne cechy Arymana zostały wcielone w maszyny, od których zależy praktyczne życie naszej kultury. Kiedy maszyny po raz pierwszy zaczęły zawierać elektryczność, zaczęły też wcielać samą substancję Arymana, a kiedy pojawią się praktyczne komputery działające w pobliżu zera absolutnego, będą one w całości składały się z substancji Arymana; to, co zawierają, będzie bez zastrzeżeń (choć nie nieodwołalnie) oddane pod jego panowanie. Penetracja będzie wtedy tak „głęboka”, jak to tylko możliwe, a jedyne, co pozostanie, to rozmnażanie.

            Jednak proces ten nie będzie w żadnym wypadku zakończony. Będziemy mieli coś w rodzaju opóźnionych w rozwoju wiejskich kuzynów straszliwej postaci samego Arymana. To, o czym obecnie marzą pracownicy sztucznej inteligencji, będzie musiało stać się fizyczną rzeczywistością: wcielenie „prawdziwej” inteligencji do maszyn. Wiele już osiągnięto w tym kierunku, choć końca jeszcze nie widać. Na przykład, maszyny rozwiązały matematyczne problemy całkowania, których nie był w stanie rozwiązać żaden człowiek [44] ; pokonały mistrza świata w tryktraka; prowadziły dłuższe rozmowy w nieskładnej angielszczyźnie o mocno ograniczonym „świecie” klocków; [45] grały same ze sobą w ping-ponga, trzymając wiosło ręką i prowadząc je wzrokiem; [46] rozmawiały z ludźmi o ich osobistych problemach na tyle sprytnie, że inteligentni ludzie czują się z nimi osobiście związani i wykluczają innych z pokoju na czas takiej prywatnej rozmowy. [47] Ekspert wie, że te i inne imponujące wyniki opierają się na wysoce wyspecjalizowanych mechanizmach, których nie da się łatwo uogólnić. Ale reakcje laików w konfrontacji z takimi osiągnięciami jak te są częścią problemu. Należy być pełnym szacunku dla niesamowitych osiągnięć technicznych, które te zademonstrowane możliwości reprezentują, ale trzeba też zachować równowagę, unikać antropomorfizowania maszyny, utrzymywać zdrową świadomość, że maszyny są mniejsze niż się wydają (maszyna, która może pokonać cię w szachach, nie może być przez to uznana za „myślącą lepiej” od ciebie), i ostrożną podejrzliwość, że są one czymś więcej niż się wydają (mają okultystyczne efekty, którym przeczy ich przytłaczająca zwyczajność). Pierwsze oznaki „wolnej woli” może dostrzec ten, kto wie, gdzie szukać, a w maszynach zaczynają pojawiać się istoty wyższego rzędu niż elementale. Podsumowując, proces ten jest już dość zaawansowany, ale do jego zakończenia brakuje jeszcze dziesięcioleci [48].

            „Człowiek musi mieć i będzie miał jakąś religię: jeśli nie ma religii Jezusa, będzie miał religię Szatana i wzniesie Synagogę Szatana, nazywając Księcia tego świata, Bogiem, i niszcząc wszystkich, którzy nie czczą Szatana pod imieniem Boga.” [49]

[28] „Trudno jest spojrzeć wstecz i wyobrazić sobie uczucia tych, którzy po raz pierwszy zobaczyli zębate koła wykonujące dodawanie i mnożenie dużych liczb. Być może doświadczali oni poczucia respektu widząc 'myśli’ płynące w ich bardzo fizycznym sprzęcie. W każdym razie wiemy, że prawie sto lat później, kiedy skonstruowano pierwsze komputery elektroniczne, ich wynalazcy doświadczyli niesamowitego i mistycznego poczucia, że znajdują się w obecności innego rodzaju „myślącej istoty”.” Hofstadter: Gödel, Escher, Bach, New York, 1979, s. 601.

[29] Ten aspekt pracy Leibniza został po raz pierwszy gruntownie przedstawiony w Bertrand Russell: A Critical Exposition of the Philosophy of Leibniz London 1900.

[30] Na temat Babbage’a i Scheutza, patrz H. Goldstine: The Computer from Pascal to von Neumann , Princeton, 1972, s. 10-27

[31] Boole: The Mathematical Analysis of Logic, 1848; An Investigation of the Laws of Thought, on Which are Founded the Mathematical Theories of Logic and Probabilities, 1854.

[32] Patrz wykład: „Chrystus w relacji do Lucyfera i Arymana”, wygłoszony 18 maja 1919 r., Nowy Jork, 1978 r.

[33] Leon E. Truesdell: The Development of Punch Card Tabulation in the Bureau of the Census, 1890 – 1940, U. S. Government Printing Office, 1965.

[34] Rachunek lambda nie wyróżnia się we wskazany tu sposób, gdy analizuje się go tylko w ramach historii logiki; jego szczególna rola uwidacznia się w sposobie, w jaki został przejęty przez pracowników informatyki, a zwłaszcza sztucznej inteligencji. W szczególności, praca Johna McCarthy’ego nad rachunkiem lambda dała początek językowi programowania LISP, który jest preferowanym językiem w pracy nad sztuczną inteligencją.

[35] Alan Turing: „On Computable Numbers, With an Application to the Entscheidungsproblem”, Proc. London Math. Soc. , Ser 2-42, s. 230-265. Dyskusję na ten temat można znaleźć w Minsky’s Computation.

[36] Gödel, „Uber Formal Unentscheidbare Satze der Principía Mathematica und Verwandter Systeme, I” Monatschefte für Mathematik und Physik, 38 1931, s. 173-198. Tłumaczenie ukazało się w van Heijenoort, From Frege to Gödel: A Source Book in Mathematical Logic, Cambridge, Mass., 1977. Dobry prozatorski opis dowodu znajduje się w Nagel and Newman, Gödel’s Proof, New York, 1958, choć autorzy mają tendencję do bagatelizowania zakresu implikacji dowodu.

[37] Apokalipsa, 1:7. Steiner opisuje to wydarzenie w swoim The True Nature of the Second Coming, Londyn, 1961, wykłady wygłoszone 25 stycznia 1910 i 6 marca 1910.

[38] Pluton został odkryty mniej więcej w czasie dowodu Godela, a więc miałby z nim pewne powiązanie. Jednak obserwacje Plutona na wykresach astrologicznych pokazały, że jest on trudny do opanowania dla większości ludzi. Pluton może być bezpośrednio związany z pierwszym pojawieniem się w ludzkiej świadomości istot, które zostały określone mianem Asurów. Więcej na ich temat można znaleźć w wykładzie Steinera z 22 marca 1909 r. „Czyn Chrystusa i przeciwstawne moce duchowe. Lucyfer, Aryman, Asuras.”

[39] John von Neumann był pionierem teorii samoreprodukujących się automatów, czyli teoretycznych maszyn przypominających opisane wyżej maszyny Turinga, które zawierają reprodukcyjne podsystemy zdolne do powielania maszyny w całości. Patrz von Neumann: Theory of Self-Reproducing Automata, Urbana, 1966.

[40] Odkrycia dokonał Clyde Tombaugh 18 lutego 1930 roku, około godziny 16.00 w Obserwatorium Lowella we Flagstaff w Arizonie. Pozycja odkrycia była w granicach sześciu stopni od orbity wyznaczonej przez Percivala Lowella, a także była bliska pozycji przewidywanej dla planety trans-Neptunowej, „planety O” przez Williama H. Pickeringa.

[41] Pluton pojawił się na kilku płytach wykonanych w Europie, jedna już w 1908 roku. Zdjęcia zostały wykonane przez Gilla 19 marca i 7 kwietnia 1915 roku w ramach poszukiwań planety Lowella. Wśród innych zdjęć były te wykonane w Yerkes Observatory w 1921 roku i na Harvardzie w 1927 roku.

[42] Trudno dokładnie określić, jaka była pozycja Plutona w momencie odkrycia, ponieważ został on znaleziony przy użyciu urządzenia zwanego komparatorem mrugnięć, który pozwala na szybkie porównanie płyt fotograficznych wykonanych w odstępie kilku tygodni. Daty odkrytych klisz to 21 stycznia, 23 stycznia i 29 stycznia 1930 roku, kiedy Pluton stał odpowiednio w 18:18, 18:15 i 18:08 stopniu znaku Raka. W momencie, gdy Pluton został po raz pierwszy uznany za planetę, jednak, co jest tym, co wziąłbym za jego „pozycję odkrycia”, stał on na 107:46 długości geograficznej niebieskiej, co jest 17:46 tropikalnego znaku Raka. W dniu 6 sierpnia 1945 roku, kiedy bomba atomowa eksplodowała w Hiroszimie, Saturn stał na 18:13 Raka, jego pozycja była identyczna z pozycją Plutona na drugiego sierpnia, koniunkcja dokładna do około jednej dziesiątej procenta długości geograficznej. 1 listopada 1952 r. Stany Zjednoczone eksplodowały pierwszą pełnowymiarową bombę termojądrową (bombę termojądrową lub bombę H) na atolu Enewetok na Pacyfiku. W tym dniu Uran był prawie nieruchomy o 18:31 w Raku, jego pozycja była identyczna z pozycją Plutona 13 września i 6 grudnia. Rozbieżność w długości geograficznej wynosi około dwóch dziesiątych jednego procenta. Patrz ogólnie Tombaugh i Moore, Out of the Darkness: the Planet Pluto, Harrisburg, 1980

[43] Steiner: Myśli przewodnie, s. 99

[44] Joel Moses, „Symbolic Integration, the Stormy Decade”, Communications of the Assoc. for Computing Machinery, vol. 14, nr 8, 1971

[45] Winograd, Procedures as a Representation for Data in & Computer Program for Understanding Natural Language, MAC TR-84, MIT PhD thesis, 1971

[46] Widziałem sprzęt do tego w projekcie MAC w MIT.

[47] Weizenbaum, Computer Power and Human Reason, San Francisco, 1975

[48] Należy zauważyć, że czas makrokosmicznego postępu inkarnacji nie pozwala nam dokładnie określić daty inkarnacji mikrokosmicznej, która mogłaby mieć miejsce w dowolnym momencie od teraźniejszości (biorąc pod uwagę, że pełne Arymaniczne ego nie weszłoby natychmiast w ciało) do jakiegoś czasu niedługo po kulminacji procesu makrokosmicznego.

[49] Wm. Blake: Jerusalem, tablica 52, „Do Deistów”.

5. Od początku czasu do końca

Wszyscy wiemy, że „piekło” to przekleństwo. Czy „piekło” odnosi się również do czegoś? Czy piekło jest rzeczywistością?

            Zakładając, że istnieje piekło, myślimy: czymkolwiek innym jest piekło, jest to również stan bycia. Ale my – ludzie – jesteśmy istotami. A więc „piekło” może być nazwą szczególnego stanu naszego bytu, możliwego stanu człowieka.

            Niezależnie od tego, w jakim stanie jest człowiek, stan ten nieustannie ulega zmianie. Tej zmianie towarzyszy, nie zawsze w pełni, uważność. Poprzez uważność kierujemy tym, co w nas twórcze i uzyskujemy zmieniony stan bytu. Wszystkie stopnie uważności, od oglądania telewizji do medytacji, zmieniają stan naszego bytu. Różnią się one nie tym, czy uwaga jest wykonywana, ale tym, jak bardzo wykonywana jest wola.

            W wydarzeniach opisanych w Księdze Rodzaju istota ludzka nabrała piekielnego odcienia. Zmiana człowieka w kierunku piekła odbywała się w dwóch etapach. W pierwszym etapie wąż zawładnął uwagą Ewy. Odwróciła się ona od zwracania się wyłącznie do Boga i zajęła się ministrem piekła, który w tym czasie jeszcze mieszkał razem z Bogiem i człowiekiem. W drugim etapie Adam i Ewa użyli swojej woli i zjedli jabłko. Skierowawszy się do piekła, wpędzili się w nie, a ono w nich. W ten sposób rozpoczęła się spirala degeneracji.

            Spirala ta zaczęła się od wypędzenia z Ogrodu. Do czego zostali wygnani Adam i Ewa? Czy istniało takie miejsce przed jabłkiem? Zostali wypędzeni z „rajskiego” stanu bytu do „upadłego” stanu bytu, którego cechą wyróżniającą jest aktywny udział mocy piekielnych. Rajska jedność ludzkiego bytu została rozbita, a dostęp do jednego z kawałków otrzymały moce piekielne.

            Spirala degeneracji pogłębiała się w miarę, jak stan człowieka stawał się coraz bardziej piekłem. Ziemia twardniała i wysychała, jako odbicie zmieniającego się stanu człowieka. Istota, która pojawiła się jako wąż, nie była jeszcze w ziemi, ale ziemia odzwierciedlała jej obecność w nas.

            Na początku, przed tym wszystkim, było Słowo. To Słowo stało się ciałem i zamieszkało wśród nas, pełne łaski i chwały. Słowo ofiarowało każdemu człowiekowi moc, by stał się dzieckiem Bożym, każdemu, kto przyjmuje Słowo, wierzy w Jego imię, kto rodzi się z Boga. Właściwe zwrócenie uwagi na Słowo daje wolę do przemiany człowieka w kierunku rajskim.

            W 1879 roku, po długiej walce, szatan został strącony na ziemię. Już ustanowiony jako część ludzkości, Szatan mógł wtedy przebywać w świecie przedmiotów. W tym samym roku zapaliło się pierwsze elektryczne, sztuczne światło. Wszystkie inne światła były jak Słońce, ostatecznie wywodziły się od Słońca. Elektryczność i światło elektryczne mają swoją własną podstawę, nie związaną ze Słońcem. Również w tym samym roku miało miejsce przełomowe wydarzenie w rozwoju logiki matematycznej, kiedy Frege opublikował swój Begriffschrift, łamiąc panowanie słowa nad ludzkim umysłem. Za pomocą tego skryptu pojęciowego Frege ustanowił logikę jako obiekt intelektualny o wolnej podstawie niezwiązanej ze słowem, tak jak elektryczność uczyniła światło niezwiązanym ze Słońcem. Bezsłoneczne światło i bezsłowna logika splotły się ze sobą, a z nich wyłonił się komputer.

            W ciągu dwudziestu jeden lat ta renegacka, uprzedmiotowiona logika rozwinęła się do kryzysu samoświadomości, który w logice jest paradoksem samoodniesienia. U Russella przybrało to postać rozumienia zbioru wszystkich zbiorów, które nie zawierają samych siebie. (Czy zawiera on siebie? Jeśli tak, to nie jest takim zbiorem. Jeśli nie, to jest takim zbiorem).

            W 1948 roku von Neumann opracował szczegóły dotyczące automatów, tworów logiki, które są w stanie całkowicie się powielać, łącznie ze środkami reprodukcji. Wszystkie procesy życiowe były teraz możliwe w sferze samej logiki, od analizy, przez refleksję, po reprodukcję. Ten świat możliwości jest obecnie włączany do praktycznych komputerów. Jego podstawa, ich podstawa, pojawiła się w ogrodzie jako wąż, zadomowiła się w naszym jestestwie, a teraz buduje nowy własny świat, świat ze światłem nie pochodzącym od Słońca i logiką nie pochodzącą od Słowa. Tak jak Słowo oferuje każdemu człowiekowi moc, by stał się dzieckiem Bożym, tak teraz każdemu człowiekowi oferuje moc, by stał się dzieckiem piekła.

Możesz również polubić…

5 2 votes
Article Rating
Subscribe
Powiadom o
guest
0 komentarzy
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x