Współczesny internauta, przyzwyczajony do produkcji filmowych pokroju “Gwiezdnych wojen”, “Star Treka” czy “Battlestar Galactica”, zakłada zapewne, że latające wysoko nad naszymi głowami, już w przestrzeni kosmicznej, sondy badawcze, wahadłowce, czy satelity wyposażone są w najnowocześniejsze procesory, przetwarzające nieustannie napływające z wszechświata dane. Prawda jest jednak inna. Zupełnie inna.
NAJDROŻSZY SERWIS KOMPUTEROWY
400 milionów dolarów jest sumą olbrzymią, ale jak na kosmiczne wyprawy nie jest to kwota nazbyt wygórowana. Tyle właśnie kosztowała obsługa serwisowa słynnego teleskopu Hubble`a. Wariactwem jednak wydaje się wymiana systemów mikrokomputera pokładowego, zbudowanego w oparciu o procesor Intel 80386 (szerzej znane jako po prostu “386”) na procesory… Intel 80486. W erze produktów z serii Core2Duo, Quad, i5 czy i7 wydaje się to być architekturą tak archaiczną, że wręcz prehistoryczną. Dlaczego więc stosuje się taką politykę informatyczną w misjach NASA wartych grube miliony dolarów?
WADLIWA NOWOCZESNOŚĆ
Powodów jest wiele i w pewnym sensie mówią one o wadach współczesnych procesorów, choć ich moc obliczeniowa jest nieporównywalnie większa od produkcji z lat `90. Jednak biorąc pod uwagę fakt, że współczesne procesory wypuszczane są na rynek bez głębszych testów, że błędy w ich architekturze wychodzą na jaw dopiero po kilku miesiącach czy nawet latach (sic!), wszystko powoli się wyjaśnia. Bo w kosmosie, właśnie w tych misjach wartych setki milionów dolarów, nie może być mowy o grubszych pomyłkach czy częstych awariach. W końcu procesory sterują większością istotnych procesów, w tym wzlotem i lądowaniem. Błąd = katastrofa (czyli śmierć załogi, strata sprzętu wartego miliony dolarów, strata czasu, a wreszczie anty-reklama zmniejszająca społeczne poparcie i przyzwolenie na tego typu misje). Na to nie może sobie pozwolić żadna agencja kosmiczna.
Nowsze procesory są też prądożerne (70 watt i więcej), a w kosmosie, gdzie za źródło prądu służą głównie panele fotowoltaiczne (o ograniczonej wydajności), trzeba być oszczędnym. Jednocześnie procesory z serii 386 i 486 nie wydzielają takich ilości ciepła jak współeczesne konstrukcje, a pozbycie się nadmiaru temperatury w kosmicznej próżni nie jest sprawą prostą.
ZBYT MAŁE NA KOSMOS
Jest jeszcze jedna sprawa, a dotyczy ona samej miniaturyzacji, której postęp nakręca współczesną branżę elektroniki. Wydawać by się mogło, że służy ona technologiom astronautycznym, w końcu dzięki temu zmniejszana jest masa wynoszona w kosmos, a zarazem zwiększana jest przestrzeń wewnątrz kosmicznych wehikułów… A jednak w tym przypadku konstruktorzy wahadłowców muszą iść w innym kierunku. Dzisiejsza produkcja procesorów odbywa się w technologii rzędu 60, 45 czy 32 nanometrów. To powoduje, że tranzystory są mocno zagęszczone i uszkodzenie drobnego ułamku procesora tak na prawdę powoduje zniszczenie wielu jego podsystemów za jednym razem. Bramki logiczne wewnątrz tranzystorów składają się często tylko z kilku warstw atomowych, co mocno wyczula takie procesory na działanie promieniowania kosmicznego. Tymczasem wymiary i w pewnym sensie toporność architektur Intela z serii 80386 i 80486 sprawiają, że wyśmienicie sprawdzają się one w przestrzeni kosmicznej. A ich zegary rzędu kilkunastu czy kilkudziesięciu MHz są wystarczające do wykonywania zadań niezbędnych w kosmosie (np. sterowanie silnikami). I patrząc na politykę współczesnych producentów procesorów, na ich wydajnościową gonitwę, na zaniedbywanie przeprowadzania wystarczającej liczby testów i prób, nie ma co się spodziewać większych zmian w konstrukcjach astronautycznych. Pozostaje nam tylko cieszyć się, że atmosfera otulająca kulę ziemską chroni nas przed zabójczym dla nowoczesnych procesorów promieniowaniem kosmicznym.