... masz przeżywać życie, a nie je opisywać.
Aby na nie odpowiedzieć, umieszczam czterdzieści dziewięć sławnych komputerów na wykresie [funkcji] wykładniczej. U dołu w lewym rogu znajduje się maszyneria obliczeniowa stosowana w czasie amerykańskiego spisu powszechnego w 1890 roku (kalkulatory z kartami perforowanymi). W roku 1940 Alan Turing zbudował w oparciu o telefoniczne przekaźniki komputer, który złamał kod niemieckiej Enigmy , dzięki czemu Winston Churchill otrzymywał otwarty tekst prawie wszystkich nazistowskich przekazów. Churchill musiał ostrożnie korzystać z tych transkrypcji, gdyż rozumiał, że ich użycie może zwrócić uwagę Niemców. Gdyby na przykład ostrzegł władze Coventry, że miasto będzie bombardowane, Niemcy zobaczyliby przygotowania i domyślili się, że kod Enigmy został złamany. Niemniej podczas bitwy o Anglię lotnicy angielscy zawsze wiedzieli, gdzie są lotnicy niemieccy. Telewizja CBS w 1952 roku stosowała komputer z lampami elektronowymi, by przewidzieć wybór prezydenta U.S.A., – prezydenta Eisenhowera. W prawym górnym rogu jest komputer, który masz teraz na swoim biurku. Możemy odczytać z tego wykresu m.in. to, że prawo Moore’a nie było pierwszym, lecz piątym paradygmatem, który powodował wykładniczy wzrost mocy obliczeniowej. Każda linia pionowa oznacza przejście do innego paradygmatu: elektromechanicznego lub opartego na przełącznikach, lampach elektronowych, tranzystorach i układach scalonych. Zawsze, gdy pewien paradygmat tracił moc, pojawiał się inny, który zaczynał działać od miejsca, w jakim tamten skończył. Trendy wykładnicze zwykle krytykuje się, mówiąc, że w końcu muszą wyczerpać swoje zasoby, jak króliki w Australii. Gdy pewien paradygmat zbliżał się do swoich granic, kompletnie inna metoda przedłużała wykładniczy wzrost. Produkcja coraz mniejszych lamp elektronowych doszła do punktu, w którym nie można było zmniejszyć ich ani trochę bardziej, zachowując próżnię. Wtedy pojawiły się tranzystory, które nie są małymi lampami elektronowymi. Są zupełnie nowym paradygmatem. Każdy poziom na rysunku przedstawia stukrotny wzrost mocy obliczeniowej. Każda prosta linia wykresu [funkcji] opisuje wzrost wykładniczy. Widzimy, że tempo wzrostu wykładniczego samo wzrasta wykładniczo. Podwajaliśmy moc obliczeniową co trzy lata na początku, co dwa lata w połowie wieku, a teraz podwajamy ją co rok. Jest jasne, co będzie szóstym paradygmatem: przetwarzanie w trzech wymiarach. Ostatecznie żyjemy w trójwymiarowym świecie i nasz mózg jest zorganizowany w trzech wymiarach. Mózg ma bardzo niedoskonały typ obwodów. Neurony to duże i bardzo powolne „urządzenia”. Używają sygnalizacji elektrochemicznej, która umożliwia zaledwie dwieście obliczeń na sekundę, ale mózg osiąga niezwykłą moc dzięki równoległemu przetwarzaniu, które jest skutkiem organizacji w trzech wymiarach. Zaczynają się pojawiać technologie trójwymiarowe. Media Lab z MIT ma eksperymentalną technologię o trzystu warstwach obwodów. W ostatnich latach dokonano istotnego postępu w budowie trójwymiarowych obwodów, które działają na poziomie molekularnym. Nanorurki [węglowe], na które stawiam, są sześciobocznymi stosami atomów węgla, z których można tworzyć elektryczne obwody dowolnego typu. Możemy tworzyć odpowiedniki tranzystorów i innych układów elektrycznych. Są bardzo mocne i mają wytrzymałość pięćdziesiąt razy większą od stali. Problemy termiczne wydają się do opanowania. Jeden cal sześcienny nanorurkowych obwodów będzie pod względem obliczeniowym milion razy bardziej wydajny niż ludzki mózg. Poziom ufności w sprawie budowy obwodów trójwymiarowych i uzyskania przynajmniej sprzętowej podstawy dla symulacji ludzkiej inteligencji niezmiernie wzrósł w ostatnich latach. Stąd wynikła opinia, że prawo Moore’a może być prawdziwe dla sprzętu, lecz nie jest prawdziwe dla oprogramowania. Na podstawie czterdziestu lat własnego doświadczenia w pracy nad oprogramowaniem sądzę, że jest inaczej. Wydajność programistów zwiększa się bardzo szybko. Na przykład w ciągu piętnastu lat doszliśmy w jednej z moich firm od systemu rozpoznawania mowy za 5000$, który słabo rozpoznawał około tysiąca słów i to nie w ciągłej mowie, do produktu za 50$, który ze słownikiem około stu tysięcy słów jest znacznie bardziej dokładny. To typowe dla oprogramowania. Dzięki wysiłkom w dziedzinie narzędzi programowania także wydajność programowania wzrasta wykładniczo, chociaż w mniejszym stopniu niż w dziedzinie sprzętu. Wiele innych technologii także rozwija się wykładniczo. Gdy około piętnastu lat temu rozpoczynano projekt genomu, sceptycy mówili, że w tempie, w jakim możemy rozpoznawać genotyp, projekt ten potrwa dziesięć tysięcy lat. Umiarkowany pogląd przewidywał przyspieszenie, ale nie widziano możliwości, by projekt skończył się w piętnaście lat. Jednak stosunek wydajności do ceny i przepustowość sekwenserów DNA podwajały się co rok i projekt ukończono przed upływem piętnastu lat. Od kosztu 10$ za słowo DNA doszliśmy w ciągu dwunastu lat do dziesiątych części centa. Nawet długowieczność przyrastała wykładniczo. W osiemnastym wieku dodawaliśmy z każdym rokiem kilka dni do średniej długości życia. W dziewiętnastym wieku dodawaliśmy do niej z każdym rokiem kilka tygodni. Teraz do średniej długości życia dodajemy z każdym rokiem około 120 dni. Wobec rewolucji rozpoczętych w genetyce człowieka [genomics], terapeutycznym klonowaniu, konstruowaniu leków oraz na podstawie innych przemian w biotechnologii wielu obserwatorów, łącznie ze mną, przewiduje, że przed upływem następnego dziesięciolecia będziemy z każdym rokiem dodawać do średniej długości życia więcej niż jeden rok. Jeżeli za dziesięć lat jeszcze tu będziemy, uda się nam wyprzedzić krzywą i będziemy żyć dostatecznie długo, by obejrzeć godne uwagi stulecie