O DESENVOLVIMENTO CIENTÍFICO DURANTE A GUERRA FRIA – REVOLUÇÃO DIGITAL.

Com a rendição da Alemanha, os Aliados reuniram-se em 1945 a fim de decidir o futuro do país derrotado. Assinaram a Conferência de Potsdam, que dividiu a Alemanha em quatro zonas, ocupadas pelos Estados Unidos, Grã-Bretanha, França e União Soviética. As relações entre a União Soviética comunista e os outros países Aliados capitalistas deixaram de ser cooperativas e passaram a ser competitivas e agressivas devido a questões político-ideológicas. Alemanha acabou dividida entre a porção Oriental, comunista, e a porção Ocidental, capitalista. Era o início da Guerra Fria, e o Muro de Berlim era símbolo da polarização que o mundo vivia.

imagem de Wharton University of Pennsylvania

Enquanto a leste a potência da União Soviética buscava implantar o socialismo em outros países para que pudessem expandir a igualdade social, baseado na economia planificada, igualdade social na América do Norte, os Estados Unidos, a outra potência mundial, defendia a expansão do sistema capitalista, baseado na economia de mercado, sistema democrático e propriedade privada.

Adeptos desta competitividade, a Guerra Fria é caracterizada justamente por não ter ocorrido conflito direto entre as duas nações dada a inviabilidade da vitória em uma batalha nuclear. Contudo, as disputas se deram tanto em competitividade tecnológica (corrida espacial, com a chegada do homem no espaço e depois na lua) quanto em conflitos indiretos, participando de guerras alheias, como na Coreia e Vietnã. Com receio de um levante comunista em outros países, inclusive nas Américas – como o caso da Revolução Cubana – os EUA começaram a vigiar e financiar golpes de estados e regimes militares de direita do continente americano.

Na década de 50, a disputa ganha o espaço sideral com os soviéticos saindo na frente. A corrida espacial começou em 1955 e cessou em 1975. Durante os primeiros 10 anos a União Soviética esteve à frente: em agosto de 1957 os soviéticos lançaram seu primeiro míssil balístico intercontinental, o R7, e em outubro o Sputnik-1 era o primeiro satélite a entrar no espaço. Os soviéticos enviaram animais, sondas, o primeiro homem ao espaço (Yuri Gagarin) e fizeram a primeira caminhada espacial com Aleksei Leonov.

Os últimos 10 anos da corrida espacial os EUA lideraram a corrida com a chegada do homem na Lua com o programa Apolo fincando não só bandeiras na Lua mas popularizando uma série de tecnologias.

Uma das principais contribuições científicas estadunidenses da Guerra Fria viria em outubro de 1958 com a criação de uma das mais ilustres filhas do conflito: a NASA, a agência espacial norte-americana, que desenvolveu os principais feitos espaciais do ocidente a partir de 1965. Foi ela a responsável pelo projeto Apolo que levou o homem à Lua, em 1969; a resposta americana ao passeio, em 1961, de Yuri Gagarin, o primeiro homem a orbitar a Terra.

Yuri Gagarin

É também da NASA o primeiro satélite de comunicações do mundo, o Echo 1, que rodeou nosso planeta em 1960 repassando sinais entre duas estações de rádio no solo. Ele tinha capacidade para transmitir 12 ligações telefônicas simultâneas ou um canal de TV. Dois anos depois, a empresa AT&T lançava o Telstar, um satélite de comunicações que podia ampliar o sinal que recebia. Em 1964, os Jogos Olímpicos de Tóquio entraram para a história como os primeiros a serem transmitidos para o mundo via-satélite.

Em 1960, os EUA lançaram o Corona, um satélite espião que tirava fotos do território soviético a 160 mil metros de altura. As futuras gerações do Corona lançariam cápsulas com filmes no ar, temendo uma possível captura do equipamento pelos soviéticos. As cápsulas eram então recolhidas em pleno ar por aviões. O advento das imagens digitais permitiu o envio imediato das imagens à terra, tornando os Coronas obsoletos. Os satélites atuais utilizados na agricultura, meteorologia e em diversas outras áreas devem muito à Guerra Fria que, investindo na espionagem, foi a maior incentivadora das tecnologias de sensoriamento remoto.

Em 1948, as enormes válvulas utilizadas nos computadores foram substituídas pelos transístores. Contudo, com o aumento da complexidade dos circuitos e com a miniaturização cada vez maior dos equipamentos, tornava-se cada vez mais difícil fazer a conexão entre os transístores. A solução veio graças a milhões de dólares injetados pelo Departamento de Defesa americano em empresas de eletrônica com o objetivo de aumentar a precisão e a confiabilidade dos sistemas que guiavam armas como mísseis e torpedos. Em 1958 a Texas Instruments patenteou uma invenção revolucionária, o circuito integrado. Todos os transístores ficavam conectados em uma única lâmina, ou chip, em inglês. Em 1962, o chip de silício recebeu incentivo financeiro da Força Aérea americana, interessada em aprimorar o sistema de direcionamento de seus mísseis balísticos. Por volta de 1970, a Força Aérea já contava com chips em seus mísseis e o mundo com a base tecnológica para o surgimento do microcomputador pessoal que conhecemos hoje.

Nas décadas de 70 e 80, uma invenção militar foi popularizada aos civis. Originalmente criado para orientar mísseis e guiar tropas por lugares afastados e desconhecidos, o Sistema de Posicionamento Global (GPS, em inglês) surgiu do investimento de 10 bilhões de dólares em 24 satélites. Comparando dados enviados pelos satélites e por bases terrestres, o aparelho, do tamanho de um microcomputador de mão, fornecia a latitude, longitude e altitude do usuário. Armas de última geração, como o míssil Tomahawk, utilizam o sistema para atingir seu alvo. Hoje, o GPS ajuda exploradores em terrenos selvagens, faz parte de embarcações, aviões, está associado a mapas de ruas guiando motoristas a partir de trajetos instantaneamente criados.

Há também invenções que, apesar de terem surgido em indústrias bélicas, não nasceram com propósitos militares, como por exemplo o forno de micro-ondas. Em 1946, Percy Spencer, cientista da Raytheon, fabricante de radares, percebeu que a barra de chocolate em seu bolso havia derretido depois que ele se aproximou de um magnetron: um emissor de ondas magnéticas de um radar militar. Graças a Spencer, em poucos meses a própria Raytheon já contava com um forno de micro-ondas em sua cozinha. Em 1947, iniciou-se a comercialização do forno que, com 340 quilos e 1,70 metro de altura, só era utilizado em restaurantes e trens. Somente em 1955 o forno teria dimensões menores, compatíveis com uma cozinha doméstica.

Os aparelhos automáticos para medir pressão arterial encontrados nas portas das farmácias são fruto da popularização de equipamentos desenvolvidos para astronautas, que precisavam de sistemas práticos para avaliar sua saúde no espaço; as válvulas de novos tipos de coração artificial foram inspiradas em uma bomba de combustível de foguetes; marcapassos são monitorados graças à mesma tecnologia utilizada em satélites. Até mesmo a Fórmula 1, famosa por ser uma grande fonte de tecnologia, copiou dos trajes espaciais os macacões anti-chamas de seus pilotos. Detectores de fumaça e de vazamento de gás, tão comuns em construções hoje em dia, vieram de pesquisas de similares que equipam veículos espaciais. Também é graças ao espaço que os ortodontistas contam hoje com o Nitinol, uma liga que, por ser maleável e resistente, é muito empregada na fabricação de satélites e que agora também compõem os arames dos aparelhos dentários. A asa-delta foi criada por Francis Rogallo, projetista da NASA, que desenvolveu o aparato para guiar espaçonaves depois da reentrada na atmosfera. O inventor não imaginava que sua obra iria fazer muito mais sucesso como esporte, modalidade inaugurada na década de 70.

Nitinol

A criação do laser também é uma invenção que ocorreu na Guerra fria, mas só foi possível devido a um conjunto de diversas teorias. Em 1905, Albert Einstein publicou um artigo sobre o chamado efeito fotoelétrico, criando, assim, o conceito do fóton, ou seja, partícula da luz. Em 1953, cientistas americanos deram o primeiro passo com a criação do Microwave Amplification by Stimulated Emission of Radiation (MASER), um dispositivo similar ao laser, que produzia micro-ondas em vez de luz visível, mas não em forma contínua. Em meio à guerra tecnológica travada entre norte-americanos e soviéticos durante a Guerra Fria, o estudo da luz foi uma obsessão de ambas as partes, fazendo os soviéticos contra-atacarem com a criação de algo semelhante, mas que permitia a emissão de ondas de forma contínua. Somente em 1960 com o físico estadunidense chamado Theodore H. Maiman surgiu o primeiro laser, que na verdade é uma sigla em inglês para Light Amplification by Stimulated Emission of Radiation, ou seja, Amplificação da Luz por Emissão Estimulada de Radiação.

Apesar de não ter sido o criador do laser, Einstein leva o crédito por ter sido o cientista que descobriu o efeito físico que permite o funcionamento do laser, a emissão estimulada. O laser é aplicado para diversos fins, como na indústria, na soldagem de carros e na medicina (em cirurgias ópticas e de remoção de pedra nos rins) (de Paula, 2011).

Ainda na década de 1950, governos do mundo todo começaram a enviar satélites espiões para a órbita terrestre. Os satélites passaram a equipados com câmeras cada vez mais potentes e capazes de capturar imagens de territórios inimigos. Esses equipamentos não apenas auxiliavam a determinar a posição das tropas, mas também passou a fazer parte do desenvolvimento industrial de determinada região.

A única forma de ter acesso a essas imagens era por meio do filme fotográfico liberado pelo satélite periodicamente na atmosfera terrestre. O processo de recuperação do filme era bastante trabalhoso e, muitas vezes, resultava na perda das imagens. Em 1976, a NASA colocou um fim nesse transtorno e lançou o satélite KH-1 “Kennan”, equipado com uma câmera óptico-elétrica capaz de transmitir as imagens em formatos digitais. Os fundamentos dessa tecnologia estão presentes até hoje nas câmeras digitais usadas no mundo todo.

Contudo, a criação mais expressiva que começou ainda na II Guerra Mundial e se tornou uma das maiores revoluções tecnológicas foi o computador (Guerra e Ciência).

.

Computadores
Evidentemente que a origem do computador conta com diversas mentes que antecedem a II Guerra Mundial, mas se tornou definitiva na década de 40.

Ada Lovelace foi a primeira pessoa a fazer parte da história do computador. Matemática, ela criou o primeiro algoritmo para ser processado por uma máquina, sendo a primeira programadora da história. Ada nasceu em Londres, 1815, e foi a única filha legítima do famoso poeta Lord Byron e sua esposa Baronesa Byron. O poeta, ícone do romantismo, esperava ter um menino e acabou abandonando a família quando Ada era bebê. Ainda jovem, Ada se tornou amiga e trabalhou com o cientista Charles Babbage, participando de seu projeto sobre a Máquina Analítica – evolução da Máquina Diferencial, criada para executar e imprimir cálculos matemáticos. A Máquina Analítica foi a primeira máquina da história que pôde ser programada para executar comandos de qualquer tipo, mas a jovem cientista notou que a máquina era capaz de fazer muito mais do que o que seu criador imaginava.

Entre 1842 e 1843, ela traduziu um artigo italiano sobre o motor e complementou o estudo com um conjunto de observações de sua autoria. Suas anotações eram mais extensas e específicas do que o artigo original e continham um algoritmo criado para ser processado por máquinas. Ada é considerada a primeira pessoa a criar um programa de computação. Além disso, Ada desenvolveu uma visão sobre a capacidade dos computadores conseguirem realizar muito mais além de meros cálculos, em uma época em que todos os matemáticos estavam focados nesse tipo de ação. Ada morreu jovem, aos 36 anos, vítima de um câncer no útero (Gnipper, 2016).

Simultaneamente a Ada, o matemático George Boole (1815-1864) foi um dos fundadores da lógica matemática. Uma nova área que se tornou uma ferramenta no projeto e estudo de circuitos eletrônicos e arquitetura dos futuros computadores.

O próximo passo da história do computador veio quando o matemático britânico Alan Turing (1912-1954) desenvolveu a hipotética Máquina de Turing em 1936 – um dispositivo teórico concebido muitos anos antes de existirem os modernos computadores digitais.

Alan Turing formulou ainda na década de 1930 o modelo teórico que seria responsável pela criação de conceitos como o algoritmo. O dispositivo escrevia e interpretava símbolos limitados entre 0, 1 e conjunto vazio, que é basicamente, a estrutura das linhas de códigos binários dos computadores.

A máquina de Turing seria equipada com uma fita perfurada de comprimento infinito, preenchida em intervalos regulares com símbolos de um conjunto finito e um ponteiro que marcaria a posição real em que a máquina se encontrava, dentro de um conjunto limitado de “estados internos” possíveis. Para cada operação a máquina leria o símbolo inscrito na posição correspondente na fita, e para cada combinação de posição e símbolo lido um programa especificaria um novo símbolo para inscrever na mesma fita ou um movimento a ser efetuado pelo ponteiro, que poderia deslocar-se para a esquerda, para a direita, ou parar.

A potência da Máquina de Turing reside na potencialidade de armazenando da sua fita. A sua extensão infinita significa que o dispositivo pode recorrer a um espaço de armazenamento externo ilimitado como “o papel” para os seus cálculos, produzindo também um output de tamanho ilimitado. Assim, a fita guarda o input para a máquina, age como armazenamento temporário para os resultados parciais durante a execução do algoritmo, e é o meio de output da Máquina de Turing.

Em termos gerais, a ideia do equipamento era bastante simples: um aparelho capaz de manipular símbolos em uma fita de acordo com uma série de regras cuja função era guardar informações.

Todo o conceito da máquina de Turing foi incorporado ao primeiro computador do matemático, chamado ACE (“Automatic Computing Engine” ou “motor de computação automática”) cujo projeto sofreu vários problemas de atraso e custo, sendo construído apenas tempos depois e em uma versão mais simples.

Em seu estudo “Computing machinery and intelligence” publicado em 1950, Turing aborda a questão da inteligência da máquina, avaliando os argumentos quanto à possibilidade de criar uma máquina computacional inteligente e sugere o famoso Teste de Turing como uma forma empírica de verificar sua inteligência (Guilherme, 2012).

Na II Guerra Mundial Alan Turing e seus colegas de profissão foram muito importantes. Em 1939, ele se voluntariou para trabalhar em favor dos países Aliados: Grã-Bretanha, Estados Unidos da América, União Soviética e França. Seu papel foi instrumental no desenvolvimento de técnicas capazes de decifrar mensagens codificadas usadas pelos alemães. Na época, os nazistas usavam uma máquina automatizada de criptografia conhecida como Enigma. Turing desenvolveu o “antídoto”: outra máquina, capaz de testar rapidamente combinações para obter a chave de decifração das mensagens geradas pelo dispositivo alemão. O filme Jogo da Imitação representa muito bem o conteúdo desta descoberta – embora retrate muito mal a personalidade de Alan Turing.

Bombe

O dispositivo chamado de Bombe, captava e identificava quando o sinal estava protegido pelo mesmo padrão da Enigma, para depois usar um padrão de lógica que ignorava informações que se contradiziam e gerar a mensagem verdadeira. O sistema usava mecanismos eletromecânicos e era extremamente avançado para sua época. Por isso, ele é muitas vezes considerado como o primeiro computador da história.

Novas versões do Bombe foram construídas após Turing e sua equipe pedirem apoio a Winston Churchill, e mais de duzentas operavam ao fim da Guerra em 1945. Turing também introduziu sua equipe em Bletchley Park ao matemático Tommy Flowers, que em 1943 projetou o Colossus, um computador primitivo que ajudou a decodificar outra máquina criptográfica alemã, o Lorenz.

A esquerda, Enigma e a direita, Lorenz.

A máquina Lorenz era um codificador de mensagens que permitia a criação de recados criptografados que eram transmitidos via rádio em códigos diferentes dos tradicionais. As mensagens enviadas pela Lorenz demoravam cerca de seis semanas para serem decodificadas pela aliança entre Inglaterra, Estados Unidos e Rússia – um esforço inútil, pois as tropas inimigas já estariam em outro lugar e com outros planos depois de tanto tempo. Sua função era mais do que fazer cálculos, ela decodificava mensagens trocadas entre soldados nazistas, permitindo que os países Aliados antecipassem e neutralizassem os movimentos inimigos. Colossus, o primeiro computador eletrônico e digital do mundo totalmente programável.

Churchill forneceu recursos econômicos ilimitados para o local, além do recrutamento dos melhores engenheiros de todas as áreas. Um deles é o famoso Alan Turing, que ajudou no processo de criação do Colossus, assim como Tommy Flowers, Bill Tutte e Max Newman (Kleina, 2013).

Colossus Mark 1

O protótipo, Colossus Mark 1, começou a funcionar em dezembro de 1943 e estava em uso no Bletchley Park no início de 1944. Um Colossus Mark 2 melhorado que usava registros de turno para quintuplicar a velocidade de processamento, trabalhou pela primeira vez em 1º de junho de 1944, a tempo para os desembarques na Normandia no Dia D (Flowers, 1983).

A existência das máquinas Colossus foi mantida em segredo até meados da década de 1970; as máquinas e os planos para construí-las haviam sido destruídas na década de 1960 como parte do esforço para manter o sigilo do projeto (SuperInteressante, 2000).

Após o fim da guerra, Turing voltou a trabalhar no nascente campo da computação e fechou o vão entre a teoria e a prática ao projetar o primeiro computador programável. Sua proposta para o dispositivo, o Automatic Computing Engine (ACE), apresentada em 1945, incluía diagramas de circuitos lógicos.

O dispositivo tinha uma palavra que usava 48 bits – sendo esta unidade de medida a menor em termos de informação. Continha cerca de 7 mil válvulas e demorava 448 microssegundos para fazer uma multiplicação. Os computadores de primeira geração funcionavam por meio de circuitos e válvulas eletrônicas. Possuíam o uso restrito, além de serem imensos e consumirem muita energia.

Se a revolução iniciada por Turing estava apenas começando, sua vida se aproximava do fim. O Reino Unido era decente o suficiente para entender a irresponsabilidade das atividades nazistas, mas igualmente incoerente ao ponto de considerar a homossexualidade um crime – sendo proibida naquela época e, quando o Turing foi condenado à castração química pelo crime de “indecência”, em 1952, entrou em profunda depressão que o levou ao suicídio, dois anos depois.

Houve também a criação do Electronic Numerical Integrator and Computer (ENIAC) que consumia cerca de 200 quilowatts e possuía 19 mil válvulas. O ENIAC é visto como um dos pais dos computadores atuais e começou a ser desenvolvido por engenheiros da Universidade da Pensilvânia nos Estados Unidos, projetado para o Exército estadunidense, servindo para auxiliar nos cálculos de artilharia já em 1946. O dispositivo ajudou no desenvolvimento da bomba de hidrogênio, testada pelos Estados Unidos em 1952. Realizava cerca de 5 mil operações por segundo, pesava 30 toneladas, tinha mais de 2 metros de altura e ocupava uma área de 15 por 9 metros. Ele custou cerca de 400 mil dólares.

Posteriormente, as enormes válvulas utilizadas nos computadores foram substituídas pelos transístores. Só que, com o aumento da complexidade dos circuitos e com dimensões cada vez menores dos equipamentos, tornava-se cada vez mais difícil fazer a conexão entre os transístores. A solução veio com investimentos em empresas de eletrônica com o objetivo de aumentar a precisão dos sistemas. Em 1958, como vimos acima, a Texas Instruments patenteou o circuito integrado. Todos os transístores ficavam conectados em um único chip.

Em 1951 começou a operar o Electronic Discrete Variable Automatic Computer (EDVAC), projetado para utilizar códigos binários e manter os programas armazenados na memória, respeitando a arquitetura de von Neumann – um matemático húngaro de origem judaica.

Uma vez que usar listas de números aleatórios verdadeiros tornava o ENIAC extremamente lento, von Neumann desenvolveu uma maneira de criar números pseudo-aleatórios a partir do método matemático middle square (meio-quadrado).

Logo após von Neumann ter se interessado pelo ENIAC, a escola Moore solicitou e recebeu um contrato para o desenvolvimento de um computador mais potente, era o EDVAC (Stern, 1980).

ENIAC a esquerda, EDVAC a direita com John von Neumann

Em 1962, o chip de silício recebeu incentivo financeiro da Força Aérea americana, interessada em aprimorar o sistema de direcionamento de seus mísseis balísticos. Por volta de 1970, a Força Aérea já contava com chips em seus mísseis e o mundo com a base tecnológica para o surgimento do microcomputador pessoal que conhecemos hoje (Araújo, 2011).

A Internet surgiu nos anos 60, na época da Guerra Fria, nos Estados Unidos. O Departamento de Defesa americano pretendia criar uma rede de comunicação de computadores em pontos estratégicos. Assim foi criada a Advanced Research Projects Agency (ARPANET), uma rede de computadores que podia trocar informações em tempo real. A intenção era descentralizar informações valiosas de forma que não fossem destruídas por bombardeios se estivessem localizadas em um único servidor.

Na década de 1970, a tensão entre URSS e EUA diminuiu e os países entraram em uma coexistência mais pacífica, sem que houvesse riscos maiores para um ataque imediato. Desta forma, o governo dos EUA permitiu que pesquisadores desenvolvessem, nas suas respectivas universidades, estudos na área de defesa que pudessem também entrar na ARPANET. Com isso, a própria ARPANET começou a ter dificuldades em administrar todo este sistema diante do crescente número de localidades universitárias contidas nela. Dividiu-se então este sistema em dois grupos, a MILNET, que possuía as localidades militares e a nova ARPANET, que possuía as localidades não-militares.

Um sistema técnico denominado Internet Protocol (endereço de IP) permitia que o tráfego de informações fosse encaminhado de uma rede para outra. Todas as redes conectadas por um endereço comunicavam-se trocando mensagens deram origem a internet como a conhecemos. Através da National Science Foundation, o governo norte-americano investiu na criação de backbones (que significa espinha dorsal, em português), que são poderosos computadores conectados por linhas que tem a capacidade de dar vazão a grandes fluxos de dados, como canais de fibra óptica, elos de satélite e elos de transmissão por rádio. Além desses backbones, existem os criados por empresas particulares, onde estão conectadas redes menores, de forma mais ou menos anárquica.

Um cientista do MIT formado em física, Tim Berners-Lee, do CERN, criou em 1989 a primeira proposta da World Wide Web, um sistema de documentos em hipermídia interligados e executados na Internet. Tais documentos poderiam estar na forma de vídeos, sons, hipertextos e imagens disponíveis para a consulta através de um navegador digital – que hoje corresponde ao Internet Explorer, ao Google Chrome, Mozilla Firefox e etc.

O computador NeXTcube foi usado por Berners-Lee como primeiro servidor web e também para escrever o primeiro navegador, o WorldWideWeb (www) ainda em 1990. Em 6 de agosto de 1991, Berners-Lee postou um resumo de seu próprio projeto em um grupo de notícias denominado alt.hypertext marcando a data de estreia da web como um serviço publicado na Internet.

A empresa norte-americana Netscape criou o protocolo HyperText Transfer Protocol Secure (HTTPS, presente nos endereços de sites até os dias atuais junto ao www), possibilitando o envio de dados criptografados para transações comercias pela internet. O interesse mundial aliado ao interesse comercial, que evidentemente observava o potencial financeiro e rentável desta novidade despertou interesse mundial pela popularização da ferramenta ainda na década de 1990 (Berners-Lee, 2016).

Victor Rossetti

Palavras chave: NetNature, Rossetti, Guerra Fria, Corrida espacial, EUA, URSS, Laser, Câmera digital, Micro-ondas, Lorenz, Enigma, Colossus, ENIAC, EDIVA, Bombe, Internet, World Wide Web, HTTP, Alan Turring, John von Neumann, Tommy Flowers e Ada Lovelace.

.

Referências

Araújo, T. Como surgiu o computador? SUperInteressante. 2011
Berners-Lee, Tim. «The WorldWideWeb browser». World Wide Web Consortium. Consultado em 10 de julho de 2016.
de Paula, L, I. Como funciona o laser. Oficina da Net. 2011
Flowers, Thomas H. (1983), “The Design of Colossus”, Annals of the History of Computing, 5 (3): 239–252
Guerra e Ciência. A corrida tecnológica – como a Guerra Fria impulsionou a ciência.
Guilherme, P. Cientistas que mudaram o mundo: Alan Turing.nTecmundo. 2012
Gnipper, P. Mulheres Históricas: Ada Lovelace, a primeira programadora de todos os tempos. Canaltech. 2016
Homer, Steven; Selman, Alan L. (2001). Computability and Complexity Theory. [S.l.: s.n.] p. 35.
Kleina, N. Colossus: herói de guerra e um dos primeiros computadores do mundo. Tecmundo. 2013
Stern, Nancy (1980). «John von Neumann’s Influence on Eletronic Digital Computing, 1944-1946». Annals of The History of Computing. 2 (4). Arlington, VA: American Federation of Information Processing Societies.
SuperInteressante. Alan Turing. 2000

Deixe um comentário

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair /  Alterar )

Foto do Google

Você está comentando utilizando sua conta Google. Sair /  Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair /  Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair /  Alterar )

Conectando a %s