1.2.08

(¯`·._.·História da Informática·._.·´¯)


Chama-se genericamente informática ao conjunto das ciências da informação, estando incluídas neste grupo: a ciência da computação, a teoria da informação, o processo de cálculo, a análise numérica e os métodos teóricos da representação dos conhecimentos e de modelagem dos problemas.

O termo informática, no Brasil é habitualmente usado para referir especificamente o processo de tratamento da informação por meio de máquinas eletrônicas definidas como computadores. O estudo da informação começou na matemática quando nomes como Alan Turing, Kurt e Alonzo Church, começaram a estudar que tipos de problemas poderiam ser resolvidos, ou computados, por elementos humanos que seguissem uma série de instruções simples de forma independente do tempo requerido para isso. A motivação por trás destas pesquisas era o avanço durante a revolução industrial e da promessa que máquinas poderiam futuramente conseguir resolver os mesmos problemas de forma mais rápida e mais eficaz. Do mesmo jeito que as indústrias manuseiam matéria-prima para transformá-la em um produto final, os algoritmos foram desenhados para que um dia uma máquina pudesse tratar informações. Assim nasceu a informática.



A Origem do Processamento de Dados


Apesar dos computadores eletrônicos terem efetivamente aparecido somente na década de 40, os fundamentos em que se baseiam remontam a centenas ou até mesmo milhares de anos.
Se levarmos em conta que o termo COMPUTAR, significa fazer cálculos, contar, efetuar operações aritméticas, COMPUTADOR seria então o mecanismo ou máquina que auxilia essa tarefa, com vantagens no tempo gasto e na precisão.



Inicialmente o homem utilizou seus próprios dedos para essa tarefa, dando origem ao sistema DECIMAL e aos termos DIGITAL e DIGITO. Para o auxílio deste método, eram usados gravetos, contas ou marcas na parede.



A partir do momento que o homem pré-histórico trocou seus hábitos nômades por aldeias e tribos fixas, desenvolvendo a lavoura, tornou-se necessário um método para a contagem do tempo, delimitando as épocas de plantio e colheita.

Tábuas de argila foram desenterradas por arqueólogos no Oriente Médio, próximo à Babilônia, contendo tabuadas de multiplicação e recíprocos, acredita-se que tenham sido escritas por volta de 1700 a.C. e usavam o sistema sexagesimal (base 60), dando origem às nossas atuais unidades de tempo.


O Ábaco


Na medida em que os cálculos foram se complicando e aumentando de tamanho, sentiu-se a necessidade de um instrumento que viesse em auxílio, surgindo assim há cerca de 5.000 anos o ÁBACO. Este era formado por fios paralelos e contas ou arruelas deslizantes, que de acordo com a sua posição, representava a quantidade a ser trabalhada.

O ábaco russo era o mais simples: continham 10 contas, bastando contá-las para obtermos suas quantidades numéricas. O ábaco chinês possuía 2 conjuntos por fio, contendo 5 contas no conjunto das unidades e 2 contas que representavam 5 unidades.


A variante do ábaco mais conhecida é o SOROBAN, ábaco japonês simplificado (com 5 contas por fio, agrupadas 4x1), ainda hoje utilizado, sendo que em uso de mãos treinadas continuam eficientes e rápidos para trabalhos mais simples. Esse sistema de contas e fios recebeu o nome de calculi pelos romanos, dando origem à palavra cálculo.





O Logarítmo e a Régua de Cálculos



Os Bastões de Napier foram criados como auxílio à multiplicação, pelo nobre escocês de Edinburgo, o matemático John Napier (1550-1617), inventor dos logaritmos. Dispositivos semelhantes já vinham sendo usados desde o século XVI mas somente em 1614 foram documentados. Os bastões de Napier eram um conjunto de 9 bastões, um para cada dígito, que transformavam a multiplicação de dois números numa soma das tabuadas de cada dígito.


Como os logarítmos são representados por traços na régua e sua divisão e produto são obtidos pela adição e subtração de comprimentos, é considerado como o primeiro computador analógico da história.




Analógico vs. Digital


A diferenciação entre o que chamamos de computador analógico e computador digital é que os analógicos realizam operações aritméticas por meio de analogia (sistema de representação de fenômenos por meio de pontos de semelhança), ou seja, não trabalham com números ou símbolos que representem os números, eles fazem analogia direta entre as quantidades; eles medem as quantidades a serem trabalhadas, tendo, portanto, uma analogia entre os valores com os quais pretende trabalhar e os valores internos da máquina.


Já os computadores digitais trabalham diretamente com números, ou seja trabalham realizando operações diretamente com os números.






Personagens da História da Informática






Pascal

O filósofo, físico e matemático francês Blaise Pascal, trabalhava com seu pai em um escritório de coleta de impostos, na cidade de Rouen em 1642, aos 18 anos, desenvolveu uma máquina de calcular para auxiliar o seu trabalho de contabilidade, baseada em 2 conjuntos de discos: um para a introdução dos dados e outro que armazenava os resultados, interligados por meios de engrenagens. A máquina utilizava o sistema decimal para os seus cálculos de maneira que quando um disco ultrapassava o valor 9, retornava ao 0 e aumentava uma unidade no disco imediatamente superior. A Pascalina, como ficou conhecida, foi a primeira calculadora mecânica do mundo. Pascal recebeu uma patente do rei da França para que lançasse sua máquina no comércio. A comercialização de suas calculadoras não foi satisfatória devido a seu funcionamento pouco confiável, apesar de Pascal ter construído cerca de 50 versões. As máquinas de calcular, descendentes da Pascalina, ainda hoje podem ser encontradas em uso por algumas lojas de departamentos.






Leibnitz e Thomas




Em 1671, o filósofo e matemático alemão, Gottfried Wilhelm von Leibnitz (1646 - 1716) introduziu o conceito de realizar multiplicações e divisões através de adições e subtrações sucessivas. Em 1694, a máquina foi construida, no entanto, sua operação apresentava muita dificuldade e era sujeita a erros. Leibnitz (ou Leibniz), perdeu seu pai quando tinha apenas 5 anos, e como o ensino na sua escola era muito fraco, aos 12 anos já estudava Latin e Grego como autodidata. Antes de ter 20 anos já possuia mestrado em matemática, filosofia, teologia e leis.




Em 1820, Charles Xavier Thomas (1785-1870, conhecido como Thomas de Colmar, Paris - FR) projetou e construiu uma máquina capaz de efetuar as 4 operações aritméticas básicas: a Arithmometer. Esta foi a primeira calculadora realmente comercializada com sucesso. Ela fazia multiplicações com o mesmo princípio da calculadora de Leibnitz e com a assistência do usuário efetuava as divisões.




Programação


As calculadoras da geração da Pascalina executavam somente operações sequenciais, completamente independentes. A cada cálculo o operador deve intervir, introduzindo novos dados e o comando para determinar qual operação deve ser efetuada. Essas máquinas não tinham capacidade para tomar decisões baseadas nos resultados. Em 1801, Joseph Marie Jacquard, mecânico francês, sugeriu controlar teares por meio de cartões perfurados. Os cartões forneceriam os comandos necessários para a tecelagem de padrões complicados em tecidos.


Os princípios de programação por cartões perfurados foram demonstrados por Bouchon, Falcon e Jaques entre 1725 e 1745. Em 1786, o engenheiro J. Muller, planejou a construção de uma máquina para calcular e preparar tabelas matemáticas de algumas funções. A máquina Diferencial, como foi chamada, introduzia o conceito de registros somadores.






Babbage




Entre 1802 e 1822, o matemático e engenheiro inglês Charles Babbage (1792-1871) apresentou um projeto à Sociedade Real de Astronomia, baseado nos conceitos de Müller, Bouchon, Falcon, Jacques e no desenvolvimento que Jacquard efetuou com seus teares. O projeto consistia em uma máquina diferencial e para muitos, tornou-se o pai dos computadores modernos. Babbage, preocupado com os erros contidos nas tabelas matemáticas de sua época, construiu um modelo para calcular tabelas de funções (logaritmos, funções triginométricas, etc.) sem a intervenção de um operador humano, que chamou de Máquina das diferenças. Ao operador cabia somente iniciar a cadeia de operações, e a seguir a máquina tomava seu curso de cálculos, preparando totalmente a tabela prevista. Esta máquina baseava-se no princípio de discos giratórios e era operada por uma simples manivela. Em 1823 o govêrno britânico financiou a construção de uma nova versão mas não obteve resultado satisfatório, devido os limites do ferramental industrial da época.

Babbage
se viu obrigado a desenhar peças e ferramentas, retardando o desenvolvimento do projeto. Após 10 anos de trabalho, tudo que Babbage havia conseguido era uma pequena máquina de 3 registros e 6 caracteres, sendo que deveria ser, de acordo com o projeto, uma máquina de 7 registros e 20 caracteres cada, além de apresentar seus resultados impressos! Em 1833, Babbage projetou uma máquina (com o auxílio de Ada Lovelace) que chamou de Analítica, muito mais geral que a de Diferenças, constituida de unidade de controle de memória aritmética, de entrada e de saida de informações. Sua operação era comandada por um conjunto de cartões perfurados, de modo que, de acordo com os resultados dos cálculos intermediários, a máquina poderia saltar os cartões, modificando dessa forma o curso dos cálculos.

Babbage investiu toda sua fortuna pessoal e de seu filho, que com ele trabalhou durante anos, na construção de sua máquina Analítica, vindo a falecer em 1871, sem terminar a construção. Hoje, estas partes da máquina construída por Babbage, encontram-se como peças de Museu.







Ada Lovelace



Augusta Ada King, Condessa de Lovelace (10 de dezembro de 1815 - 27 de novembro de 1852), filha de Lord Byron, junto com seu companheiro Charles Babbage, iniciou o ambicioso projeto de construção da Máquina Analítica. Ada é uma das poucas mulheres a figurar na história do processamento de dados. Matemática talentosa, compreendeu o funcionamento da Máquina Analítica e escreveu os melhores relatos sobre o processo. Criou programas para a máquina, tornando-se a primeira programadora de computador do mundo.

Ada Lovelace
, é principalmente conhecida por ter escrito um programa que poderia utilizar a máquina analítica de Charles Babbage.


Lady Lovelacy, única filha legítima de Lord Byron, é reconhecida como a primeira programadora de toda a história.

Durante o período que esteve envolvida com o projeto de Babbage, ela desenvolveu os algoritmos que permitiriam à máquina computar os valores de funções matemáticas, além de publicar uma coleção de notas sobre a máquina analítica.






Alan Turing


Alan Mathison Turing nasceu em 23 de junho de 1912 em Londres, filho de um oficial britânico, Julius Mathison e Ethel Sara Turing. Seu interesse pela ciência começou cedo, logo que aprendeu a ler e escrever, distraia-se fatorando números de hinos religiosos e desenhando bicicletas anfíbias. A maior parte do seu trabalho foi desenvolvido no serviço de espionagem, durante a II Grande Guerra, levando-o somente por volta de 1975 a ser reconhecido como um dos grandes pioneiros no campo da computação.


Em 1928, Alan começou a estudar a Teoria da Relatividade, conhecendo Christopher Morcom, que o influenciou profundamente. Morcom morreu em 1930 e Alan se motivou a fazer o que o amigo não teve tempo, durante anos trocou correspondências com a mãe de Morcom a respeito das idéias do amigo e se maravilhou com a possibilidade de resolver problemas com a teoria mecânica quântica.Chegou inclusive a escrever sobre a possibilidade do espirito sobreviver após a morte.

Depois de concluir o mestrado em King's College (1935) e receber o prêmio Smith's em 1936 com um trabalho sobre a Teoria das Probabilidades, Turing se enveredou pela área da computação. Sua preocupação era saber o que efetivamente a computação poderia fazer. As respostas vieram sob a forma teórica, de uma máquina conhecida como Turing Universal Machine (Máquina Universal de Turing), que possibilitava calcular qualquer número e função, de acordo com as instruções apropriadas.


Quando a II Guerra Mundial eclodiu, Turing foi trabalhar no Departamento de Comunicações da Grã Bretanha (Government Code and Cypher School) em Buckinghamshire, com o intuito de quebrar o código das comunicações alemãs, produzido por um tipo de computador chamado Enigma. Este código era constantemente trocado, obrigando os inimigos a tentar decodifica-lo correndo contra o relógio.



Turing e seus colegas cientistas trabalharam num sistema que foi chamado de Colossus, um enorme emaranhado de servo-motores e metal, considerado um precursor dos computadores digitais. Durante a guerra, Turing foi enviado aos EUA a fim de estabelecer códigos seguros para comunicações transatlânticas entre os aliados. Supõe-se que foi em Princeton, NJ, que conheceu Von Neumann e a partir daí, ter participado no projeto do ENIAC na universidade da Pensilvânia.

Terminada a guerra, Alan se juntou ao Laboratório Psíquico Nacional para desenvolver um computador de nacionalidade totalmente inglesa, que seria chamado de ACE (automatic computing engine). Decepcionado com a demora da construção, Turing mudou-se para Manchester. Em 1952, foi preso por "indecência", sendo obrigado a se submeter à pisicoanálise e a tratamentos que visavam curar sua homosexualidade. Turing suicidou-se em Manchester, no dia 7 de junho de 1954, durante uma crise de depressão, comendo uma maçã envenenada com cianureto de potássio.




O Teste de Turing

O teste de Turing consistia em submeter um operador, fechado em uma sala, a descobrir se quem respondia suas perguntas, introduzidas através do teclado, era um outro homem ou uma máquina. Sua intenção era de descobrir se podiamos atribuir à máquina a noção de inteligência.






UMA BREVE HISTÓRIA DA INFORMÁTICA


Há quem goste de remontar a história dos computadores e do processamento de dados à pré-história, ligando-a a marcas em ossos ou pedras. Há quem o faça à Antiguidade, com os ábacos, chineses ou romanos. É fato que aprendemos a contar nos dedos, e que os primeiros ábacos têm cerca de 5.000 anos, sendo os mais primitivos feitos de simples placas de argila, madeira ou pedra, com sulcos onde pequenos seixos são deslizados, e os mais conhecidos, os de contas em armações de varetas. O termo vem do grego "ábakos", com o significado de tábua, prancha, as demais expressões vêm do latim, dígito de "digitus" (dedo), cálculo de "calculus" (pedrinha, seixo), de onde por sua vez derivam calcular e calculadora; computar, de "computare", justaposição de "cum" (com) e "putare" (contar); contar, por fim, é a ação de utilizar "contas".

Essa pequena incursão à origem das nossas atuais palavras, demonstra serem esses os instrumentos mais antigos que a nossa cultura conheceu para essa função. O importante é fixar que, desde os primórdios aos nossos dias, a história do processamento de dados, e a do próprio cálculo, ligam-se cada vez mais intimamente à evolução da vida econômica e do pensamento lógico do Homem. A complexidade da civilização agrícola e urbana exigiu o aperfeiçoamento do cálculo em geral, e cada cultura encontrou soluções próprias, os orientais até hoje recorrem ao ábaco, que permite operações velozes e confiáveis; os sumérios e egípcio: desenvolveram sistemas de contagem em calendários e os rudimentos da geometria (além da escrita para registrá-los); os gregos afamaram-se na geometria, os romanos na engenharia, os hindus inventaram o zero trazido por árabes para o ocidente cristão medieval. Na América pré-Colombiana desenvolveram-se matemáticas complexas ligadas às observações celestes, das quais mesmo hoje, pouco conhecemos.





DA TEORIA À PRATICA


Na Europa pré-Renascentista, o aumento das receitas (e das despesas) exige novos e aperfeiçoados meios de cálculo e de controle, multiplicando as Universidades, impulsionando pesquisa e a ciência. O sucesso desse fórmula é atestado pela passagem do capitalismo mercantil para o pré-industrial que redobra as exigências do cálculo, e prepara a fundamentação teórica que leva às máquinas de calcular. John Napier (1550-1617), matemático escocês, inventa os Logaritmos (1614), recurso lógico que reduz a divisão à subtração e a multiplicação à adição, e os chamados "Bastões de Napier" - tabelas de multiplicação gravadas em cilindros rotativos de madeira. Devido à complexidade de cálculo dos logaritmos, o seu colega inglês William Oughtred (1574-1660) representa-os, para esse fim, em uma escala de madeira: a primeira régua de cálculo de que se tem notícia, e que alguns consideram como o primeiro computador analógico da História.

A primeira máquina de calcular de que se tem notícia é a do astrônomo alemão Wilhelm Schickard (1592-1635). Pouco se sabe desse aparelho, além de que fazia as quatro operações, e se perdeu durante a Guerra dos Trinta Anos (1618-1648). O próprio inventor, morto de peste, não pode defender a sua primazia pelo invento. Por isso, atribui-se ao matemático e filósofo francês Blaise Pascal (1623-1662) a invenção da primeira máquina ("Pascaline", 1642), um mecanismo com capacidade para oito dígitos, efetuando apenas a adição e a subtração, construída para auxiliar o pai, um coletor de impostos. Gottfried Wilhelm Leibniz (1646-1716), aperfeiçoa esse invento, introduzindo o chamado "Cilindro de Leibniz". Projeta ainda (1671), uma máquina que efetua as quatro operações, e que, segundo uns, teria sido apresentada à Royal Society inglesa (1673), segundo outros, teria sido concluída (1694) mas apresentando problemas técnicos. Todas estas máquinas operavam em bases decimais. Calculadoras mecânicas surgem posteriormente, embora aparelhos práticos e confiáveis só estejam disponíveis na segunda metade do século XIX: William S. Burroughs inicia a produção de máquinas de somar (1866), fundando a companhia com o seu nome; comuns no início do nosso século, permanecem difundidas até serem suplantadas pelas calculadoras eletrônicas no começo da década de 70. A Revolução Industrial traz as bases da economia de escala, e o séc. XVIII convive com vários dispositivos e máquinas para calcular, analógicos para grandezas (ex. réguas de cálculo, relógios, contadores e medidores em geral), e digitais para valores, representados por algarismos, letras ou qualquer outro símbolo (ábacos, calculadores). O princípio dos maquinismos é idêntico: o usuário alimenta os números girando uma série de botões ou rodas, acionando manualmente uma alavanca ou outra roda para efetuar a operação desejada. Esses aparelhos constituíam-se em curiosidades mecânicas, sem aplicação prática, pois o recurso a um calculista hábil era sempre mais prático e veloz. Entretanto mesmo o operador mais hábil e destro comete erros no processamento de operações longas e/ou monótonas e repetitivas. E isso se aplicava aos operários nas linhas de produção das maiores fábricas da época: a indústria de tecidos. Em 1799, numa França que sob Napoleão pretende suplantar o poderio da indústria inglesa, o inventor Joseph Marie Jacquard (1752-1834) constrói um tear mecânico que reproduz infinitamente padrões coloridos nos tecidos, segundo instruções fornecidas por fileiras de cartões perfurados "lidos" por um sistema de pinos. Os cartões de Jacquard são o exemplo clássico de um algoritmo - especificação da seqüência ordenada de passos, que deve ser seguida para a realização de uma tarefa, garantindo a sua repetibilidade. O sistema é tão prático e perfeito que milhares de tecelões desempregados se revoltam, sabotam as máquinas (utilizando sapatos de madeira para paralisar as engrenagens), e alguns chegam mesmo a tentar matar Jacquard, pioneiro involuntário do desemprego industrial em massa.

Napoleão é derrotado em 1815, mas a idéia de Jacquard não, e será aproveitada justamente por um inglês - Charles Babbage (1792-1871), membro da Royal Society, professor de matemática em Cambridge, onde ocupa a mesma cadeira que pertenceu a Isaac Newton.

Inventor de personalidade ao mesmo tempo excêntrica e genial, Babbage tem a idéia (1811) de construir uma máquina que não apenas calcule, mas também automaticamente imprima as entradas desse tipo de tabelas. Chamou-a de "Difference Engine" (Máquina das Diferenças), apresenta em 1822 à Royal Society um protótipo que usa 8 posições decimais, e obtém um crédito do governo inglês para construí-la. Dificuldades levam-no a abandoná-la, entre outros motivos, porque os cartões perfurados de Jacquard sugerem a Babbage uma idéia muito melhor: um aparelho capaz de efetuar quaisquer cálculos de acordo com as instruções de cartões perfurados. A partir de 1834, passará as quatro ultimas décadas de sua vida no projeto do que chama "Analytical Engine" (Máquina Analítica), composto de quatro partes ou módulos, interligadas:

a) Computação: adição, subtração, multiplicação, divisão e uma operação decisória elementar;
b) Memória: um banco de mil "registradores" cada um com capacidade para 50 dígitos;
c) Alimentação: controle/entrada de dados/instruções por cartões perfurados;
d) Saída: relatório impresso automaticamente.

Se essa máquina houvesse sido completada, o Séc. XIX teria conhecido o primeiro computador moderno: um dispositivo com memória, controlado por um programa, utilizado para processar dados. É o programa, conjunto ordenado de instruções que determina ao dispositivo o que, como, onde e quando fazer que o torna diferente de uma calculadora. O governo inglês, sem retorno prático na primeira máquina de Babbage, não se dispôs a repetir o erro com a segunda, que jamais teve um protótipo, que de qualquer maneira a construção seria impossível com a tecnologia e os materiais da época. Apesar disso, um programa de demonstração é escrito (1835) para sua operação, por Lady Lovelace (Augusta Ada King, Condessa de Lovelace, única filha legítima do poeta Lorde Byron). Ada, que além da educação formal em idiomas e música, era excelente matemática, com este programa calcularia séries matemáticas de números. É a ela - a primeira programadora - que devemos o estabelecimento de importantes funções em programação.

Exemplo de algumas linguagens de programação:

* Sub-rotinas - seqüências de instruções que podem ser utilizadas várias vezes em diversos contextos;

* Loops - instruções que retomam a leitura/execução de uma instrução específica, de modo que ela possa ser repetida;

* Salto Condicional - instrução cuja satisfação de uma condição permite ou não o "salto" para outra instrução;

O processamento de dados propriamente dito, inicia-­se nos E.U.A. em 1886, quando o estatístico Hermann Hollerith, (1860-1929) funcionário do National Census Office, observa que o processamento manual dos dados do censo de 1880, demoraria cerca de 7 anos e meio para ser concluído. Raciocinando que o censo seguinte, de 1890, não estaria totalmente apurado antes do ano de 1900, devido ao aumento da população, dedica-se à construção de uma máquina para tabular esses dados. No censo de 1890, 300 de suas máquinas, baseadas nos princípios de Babbage e empregando cartões perfurados, diminuem a demora do processamento de cerca de 55 milhões de habitantes para cerca de 2 anos. O sucesso da máquina leva Hollerith a fundar a própria companhia (1896) para fabricá-la e comercializá-la: a Tabulating Machine Company. Através de uma política comercial agressiva, incorporando três outras empresas, suas máquinas serão vendidas para os Departamentos de Censo de governos de todo o mundo e ,mais tarde, para companhias particulares de grande porte. Em 1924 o nome da Companhia é alterado para IBM - Industrial Business Machines, pioneira no emprego da eletricidade para a perfuração/leitura de cartões. A tecnologia de cartões perfurados só será superada nos anos 60 deste século.



Fontes: (http://www.cotianet.com.br/bit/hist/primor.htm) e (pt.wikipedia.org/wiki/informatica), google.com.br