Clique aqui para voltar à página inicial  http://www.novomilenio.inf.br/ano01/0106c000.htm
Última modificação em (mês/dia/ano/horário): 07/26/01 14:46:22
"Do supercomputador de neurônios ao..."

Resumo das telas em PowerPoint apresentadas na palestra do ciclo InfoPrátic@, em 21/6/2001, em Santos/SP, pelo editor de Novo Milênio:

Clique aqui para obter esta apresentação em PowerPoint
Ábaco: já usado pelos sumérios há 5 mil anos: novas descobertas na Mesopotâmia.

1642 - Blaise Pascal criou a Pascalina, a primeira calculadora mecânica do mundo. Uma agulha movia as rodas, e um mecanismo especial levava dígitos de uma roda para outra.

Em 1614, John Napier havia criado o logaritmo, um recurso matemático que reduzia a divisão à subtração e a multiplicação à adição. Em 1623, Francis Bacon foi o primeiro a usar aritmética de base 2 (veremos isso adiante, o sistema binário é a base da computação atual). Em 1671, Gottfried von Leibniz fez uma máquina que efetuava multiplicações e divisões.

Em 1802, Joseph Jacquard construiu um tear que memorizava os modelos de fábrica em cartões perfurados. A máquina conseguia “ler” esses cartões: conforme um dispositivo encontrava um furo no cartão, atravessava-o, e com isso era cumprida uma determinada instrução.

O francês Charles Babbage, por essa época, começava a se aborrecer com os inúmeros erros que encontrava nas tabelas de logaritmos, e decidiu construir uma máquina que eliminasse o trabalho de fazer esses cálculos. Em 1822, ele apresentou a “máquina de diferença”, capaz de fazer os cálculos necessários para elaborar uma tabela de logaritmos. O nome da máquina se refere a uma técnica de matemática abstrata, o método das diferenças.

Sua companheira, a condessa Ada Lovelace (filha de Lord Byron), se tornou a primeira programadora de computador do mundo, ao ajudar Babbage no projeto de uma máquina analítica, que permitiria calcular funções matemáticas bem mais complexas que as logarítmicas. Ada criou os programas para essa máquina, que no entanto nunca funcionou: as centenas de engrenagens, rodas e barras apresentavam problemas, pois a metalurgia na época não tinha tecnologia suficiente para evitar imperfeições nas peças. Apesar disso, a estrutura do equipamento estava correta, e os computadores atuais ainda têm muito a ver com essa máquina (até pelo fato de nem sempre funcionarem como se previa...).

Em 1847, George Boole introduziu raciocínios matemáticos que estimularam o estudo da computação, a chamada álgebra booleana, que tem muito a ver com a teoria dos conjuntos ensinada nas escolas. Por exemplo, um rapaz vai a uma festa e quer dançar. Procura (geralmente) alguém que pertença ao conjunto das mulheres. E também ao de pessoas que não tenham parceiro de dança. Se encontrar alguém que preencha essas duas condições, então dançará. Se não encontrar uma parceira, então fará outra coisa (irá embora, por exemplo...). Os programas de computadores funcionam assim: a cada momento, devem prever um caminho de ação determinado para cada uma das situações que possam existir nesse instante.

Em 1890, Herman Hollerith usou cartões perfurados para agilizar o censo demográfico dos Estados Unidos. Nesses cartões, havia campos a serem perfurados ou não pelos pesquisadores, e que seriam depois lidos por uma máquina (como no tear de Jacquard). No campo sexo, por exemplo, um furo poderia significar feminino e a ausência do furo, masculino (ainda não havia comunidade gay).

Os cartões podiam ser separados por uma máquina, que separaria para um lote apenas os que tivessem furos no campo pesquisado, de forma a se obter dados específicos. Esse trabalho era feito numa máquina de manuseio de dinheiro, por isso os cartões tinham o tamanho da cédula de um dólar. Bom presságio: a companhia fundada por Hollerith, a International Business Machines, é hoje a importante multinacional IBM...

O computador pode pensar? A derrota em 1997 de um mestre humano do xadrez por um computador reacende uma polêmica que foi proposta no início do século pelo matemático tcheco Alan Turing: se um ser humano, comparando respostas escritas fornecidas por outro ser humano e por uma máquina, não soubesse identificar qual resposta fora dada pelo computador ou pelo interlocutor humano, então o computador poderia ser considerado inteligente. 

Turing havia percebido em 1931 que numerosos teoremas matemáticos não poderiam ser provados, e imaginou uma máquina que fizesse automaticamente os cálculos. Na verdade, um grupo de máquinas: uma que somasse, outra que dividisse, assim por diante.

Raciocinando sobre o funcionamento dessas máquinas imaginárias, concluiu que em vez de se fazer uma máquina específica para cada processo matemático, poderia ser feita uma máquina universal, controlada por programas, que fizesse o mesmo que as máquinas especializadas. Criou assim a teoria dos computadores programáveis.

Durante a II Guerra Mundial, surgiu a idéia de se fazer uma máquina que executasse milhares de cálculos, a partir de uma mensagem inimiga interceptada, até descobrir o código que tinha sido usado e conseguir ler a mensagem. O Projeto Colossus foi desenvolvido na cidade inglesa de Manchester, ao mesmo tempo em que os Estados Unidos desenvolviam o Electronic Numeric Integrator And Calculator (Eniac), com a participação do cientista alemão refugiado John von Neumann.

Apareceram assim (em 1946) os primeiros computadores eletrônicos, com milhares de válvulas e quilômetros de fios, ocupando salas inteiras e esquentando muito o ambiente, e com mil problemas (as válvulas queimavam após pouco tempo de uso - a média era superior a uma avaria por hora - e precisavam ser substituídas para que o trabalho continuasse).

Em 1954 surgiu o transistor. Em 1958, o engenheiro Jack Kilby, da Texas Instruments, inventou o circuito integrado. Em 1961, surgiram os microprocessadores que, mesmo sendo menores que uma unha, podiam obter o mesmo resultado que milhares de transístores reunidos. Eles permitiram, na década de 70, o aparecimento da terceira geração de computadores, que já podiam executar vários programas simultaneamente.

E a evolução passou a ser cada vez mais rápida. Hoje, uma calculadora de bolso que custa R$ 1 em qualquer camelô consegue fazer mais do que aqueles equipamentos enormes de 50 anos atrás. No final da década de 70, foram lançados comercialmente os primeiros microcomputadores para uso pessoal.

O primeiro computador pessoal surgiu em 1971: foi o Kembak-1, com 256 bytes de memória, sendo anunciado por US$ 750 na revista Scientific American. O mesmo ano marcou o aparecimento do disquete flexível (floppy drive, então com oito polegadas de diâmetro) e do microprocessador Intel 4004.

Nolan Bushnell ligou um microprocessador ao seu aparelho de televisão e inventou o Pong (um jogo de ping-pong eletrônico), lançado junto com dois parceiros (Ted Dabney e Larry Bryan) na cidade californiana de Sunnyvale, em 1972. Era o início da Atari... - embora o primeiro game date de 1962, ano em que os estudantes Slug Russell, Shag Graetz e Alan Kotok rodaram pela primeira vez o jogo Spacewar!, tipo batalha espacial, nos laboratórios do Massachusetts Institute of Technology (MIT).

O mouse foi introduzido no mercado em 1974, com o minicomputador Xerox Alto, permitindo abrir várias janelas de programas na tela, com menus e ícones. No ano seguinte, Bill Gates e Paul Allan licenciaram um sistema operacional que permitia ao usuário emitir comandos em linguagem próxima ao inglês comum, sem ter de traduzi-los em código de máquina. Era o M-Basic, versão Microsoft do programa Basic, que tinha começado a ser desenvolvido quinze anos antes.

Em 1977, Steve Wozniak e seu colega de escola Steve Jobs fundavam a Apple Computer, apresentando o computador pessoal Apple II, que permitia produzir gráficos vistos a cores no monitor.

Em 1981, a IBM lançava seu primeiro computador pessoal.

Em 1982, o jornalista especializado em microcomputadores Adam Osborne fundou sua empresa e lançou o Osborne 1, o primeiro computador portátil do  mundo. 1982 foi também o ano do surgimento das empresas Compaq e Sun, e a revista norte-americana Time teve a ousadia de escolher o computador como “Homem do Ano”.

Em 1984, a Apple apresenta o computador Macintosh, enquanto a IBM introduz o  PC-AT (Advanced Technology, tecnologia avançada).

Em 1992, a Microsoft introduz no mercado o programa Windows 3.1, com grandes vendas.

Já nos anos 60 eram feitas as primeiras comunicações de dados entre computadores, utilizando as linhas telefônicas comuns.

Surgiu assim em 1969 a ARPAnet (rede da Agência de Projetos de Pesquisa Avançada) nos Estados Unidos, com uma proposta descentralizada: cada computador que se ligasse à rede se tornaria um elo dessa rede, e mesmo que qualquer computador da rede fosse desligado, os demais continuariam normalmente. Ou seja: deixava de existir um computador central. Uma vantagem adicional foi o estabelecimento de um padrão ou protocolo de comunicações, de forma que qualquer computador – PC, Macintosh/Apple, Unix etc. – que tivesse um programa de conversão dos dados para esse protocolo poderia se comunicar com os demais. O protocolo TCP/IP, para controle de transferência de dados via Internet, tem essas capacidades e acabou se tornando um padrão.

No dia 15 de dezembro de 1982, começou a funcionar no Brasil o sistema de videotexto, hoje quase desaparecido.

Já existem protótipos de computadores comandados pelo pensamento. Pesquisadores da empresa Biocontrol Systems, em Palo Alto (Califórnia/EUA), desenvolvem sensores parecidos com os eletrodos colocados na cabeça de quem vai fazer encefalograma. Estes sensores interceptam ondas cerebrais geradas por pensamentos básicos como [sim], [não], [esquerda], [direita], [ligar], [desligar], que permitem comandar os computadores. A Biométrica é uma ciência que estuda como usar olhos, voz e outros padrões corporais como senhas para os novos sistemas.

E-book, computador por neurônios, holográfico, nanocomputador, usando a física quântica, o DNA, são algumas das novidades que se avizinham.