"Do supercomputador de neurônios
ao..."
Resumo
das telas em PowerPoint apresentadas na palestra
do ciclo InfoPrátic@, em 21/6/2001, em Santos/SP, pelo editor de
Novo
Milênio:
Ábaco:
já usado pelos sumérios há 5 mil anos: novas descobertas
na Mesopotâmia.
1642
- Blaise Pascal criou a Pascalina, a primeira calculadora mecânica
do mundo. Uma agulha movia as rodas, e um mecanismo especial levava dígitos
de uma roda para outra.
Em
1614, John Napier havia criado o logaritmo, um recurso matemático
que reduzia a divisão à subtração e a multiplicação
à adição. Em 1623, Francis Bacon foi o primeiro a
usar aritmética de base 2 (veremos isso adiante, o sistema binário
é a base da computação atual). Em 1671, Gottfried
von Leibniz fez uma máquina que efetuava multiplicações
e divisões.
Em
1802, Joseph Jacquard construiu um tear que memorizava os modelos de fábrica
em cartões perfurados. A máquina conseguia “ler” esses cartões:
conforme um dispositivo encontrava um furo no cartão, atravessava-o,
e com isso era cumprida uma determinada instrução.
O
francês Charles Babbage, por essa época, começava a
se aborrecer com os inúmeros erros que encontrava nas tabelas de
logaritmos, e decidiu construir uma máquina que eliminasse o trabalho
de fazer esses cálculos. Em 1822, ele apresentou a “máquina
de diferença”, capaz de fazer os cálculos necessários
para elaborar uma tabela de logaritmos. O nome da máquina se refere
a uma técnica de matemática abstrata, o método das
diferenças.
Sua
companheira, a condessa Ada Lovelace (filha de Lord Byron), se tornou a
primeira programadora de computador do mundo, ao ajudar Babbage no projeto
de uma máquina analítica, que permitiria calcular funções
matemáticas bem mais complexas que as logarítmicas. Ada criou
os programas para essa máquina, que no entanto nunca funcionou:
as centenas de engrenagens, rodas e barras apresentavam problemas, pois
a metalurgia na época não tinha tecnologia suficiente para
evitar imperfeições nas peças. Apesar disso, a estrutura
do equipamento estava correta, e os computadores atuais ainda têm
muito a ver com essa máquina (até pelo fato de nem sempre
funcionarem como se previa...).
Em
1847, George Boole introduziu raciocínios matemáticos que
estimularam o estudo da computação, a chamada álgebra
booleana, que tem muito a ver com a teoria dos conjuntos ensinada nas escolas.
Por exemplo, um rapaz vai a uma festa e quer dançar. Procura (geralmente)
alguém que pertença ao conjunto das mulheres. E também
ao de pessoas que não tenham parceiro de dança. Se encontrar
alguém que preencha essas duas condições, então
dançará. Se não encontrar uma parceira, então
fará outra coisa (irá embora, por exemplo...). Os programas
de computadores funcionam assim: a cada momento, devem prever um caminho
de ação determinado para cada uma das situações
que possam existir nesse instante.
Em
1890, Herman Hollerith usou cartões perfurados para agilizar o censo
demográfico dos Estados Unidos. Nesses cartões, havia campos
a serem perfurados ou não pelos pesquisadores, e que seriam depois
lidos por uma máquina (como no tear de Jacquard). No campo sexo,
por exemplo, um furo poderia significar feminino e a ausência do
furo, masculino (ainda não havia comunidade gay).
Os
cartões podiam ser separados por uma máquina, que separaria
para um lote apenas os que tivessem furos no campo pesquisado, de forma
a se obter dados específicos. Esse trabalho era feito numa máquina
de manuseio de dinheiro, por isso os cartões tinham o tamanho da
cédula de um dólar. Bom presságio: a companhia fundada
por Hollerith, a International Business Machines, é hoje a importante
multinacional IBM...
O
computador pode pensar? A derrota em 1997 de um mestre humano do xadrez
por um computador reacende uma polêmica que foi proposta no início
do século pelo matemático tcheco Alan Turing: se um ser humano,
comparando respostas escritas fornecidas por outro ser humano e por uma
máquina, não soubesse identificar qual resposta fora dada
pelo computador ou pelo interlocutor humano, então o computador
poderia ser considerado inteligente.
Turing
havia percebido em 1931 que numerosos teoremas matemáticos não
poderiam ser provados, e imaginou uma máquina que fizesse automaticamente
os cálculos. Na verdade, um grupo de máquinas: uma que somasse,
outra que dividisse, assim por diante.
Raciocinando
sobre o funcionamento dessas máquinas imaginárias, concluiu
que em vez de se fazer uma máquina específica para cada processo
matemático, poderia ser feita uma máquina universal, controlada
por programas, que fizesse o mesmo que as máquinas especializadas.
Criou assim a teoria dos computadores programáveis.
Durante
a II Guerra Mundial, surgiu a idéia de se fazer uma máquina
que executasse milhares de cálculos, a partir de uma mensagem inimiga
interceptada, até descobrir o código que tinha sido usado
e conseguir ler a mensagem. O Projeto Colossus foi desenvolvido na cidade
inglesa de Manchester, ao mesmo tempo em que os Estados Unidos desenvolviam
o Electronic Numeric Integrator And Calculator (Eniac), com a participação
do cientista alemão refugiado John von Neumann.
Apareceram
assim (em 1946) os primeiros computadores eletrônicos, com milhares
de válvulas e quilômetros de fios, ocupando salas inteiras
e esquentando muito o ambiente, e com mil problemas (as válvulas
queimavam após pouco tempo de uso - a média era superior
a uma avaria por hora - e precisavam ser substituídas para que o
trabalho continuasse).
Em
1954 surgiu o transistor. Em 1958, o engenheiro Jack Kilby, da Texas Instruments,
inventou o circuito integrado. Em 1961, surgiram os microprocessadores
que, mesmo sendo menores que uma unha, podiam obter o mesmo resultado que
milhares de transístores reunidos. Eles permitiram, na década
de 70, o aparecimento da terceira geração de computadores,
que já podiam executar vários programas simultaneamente.
E
a evolução passou a ser cada vez mais rápida. Hoje,
uma calculadora de bolso que custa R$ 1 em qualquer camelô consegue
fazer mais do que aqueles equipamentos enormes de 50 anos atrás.
No final da década de 70, foram lançados comercialmente os
primeiros microcomputadores para uso pessoal.
O
primeiro computador pessoal surgiu em 1971: foi o Kembak-1, com 256 bytes
de memória, sendo anunciado por US$ 750 na revista Scientific
American. O mesmo ano marcou o aparecimento do disquete flexível
(floppy drive, então com oito polegadas de diâmetro) e do
microprocessador Intel 4004.
Nolan
Bushnell ligou um microprocessador ao seu aparelho de televisão
e inventou o Pong (um jogo de ping-pong eletrônico), lançado
junto com dois parceiros (Ted Dabney e Larry Bryan) na cidade californiana
de Sunnyvale, em 1972. Era o início da Atari... - embora o primeiro
game
date de 1962, ano em que os estudantes Slug Russell, Shag Graetz e
Alan Kotok rodaram pela primeira vez o jogo Spacewar!, tipo batalha
espacial, nos laboratórios do Massachusetts Institute of Technology
(MIT).
O
mouse foi introduzido no mercado em 1974, com o minicomputador Xerox Alto,
permitindo abrir várias janelas de programas na tela, com menus
e ícones. No ano seguinte, Bill Gates e Paul Allan licenciaram um
sistema operacional que permitia ao usuário emitir comandos em linguagem
próxima ao inglês comum, sem ter de traduzi-los em código
de máquina. Era o M-Basic, versão Microsoft do programa Basic,
que tinha começado a ser desenvolvido quinze anos antes.
Em
1977, Steve Wozniak e seu colega de escola Steve Jobs fundavam a Apple
Computer, apresentando o computador pessoal Apple II, que permitia produzir
gráficos vistos a cores no monitor.
Em
1981, a IBM lançava seu primeiro computador pessoal.
Em
1982, o jornalista especializado em microcomputadores Adam Osborne fundou
sua empresa e lançou o Osborne 1, o primeiro computador portátil
do mundo. 1982 foi também o ano do surgimento das empresas
Compaq e Sun, e a revista norte-americana Time teve a ousadia de
escolher o computador como “Homem do Ano”.
Em
1984, a Apple apresenta o computador Macintosh, enquanto a IBM introduz
o PC-AT (Advanced Technology, tecnologia avançada).
Em
1992, a Microsoft introduz no mercado o programa Windows 3.1, com grandes
vendas.
Já
nos anos 60 eram feitas as primeiras comunicações de dados
entre computadores, utilizando as linhas telefônicas comuns.
Surgiu
assim em 1969 a ARPAnet (rede da Agência de Projetos de Pesquisa
Avançada) nos Estados Unidos, com uma proposta descentralizada:
cada computador que se ligasse à rede se tornaria um elo dessa rede,
e mesmo que qualquer computador da rede fosse desligado, os demais continuariam
normalmente. Ou seja: deixava de existir um computador central. Uma vantagem
adicional foi o estabelecimento de um padrão ou protocolo de comunicações,
de forma que qualquer computador – PC, Macintosh/Apple, Unix etc. – que
tivesse um programa de conversão dos dados para esse protocolo poderia
se comunicar com os demais. O protocolo TCP/IP, para controle de transferência
de dados via Internet, tem essas capacidades e acabou se tornando um padrão.
No
dia 15 de dezembro de 1982, começou a funcionar no Brasil o sistema
de videotexto, hoje quase desaparecido.
Já
existem protótipos de computadores comandados pelo pensamento. Pesquisadores
da empresa Biocontrol Systems, em Palo Alto (Califórnia/EUA), desenvolvem
sensores parecidos com os eletrodos colocados na cabeça de quem
vai fazer encefalograma. Estes sensores interceptam ondas cerebrais geradas
por pensamentos básicos como [sim], [não], [esquerda], [direita],
[ligar], [desligar], que permitem comandar os computadores. A Biométrica
é uma ciência que estuda como usar olhos, voz e outros padrões
corporais como senhas para os novos sistemas.
E-book,
computador por neurônios, holográfico, nanocomputador, usando
a física quântica, o DNA, são algumas das novidades
que se avizinham. |