sexta-feira, 24 de maio de 2013

Arqueologia da era da informação a partir do advento do bit



‘A informação’ narra as revoluções científicas que levaram à enxurrada de dados da atualidade

Livro celebra o gênio de cientistas pouco conhecidos do grande público, como Claude Shannon, Alan Turing, Charles Babbage e John Archibald Wheeler
RENNAN SETTI

RIO — Uma coincidência temporal e geográfica marca o ponto de virada do que hoje chamamos de era da informação. Em 1948, cientistas do Bell Labs — centro de pesquisas da AT&T, mastodonte da telefonia nos Estados Unidos — inventaram um componente minúsculo e barato para substituir as enormes válvulas que, à época, controlavam o fluxo de energia em eletrônicos. O transistor, como o advento foi batizado, rendeu aos seus criadores o Nobel de Física oito anos depois e proporcionou a miniaturização dos computadores nas décadas seguintes. “Mas esse foi apenas o segundo avanço mais importante daquele ano” a surgir no mesmo Bell Labs, escreve James Gleick em “A informação: uma história, uma teoria, uma enxurrada” (tradução de Augusto Calil; Companhia das Letras, R$ 59,50), que chega ao Brasil nesta sexta-feira.
Poucos meses depois de o transistor ser apresentado, um tímido matemático de 32 anos com experiência em criptografia de guerra publicou na revista técnica do Bell Labs artigo intitulado “Uma teoria matemática da comunicação”. Em 79 páginas, Claude Shannon propôs um método para mensurar a informação, grandeza conhecida de todos mas que ninguém conseguira definir até então. Assim, medir o volume de informação transmitido em uma linha telefônica seria tão possível quanto calcular distâncias, massas e tempo. À unidade básica dessa grandeza Shannon deu o nome de “bit”, que carrega a menor informação possível, uma escolha binária entre 1 ou 0, verdadeiro ou falso etc.
— É a capacidade de medir grandezas que as torna adequadas à ciência. Isso aconteceu em vários momentos da história. Há 400 anos, energia era uma palavra de uso geral mas, enquanto não se podia medi-la, a ciência não podia progredir nem entender aquilo que conheceríamos como termodinâmica — conta Gleick ao GLOBO, por telefone.
De tambores africanos a um tipo desconhecido de telégrafo
Shannon morreu em 2001 sem ter ganho um Nobel, mas é a ascendência de sua teoria sobre o transistor que guia “A informação”. O livro — um best-seller do “New York Times” e vencedor do prêmio Winton da prestigiosa Royal Society — concentra esforços em esmiuçar as ideias científicas que impulsionaram a revolução digital, não os incrementos de hardware. Em vez de Steve Jobs, Bill Gates ou mesmo do “pai da internet” Vint Cerf, os heróis da história são figuras obscuras para o público, como o próprio Shannon (protagonista), o matemático Alan Turing, o inventor Charles Babbage, o biólogo James Watson e o físico John Archibald Wheeler.
À semelhança do assunto fugidio de que trata, a narrativa percorre vasto período da história com pouco apreço pela cronologia. Depois de um prólogo sobre a pedra fundamental lançada por Shannon, o leitor é transportado ao Congo para entender como nativos recorriam à redundância para, apenas com o batucar de seus tambores, propagar mensagens complexas por longas distâncias. Por incrível que pareça, explica Gleick alguns capítulos depois, a técnica tonal dos africanos perdurou como o método mais sofisticado do mundo para transmissão de informações à distância até o fim do século XVIII, quando o francês Claude Chappe inventou o telégrafo.
Mas não se tratava do telégrafo que conhecemos — que Samuel Morse popularizaria na década de 1840, história que “A informação” também conta em detalhes. O engenho que Chappe lançou durante a Revolução Francesa consistia em braços mecânicos localizados no topo de torres de 20 metros de altura, podendo ser vistos de muito longe. As posições desses braços sinalizavam palavras ou frases inteiras em um elaborado código criado por Chappe. A mensagem era transmitida em revezamento entre as torres, localizadas cerca de dez quilômetros umas das outras. Quando chegou ao poder, Napoleão adotou a ideia.
Também merece muitas páginas no livro histórias sobre a origem da escrita, o nascimento de dicionários, o conceito de “meme” — inusitadamente forjado nas observações do biólogo Richard Dawkins — e o entendimento do DNA como arquivo de dados. Amarra a sequência de temas aparentemente desconexos a lógica por trás da transmissão e do acúmulo de informação.
Obra trata de temas complexos enquanto conta histórias saborosas
Aos 58 anos, Gleick é um jornalista habituado a temas áridos. Ex-editor e repórter do “New York Times”, em 1987 ele publicou “Caos, a criação de uma nova ciência”, obra finalista do Pulitzer que apresentou tópicos complexos como fractais e teoria do caos. É dele também uma concisa biografia de Isaac Newton e um longo relato sobre a vida do físico Richard Feynman, precursor da computação quântica e da nanotecnologia.
Em “A informação” não seria diferente. Um dos capítulos mais complicados explica as propriedades físicas da informação por meio da entropia, conceito da termodinâmica que, como o matemático John von Neumann teria aconselhado a Shannon, poderia ser usado “para ganhar qualquer debate porque ninguém o compreenderia”. Há também muitas páginas sobre a perseguição matemática pela aleatoriedade e sobre como os físicos quânticos começaram a enxergar o bit como a partícula fundamental, mais importante do que a matéria, e o universo como um computador cósmico.
Esses trechos arcanos, no entanto, são escritos de modo compreensível e podem ser gratificantes a leitores dispostos a se concentrar. Mas Gleick é também famoso pela forma humana e anedótica como retrata cientistas. É saboroso o capítulo sobre Charles Babbage, o matemático e inventor inglês que percorria obsessivamente as fábricas da Inglaterra do século XIX para entender como as máquinas funcionavam.
Não resta dúvida de que Babbage foi um homem à frente do seu tempo: na era do vapor e a um século dos mainframes, ele projetou os primeiros computadores programáveis da história, cujo objetivo era automatizar o cálculo numérico. Perseguindo seu sonho, Babbage cruzou com um gênio à sua altura: Ada Lovelace, filha do célebre poeta Lorde Byron, que largou sua mãe quando ela tinha apenas um mês e nunca mais a viu. Ada era um prodígio matemático em uma sociedade que vetava às mulheres a ciência. Entusiasmada com as máquinas do amigo inventor, a jovem condessa escreveu algoritmos para operá-las, transformando-se na primeira programadora de computador da história.
Babbage e Ada Lovelace, à frente da história
Engenhocas mecânicas formadas por milhares de peças metálicas, Babbage jamais concluiu a construção da Máquina Diferencial e da Máquina Analítica — a última era tão complexa que pesquisadores do Museu de Ciência de Londres estão gastando hoje milhões de dólares na tentativa de colocá-la de pé, em projeto que só deve terminar em 2021.
Babbage só viria a ser reconhecido mundialmente por suas invenções no século XX. Apaixonado pelo futuro, morreria frustrado com o que não foi capaz de vislumbrar. Gleick lembra que, pouco antes de sua morte, ele teria escrito a um amigo que “trocaria com alegria o tempo que lhe restava pela oportunidade de viver por três dias num período cinco séculos distante no futuro.”
— A vida de Babbage foi mesmo fascinante e triste ao mesmo tempo. Mas, se ele pudesse viajar no tempo e viver na atualidade, acho que se sentiria vingado pela presença dos computadores — especula o autor, que está começando a escrever um livro justamente sobre o sonho de viagem no tempo, façanha científica na qual ele próprio não acredita.
O sacrifício do sentido
Além de contar a história da informação, a obra de Gleick trata do excesso de dados que parece nos esmagar e de como é preciso recuperar o sentido dessa enxurrada. Isso porque, para mensurar a informação, Claude Shannon precisou sacrificar seu significado, decisão que custou a ser compreendida por um mundo que sempre achou que informação era sinônimo de conhecimento. Para a ciência, os bits de uma biblioteca inteira de filosofia valem tanto quanto os bits de um filme pornográfico. Mas, ao mesmo tempo em que reconhece que ignorar o sentindo foi essencial para o avanço da sociedade da informação, o autor defende que não devemos nos contentar com a definição de informação dada pela ciência.
— Meu livro leva a um paradoxo. Por um lado, temos mais informação do que jamais existiu. Por outro, não nos sentimos mais inteligentes do que antes. Na verdade, nos sentimos esmagados pela enxurrada de informação — afirma Gleick, que ainda não sabe qual solução a ciência dará para o excesso de dados: — Não há fórmula mágica para extrair o significado desse volume de dados. Eu não acredito que algoritmos, supercomputadores e Big Data sejam capazes disso. Esse é um problema com o qual já lidamos, por exemplo, quando a imprensa escrita surgiu. Nós não resolvemos o problema, apenas aceitamos o fato.

Nenhum comentário:

Postar um comentário