01/01/2010 - 0:00
Tudo começou com dois computadores, uma equipe de cerca de 20 cientistas, mais ou menos 15 metros de cabo cinza, uma caixa de metal muito parecida com a geladeira doméstica – chamado IMP, “interface message processor”, um processador de mensagens – e uma grande ideia. Há pouco mais de 40 anos, esse era o cenário do laboratório de Leonard Kleinrock, na Universidade da Califórnia (Ucla), em Los Angeles, nos Estados Unidos, durante o primeiro teste de transmissão de dados da Arpanet, rede militar experimental da Agência de Pesquisa e Projetos Avançados (Arpa), uma subdivisão do Departamento de Defesa dos EUA, que tinha como objetivo trocar informações entre lugares distantes. Naquela época, mal dava para imaginar que esse experimento viria a se transformar na internet, que, em 2009, seria uma rede mundial usada por mais de 1,5 bilhão de pessoas.
Clique para ampliar
Hoje em dia, estamos no conceito da web 2.0, que permite maior interação entre a rede de comunicação e o usuário – este último participa ativamente do conteúdo circulante por meio de páginas pessoais, sites de compartilhamento, de compra e venda de produtos e redes sociais. Um exemplo de interatividade entre internauta e site é a Wikipedia, cujo conceito é ser uma enciclopédia digital comunitária, na qual os usuários podem alterar e acrescentar conteúdo, seja por meio de material textual, fotográfico ou audiovisual. A maioria das palavras que procuramos pode ser achada no site de buscas Google, o mais popular no momento. Não por acaso, boa parcela da população mundial já está conectada.
A internet é vista como espaço praticamente ilimitado para a liberdade de expressão. No Brasil, por exemplo, podemos publicar textos criticando o governo; o governo, por sua vez, faz sites para disseminar suas ideias e assim por diante.
No entanto, é bom lembrar que a liberdade que a internet traz é aparente. Leônidas de Oliveira Brandão, professor doutor do departamento de Ciência da Computação do Instituto de Matemática e Estatística da Universidade de São Paulo (IME-USP), observa que é possível haver o controle de informações. Ele afirma que as informações trafegam por cabos e que há entidades específicas, em todos os países, para o controle desse cabeamento. “Aqui no Brasil, o controle tem como objetivo evitar crimes virtuais. Há como detectar sites e bloquear seus endereços”, explica.
Outro exemplo de que há como bloquear o conteúdo da internet é o site Pandora.com, que não disponibiliza seu serviço de compartilhamento de música para países de fora dos Estados Unidos. Isso é possível por meio do bloqueio de protocolos de internet (IPs), uma espécie de “RG” do usuário.
Em junho de 2009, por exemplo, o governo chinês bloqueou sites como o Twitter, o Hotmail e o Live.com para evitar que seus cidadãos tivessem acesso a qualquer menção do 20º aniversário da repressão militar em 1989 na Praça da Paz Celestial. “Uma vez que existe algum controle, sempre há o risco de utilizar esse método para a censura. Atualmente, há uma queda de braço entre liberdade e métodos de evitar crimes, no caso do Brasil. Mas ainda não vejo nada definido”, resume.
A INTERNET DÁ A FALSA IMPRESSÃO DE LIBERDADE, PORQUE HÁ COMO MONITORAR E CENSURAR ALGUNS CONTEÚDOS CIRCULANTES
Como tendência futura da internet, muitos apostam em aplicativos surpreendentes. Uma prova da evolução dos programas está no próprio Google Earth e no Latitute, que permitem que visualizemos determinado endereço e localizemos amigos e parentes no mapa por meio de um aplicativo de rastreamento que a pessoa instala no celular. Mas, antes que essas tecnologias beneficiem todo mundo, deve haver um processo de padronização de sistemas. Alguns anos atrás, era muito difícil que um arquivo “.doc”, gerado pelo software Microsoft Word, fosse aberto, sem conflito, em um computador da Apple. Agora, isso já é possível.
Mas essas diferenças de formato são resultado de uma competição entre as grandes empresas para monopolizar o mercado. “Por exemplo, os carregadores de celular”, observa Brandão. “Hoje, há uma profusão de conectores que chega a parecer cômica. Isso tudo é porque cada um faz o seu, não quer pagar royalties. Se uma empresa fabrica, ela registra, e se outra faz igual, tem de pagar uma taxa. Diante disso, há uma mobilização para se definir um padrão de conector. Isso tem acontecido também com software. Algumas grandes companhias tentam monopolizar, mas estão tendo de ceder.” Então, no primeiro momento, é perceptível a tendência de monopolizar o mercado.
No entanto, a longo prazo, podemos perceber a tendência de padronizar formatos. “Por exemplo, há muitos anos, você consegue fazer computadores diferentes se comunicarem. A internet nasceu a partir de um princípio desse. Eles definiram um protocolo e cada fabricante passa a fazer uma implementação que entenda esse protocolo. Então, a internet consegue funcionar com muitos fabricantes diferentes: todo mundo implementa esse protocolo e, com isso, consegue comunicar”, explica ele.
Tim Berners-Lee, da W3C e criador do World Wide Web (o “www” que se usa na frente da maioria dos endereços de internet), acredita que em breve a internet ficará ainda mais inteligente com o conceito de websemântica. Com o crescimento da web e da quantidade de informações armazenadas nela, ficou difícil encontrar com precisão a palavra desejada. Isso acontece porque na internet se usa a linguagem HTML, que não atribui significado ao item da pesquisa. Assim, quando digitamos “Pelé” no campo de busca, procurando o rei do futebol, também podemos encontrar a marca de café e o apelido de algum outro jogador. Ou seja, o computador “vê” a palavra “Pelé” como se fosse uma figura, em vez de algo dotado de sentido.
A ideia da websemântica é trabalhar na implementação de sentido aos termos usados, transformando as informações em dados de computador. O problema hoje, aponta Brandão, é a definição de um padrão para que não haja conflito entre máquinas, softwares e empresas diferentes na hora da comunicação. “É difícil manter um padrão com a forma como se anota os dados, porque sempre ocorre um desenvolvimento novo. Então, cada um desenvolve os seus mecanismos. Depois, ou todos morrem e sobrevive um só, ou juntam-se vários consórcios e batem o martelo dizendo ‘esse é o padrão’.” Por enquanto, usa-se muito a linguagem XML, uma extensão do HTML, para trabalhar no conceito de websemântica.
A TENDÊNCIA É SURGIREM MECANISMOS DE BUSCA, POR EXEMPLO, QUE LEVEM EM CONSIDERAÇÃO O SIGNIFICADO DAS PALAVRAS
Alguns rudimentos do que virá a ser a websemântica já estão presentes no cotidiano. Por exemplo, quando acessamos a conta do e-mail do Google (gmail), aparecem anúncios que têm palavras parecidas com as presentes na nossa caixa de entrada; ou, então, podemos ter como exemplo os sites de compras online, como a Amazon.com, que sugere produtos ao consumidor. “Usando algoritmos de busca, pesquisas no banco de dados, dá para se ter uma base de que, dos usuários que compraram o livro A, 90% também compraram o livro B em um período X de tempo. Então, muitas vezes, o site já recomenda ao cliente comprador do livro A que compre o B”, explica.
MAIS INFORMAÇÕES
Site de Leonard Kleinrock: www.lk.cs.ucla.edu
1,5 bilhão de usuários
Doze anos depois da primeira palavra, “login”, digitada por Charley Kline, no experimento do dia 29 de outubro de 1969, no laboratório de Leonard Kleinrock, na Universidade da Califórnia (Ucla), já havia 213 computadores em rede. Mais 14 anos e 16 milhões de pessoas estavam online, com o e-mail começando a mudar o mundo. O primeiro navegador (browser, em linguagem mais específica) foi lançado em 1993 e facilitou o uso da internet. Em 1995 foi aberta a Amazon, primeira loja virtual. Em 1998, o Google, e há oito anos, a Wikipedia, que deu um grande passo para a interação e o compartilhamento de documentos via web. Nesse ponto, a internet já tinha 513 milhões de usuários. Hoje, o número cresceu para mais de 1,5 bilhão.