Dados na nuvem crescem exponencialmente e custo pode passar de US$ 100 trilhões, superando PIB mundial
RIO — O assunto do momento é a nuvem de internet, furiosamente alimentada com intermináveis massas de dados pela cloud computing. Mas será que esse fenômeno tem um limite? Todos os dias se produzem no mundo, hoje, 2,5 quintilhões de bytes (2,5 exabytes), e até 2020, segundo a EMC, gigante líder de tecnologias de armazenamento no mundo, o universo digital chegará a 40 sextilhões de bytes (40 zettabytes). Isso equivalerá a 57 vezes a quantidade de todos os grãos de areia em todas as praias da Terra (700,5 quintilhões de grãos). Outra comparação: se esses 40 zettabytes pudessem ser salvos em discos Blu-Ray, o peso de toda essa informação reunida seria igual ao de mais de 420 porta-aviões americanos da classe Nimitz.
Governos, empresas e usuários migram alegremente para a nuvem, mas, apesar do nome, ela não é etérea. Está em toneladas de data centers espalhados pelo mundo. No planeta, de acordo com a americana Emerson, há 509,1 mil data centers que juntos ocupariam a área de 5.955 campos de futebol lado a lado. E tudo isso se reflete em maior consumo de energia elétrica — seu uso pela tecnologia da informação já é responsável por 2% das emissões globais de gás carbônico.
De olho nos dados repetidos
Para Karin Breitman, gerente geral e vice-presidente do Centro de Pesquisa e Desenvolvimento em Big Data da EMC e professora do Departamento de Informática do CTC/PUC-Rio, o maior desafio para fazer face a tanta informação é evitar a duplicação de informações.
— Quando se está armazenando, há muita repetição de dados — diz Karin. — Numa empresa há, em média, 15 a 20 vezes o mesmo dado em diferentes versões. Hoje já existem tecnologias para combater isso, como uma da Google que usa ponteiros em mensagens do Gmail para que todos os usuários que recebam o mesmo e-mail acessem um único arquivo no servidor.
E não basta o armazenamento inteligente, ele deve vir acompanhado de uma rede de distribuição de conteúdo (CDN, na sigla em inglês) com banda suficiente para atender a todos os usuários (exemplo de bom uso: o Netflix, que corresponde a um terço do streaming de dados nos EUA).
— Esse problema da banda é o grande gargalo que temos aqui no Brasil — diz Karin. — E isso só tende a piorar nos próximos anos, com a chegada da internet das coisas, que trará mais desafios para gerenciar dados.
Segundo Sanjay Poonen, presidente de Soluções Tecnológicas e diretor da divisão de Mobilidade da SAP, em 2020 haverá 50 bilhões de objetos e dispositivos conectados à internet das coisas, daí a importânica de tecnologias M2M (de máquina para máquina), voltadas para coletar grandes volumes de dados.
— O crescimento dos dados deverá aumentar 15 vezes até o final da década, enquanto que as tecnologias para lidar com eles crescerão apenas cinco vezes — explica Rodrigo Raimundo dos Santos, diretor de Serviços de Infraestrutura da Capgemini no Brasil. — Uma estratégia comum para lidar com isso, e muito usada pelas empresas de streaming, é descentralizar as informações, para que elas fiquem mais próximas e cheguem mais rápido ao usuário final.
Roberto Nogueira, professor e coordenador do Centro de Estudos em Estratégia e Inovação da Coppead/UFRJ, diz que um dos caminhos para lidar com a exigência de dados é sua compressão, que já vem acontecendo paulatinamente (lembrem-se do MP3 e do MPEG-4, por exemplo).
— Uma coisa é aumentar o calibre do tubo por onde passa a fibra óptica; outra, mais inteligente, é se valer de tecnologias para comprimir os dados, principalmente de vídeo — afirma Nogueira. — Entretanto, além da parte técnica, é preciso destacar que o gerenciamento da nuvem está inserido num quadro maior, de relações econômicas entre empresas e destas com governos, com suas respectivas políticas para o setor de TI.
Yottabyte, a última fronteira
Tudo indica que o desafio aumentará muito com a evolução das tecnologias em geral. Segundo Santos, órgãos do governo americano já guardam dados da ordem do yottabyte (um setilhão de bytes). Para armazenar um yottabyte em discos rígidos de um terabyte, seriam necessários um milhão de data centers do tamanho de quarteirões inteiros, que reunidos chegariam ao tamanho dos estados americanos de Rhode Island e Delaware juntos, segundo a empresa de backup Blackblaze. O custo disso? US$ 100 trilhões — US$ 30 trilhões a mais que o PIB do mundo todo.
O Brasil ainda está se adaptando à realidade da nuvem. O mais recente estudo da Capgemini demonstra que, no ano passado, 78% das empresas nacionais começaram a estudar uma estratégia para utilizar a computação em nuvem, com foco em aplicativos diversos. Entretanto, a implementação desse tipo de recurso pode esbarrar no custo.
Nenhum comentário:
Postar um comentário