Publicações‎ > ‎

Pesquisa

O melhor título para expressar nosso tema de pesquisa é Internet do Futuro. A arquitetura atual da Internet se baseia em conceitos e pressupostos existente na época de sua origem, isto é, no final dos anos 60. Nesses quase 50 anos a Internet se modificou significativamente, tanto em tamanho como em aplicações e uso. O título demostra nosso interesse em estudar novas arquiteturas, novos protocolos e novos sistemas para a Internet que existirá nos próximos anos.

Linhas de Pesquisa

Para organizar um tema de pesquisa amplo demais, separamos por diversos tópicos.

Gerenciamento de Redes

O Gerenciamento de Redes envolve o estudo de arquitetura de sistemas controle de qualquer recursos físicos e lógicos em uma rede de comunicação de dados passível de ser monitorado, que podem estar alocados em diversos ambientes geograficamente distribuídos. O gerenciamento de uma rede de comunicações tem como objetivo principal garantir o seu funcionamento contínuo para assegurar um elevado grau de qualidade dos serviços prestados. Essa linha de pesquisa visa estudar e implementar protótipos de arquiteturas e sistemas para gerenciamento.


Comunicações Móveis

No final do Século XX as redes de comunicação de dados começaram a "desligar" os cabos de conexão. Desde então o aumento da velocidade e flexibilidade das redes baseadas em células, somente aumentou a utilização de redes sem fio e móveis. O principal tema de pesquisa consiste em resolver os problemas da transmissão sem fio, mais sucetível a ruidos e perdas de pacotes, degradando a comunicação. Uma rede infra-estruturada consiste na existência de pontos de acesso que fazem a ligação de dispositivos sem fio com a rede fixa, cada dispositivo constroi uma célula. Nesse caso, um sistema de gerenciamento deve prover mecanismos que permitam a mobilidade dos usuários (troca de célula) para manter a qualidade melhor possível. Outro ponto importante é a distribuição das células em uma região para otimizar a cobertura e custo de implantação. Uma rede móvel ad hoc é aquela em que as estações se comunicam autonomamente conforme o seu interesse, sem a necessidade de uma infra-estrutura de rede existente. Existem diversas aplicações para estas redes tanto civis como militares. As redes de sensores sem fio constituem outra aplicação para as redes ad hoc, são redes compostas de centenas até milhares de pequenos dispositivos com a capacidade de monitorar um ambiente e comunicar-se com outros elementos da rede e um elemento central. Suas aplicações são: monitoramento das condições ambientais, segurança de instalações, detecção de falhas em linhas de transmissão, etc.


Segurança em Redes

A partir do momento que a Internet começou a ser usada para os negócios o problema de segurança tornou-se sério. A origem da Internet foi no meio acadêmico, onde todos os participantes tinham confiança mútua, coisa inezistenta na Internet atual. O grande desafio é saber como garantir a segurança da informação em sistemas onde o físico e o virtual se mesclam apoiados numa rede que não para de crescer. Quanto mais usuários e mais oferta de serviços na Internet mais vulnerabilidades surgem. E os ataques crescem em sofisticação, da engenharia social aos worms e cavalos-de-tróia mais sofisticados. Mas além da segurança pessoal dos usuários, ataques de negação de serviço (DoS) impactam na saúde da rede em si, sendo necessário que se apliquem medidas preventivas nos backbones das redes para manter a oferta de serviços aos usuários. Nenhuma medida de segurança garante 100% de eficácia contra todos os possíveis ataques. A análise de risco, metodologias de avaliação das vulnerabilidades potenciais ameaças aos sistema é item importante em qualquer estratégia de gerência de segurança da informação.


Protocolos e Algoritmos de Redes

Uma rede de comunicação tem como objetivo encaminhar uma mensagem do remetente até o destinatário. Ao passar pelos diversos nós que compõe a rede é necessário que os pacotes sejam encaminhados pelos melhores caminhos. Mas uma rede é sucetível a falhas e os nós precisam testar o estado da rede e definir novos caminhos para o pacote caso o caminho original não esteja íntegro. Essa função é realizada por algoritmos e protocolos que são processados nos nós que a partir das informações coletadas pelo dispositivo que tomas as decisões de encaminhamento para manter o funcionamento da rede. Esse problema tem-se agravado nos últimos anos pelo fato do grande aumento das velocidade das interfaces óticas e das limitações de processamento dos processadores, tornando necessário o desenvolvimento de novas técnicas e mecanismos. Essa linha de pesquisa visa estudar, avaliar e propor novos protocolos e algoritmos de roteamento e encaminhamento de pacotes qua garantam confiabilidade e que sejam adequados às velocidades atuais.


Computação em Nuvens

Computação em nuvem (em inglês, ''cloud computing'') refere-se à estrutura de computação distribuídas, basicamente oferecendo processamento e armazenamento, em servidores compartilhados distribuídos geograficamente e interligados por meio da Internet. O processamento e armazenamento de dados é feito através da abstração de ''serviço'' que poderão ser acessados de qualquer lugar do mundo, a qualquer hora, não havendo necessidade de instalação de programas no equipamento do usuário. Como o acesso aos serviços é feita de forma transparente pela Internet sem conhecimento da sua localização física, é chamado de nuvem. Essa linha de pesquisa visa estudar e propor novas arquiteturas e serviços envolvendo disponibilidade, localização, distribuição, balanceamento de carga e segurança em computação em nuvens.


Dispositivos Lógicos Programáveis

Um dispositivo lógico programável (PLD - Programmable Logic Device - PLD) é um componente eletrônico utilizado para construir circuitos digitais programáveis. Ao contrário de uma porta lógica fixa, um Dispositivo Lógico Programável tem uma função indefinida na sua fabricação, função esta que é definida através da carga de um programa. Alguns dispositivos aceitam apenas uma gravação enquanto outros admitem várias gravações que permitem total reconfiguração do hardware. Para criação do código que irá programá-lo utiliza-se programas semelhantes aos compiladores de software que convertem uma especificação em linguagem de especificação de hardware (HDL - Hardware Description Language), como Verilog e VHDL, em código binário que implementa a lógica desejada. Apesar de ser bastante abrangente, essa linha de pesquisa concentra-se em implementar circuitos de comutação, classificação e filtragem de mensagens e protocolos de alta velocidade utilizando lógica programável.


Redes Óticas

A invenção da fibra ótica como meio de transmissão abriu um novo mundo para as telecomunicações. Um dispositivo de transmissão com alta capacidade de transmissão, baixa atenuação, imunidade à interferências eletromagnéticas do ambiente e a seu pequeno diâmetro, permitiram a grande transmissão de dados por grandes distâncias. Com a redução de custo foi possível universalizar o acesso das pessoas à comunicação. No entanto uma rede ótica exige um sistema de controle e gerenciamento capaz de lidar dom altas taxas de transmissão e manter a qualidade e confiabilidade da rede. Como o aumento da velocidade das redes óticas foi maior que o aumento da velocidade dos dispositivos semicondutores (silício), torna-se necessário em desenvolver novas arquiteturas e sistemas de controle e gerenciamento.


Internet of Things (IoT)

Internet das Coisas (Internet of Things – IoT) e o termo utilizado para descrever o paradigma em que objetos de uso comum, como, eletrodomésticos, veículos, prédios, equipamentos industrias, se comuniquem com os seres humanos através da Internet. A Internet das Coisas permite o monitoramento e o controle do ambiente de forma eficiente que possibilitar uma qualidade de vida melhor com economia de energia e de recursos naturais. Toda essa arquitetura se baseia em instalar pequenos dispositivos de computação embarcada que se conectam através da Internet. No entanto, esses dispositivos pequenos têm limitações de processamento e energia, impossibilitando a realização de funções mais avançadas. A computação em nuvem é uma arquitetura de computação baseado na Internet, fornecendo meios de processamento, desde o cálculos, armazenamento e aplicações, entregues aos usuários como um serviço, disponível em qualquer lugar e quando for necessário. Por isso, cada vez mais é estudado a integração de dispositivos IoT, responsáveis pela coleta e tratamento primário das informações, e a Computação em Nuvens, responsável por coletar as informações e realizar os cálculos mais complexos. O domínio dessas tecnologias é fator determinante para que uma sociedade possa ter relevância no século XXI.

Visão

Um projeto de pesquisa contém um conceito filosófico que indica uma diretriz para a definição de projetos de implementação. Chamaremos essa diretriz como Visão. Essa visão é muito mais uma opinião pessoal e pode ser uma completa besteira.... Mas as vezes eu acerto!

Visão das redes atuais

A Internet é uma velha senhora. Certamente foi a primeira experiència de rede comutada por pacotes. Ninguém imaginava o sucesso que atingiu, por isso, na sua concepção não foi pensada a flexibilidade e escalabilidade para atender às necessifdades atuais.
Alguns fatos:
  1. Nos últimos anos, o aumento da velocidade dos enlaces (via fibra ótica) aumentaram mais que a velocidade de processamento do silício. Atualmente o que limita a velocidade não é a taxa dos enlaces, mas a capacidade de processamento dos processadores (roteadores e switches).
  2. Para possibilitar a compatibilidade com as demais redes a arquitetura da Internet foi, as aplicações foram focada na camada IP e nos mecanismos de roteamento. Esse talvez tenha sido a razão do seu sucesso, mas hoje essa concentração na camada IP causa o que chamamos ossificação da Internet, ou seja, a Internet fica com movimento limitado devido a essa dependencia.
  3. A Internet foi concebida pelo princípio de endereço fixo (IP). A localização é baseada em localização física, o DNS mapeia nome em endereço IP. A mobilidade dos usuários complica essa situação, em roaming um usuário pode trocar o seru endereço IP.
  4. O modelo de desenvolvimento aberto propiciou liberdade e flexibilidade. No entanto a quantidade de protocolos e padrões dificulta a padronização. Em meados de 2011 existem mais de 6500 RFCs publicadas, sendo impossível existir um equipamento que implemente todos os protocolos...
  5. Mesmo com a padronização, não é garantido a interoperabilidade. Somente como exemplo, conheço pelo menos 5 fabricantes que disponibilizam o protocolo de recuperação EAPS (ou outro nome) todos baseados na RFC 3619, todos atendendo a norma, mas nenhum interoperável com outro.
  6. Comoditização do hardware de rede. Para atingir velocidade maiores reduzir o custo de fabricação os fabricantes de equipamento de redes passaram a usar chips dedicados para redes, os chamados NoC (Network on Chip). Como existem poucos fornecedores nesse mercado, dominado pela Broadcom e Marvel, os equipamentos apresentam arquiteturas similares, e um firmware único poderia funcionar em qualquer produto.
Assim nossa visão:
  1. A Internet precisa mudar o paradigma de localização por endereço e passar a fazer a localização por conteúdo ou dado. Hoje a maioria dos usuários não digitam um endereço no navegador, por exemplo, "http://www.empresa.com.br", mas simplesmente entram em um buscador e digitam "empresa", que vai localizar todas as paginas dessa empresa, muito mais fácil para usuário pois identifica mesmo que o nome tenha uma pequena modificação, por exemplo, "http://www.empresabrasil.com.br".
  2. A Internet previsa ser mais compatível com a mobilidade. O projeto da Internet considerou apenas hosts fixos, com endereço fixo e nenhuma mobilidade. Alguns especialistas dizem que em 2010 o tráfego total de dados móveis superou o tráfego total de dados fixos, assim, a Internet não pode mais se esquivar desse problema e criar soluções paliativas, como o IP Móvel.
  3. Desde a criação da Web, a Internet foi focada na arquitetura cliente-servidor, isto é, vários clientes acessando um servidor. No entanto nos últimos anos a utilzação de computação nas nuvens (clouding computing) tem mudado esse paradigma. Para ter escalabilidade os dados são armazenados em vários datacenters, o usuário quando solicita serviços consecutivos pode acessar datacenters distantes, e finalmente, um serviço DNS perde totalmente a utilizade.
  4. Originalmente uma rede fechada (a ARPANET) tornou-se uma rede aberta (a INTERNET). No início as medidas de segurança foram desprezadas porque todos os participantes eram conhecidos... Quando a rede cresceu, a segurança passou a ser tratada nas extremidades, cada usuário tomava sua medida de segurança. Mas a partir do surgimento dos ataques DoS as questões de segurança passaram a impactar no funcionamento e desempenho dos backbones. A Internet nã apresenta mecanismos intrinsecos de segurança e a nova arquitetura precisa prever esses mecanismos de tratamento de segurança.

Projetos

Um projeto de pesquisa para ser duradouro e útil precisa de uma implementação de um protótipo. Assim definimos algumas arquiteturas que implementam nossa visão e elas serão desenvolvida com o auxílio de nossos alunos. Todas as ferramentas são Open Source, seguindo a diretriz da universidade de difundir o conhecimento para a sociedade. Essa característica também nos deixa mais a vontade para usar código livre já pronto que facilita o desenvolvimento.
Essa arquitetura aberta vai possibilitar muitas sugestões de trabalhos para os alunos. Além disso, depois de pronta, vai oferecer uma ferramenta funcional onde novos módulos possam ser testados em ambiente real.
Para escolher um nome para as ferramentas, escolhemos nomes de divindades da antiguidade grega seguida do sufixo Net. A mitologia grega é pródiga em personagens e escolhemos um nome que tenha uma relação com a função do sistema.