O projeto visa o desenvolvimento de uma framework baseada em técnicas de machine learning que permitam um planeamento e operações mais inteligentes e sustentáveis de aplicações de IoT e Edge Computing. Estas técnicas irão complementar a abordagem tradicional de dimensionamento vertical com o dimensionamento horizontal de aplicações de IoT e de Edge Computing. A framework MIRAI será composta pelos MIRAI Framework Building Blocks (MFBB). Os principais componentes de MFBB que os parceiros industriais e académicos do consórcio propõem são: a) algoritmos e mecanismos de IA para implantação com eficiência energética e eficiência de recursos e adaptação ao tempo de execução das aplicações de IoT e Edge Computing; b) modelos e técnicas de IA distribuídos que escalam vertical/horizontalmente para garantir tomadas de decisões de elevada qualidade; c) algoritmos e técnicas avançadas de IA para uma aprendizagem contínua e progressiva sob incerteza e ruído, sendo fatores críticos para aplicações de IoT em setores vitais como a indústria de transporte; d) metodologias inovadoras para o desenvolvimento, aprendizagem e avaliação de modelos sem acesso direto aos dados; e) novas soluções para garantir confiança e qualidade num ecossistema heterogéneo.
Esta framework será testada em 5 use-cases diferentes (atualizado após reconfiguração do consórcio internacional): Sistemas distribuídos de energia renovável (liderado pela 3E, Bélgica); Segurança num ecossistema IoT (liderado pela NOSi, Portugal), Gestão de tráfego e mobilidade (liderado pela Macq, Bélgica); Gestão de águas (liderado pela Shayp, Bélgica) e Auto configuração contínua de controladores industriais na Edge (liderado pela Eliar, Turquia).
Em termos globais, o princial resultado esperado é uma transição de serviços de cloud providers oferecidos por "hyperscalers" (como a Google) para sistemas computacionais distribuídos baseados na Edge. Do ponto de vista técnico, espera-se que esta transição traga uma redução do "downtime" causado pela operação em condições de ruído por um fator de 10, redução dos requisitos de largura de banda das comunicações de 90% e redução dos custos de desenvolvimento, instalação e operação de 10%. A abordagem baseada na Edge
é também útil em vários mercados, incluíndo a mobilidade, saúde e produção industrial. Com este benefícios o projeto MIRAI também facilitará o desenvolvimento de novas aplicações, fomentando o impacto desta tecnologia.
Em 2023, o mercado do software de IA em execução na Edge já deverá atingir os 1.15 mil milhões de USD. Contudo, apenas cerca de 10% da informação gerada por empresas é processada em infraestruturas Edge locais. A arquitetura MIRAI representa então uma oportunidade quer para SMEs quer para grandes empresas para expandir os respetivos serviços e entrar neste mercado de rápida evolução.
Para atingir estes resultados, o projeto MIRAI está organizado em seis atividades (consistentes através de todo o consórcio), nomeadamente:
- três atividades de Investigação Industrial (A1: Requisitos e KPIs do MIRAI; A2: Ferramentas para IA Distribuída; A3: Plataforma Edge de IA Distribuída);
- uma atividade de Desenvolvimento e Experimental (A4: Demonstração e Validação);
- duas atividades de Gestão Técnica do Projeto (A5: Exploração e Disseminação e A6: Gestão de Projeto).
No caso de uso nacional, nomeadamente "Segurança num ecossistema IoT" (liderado pela NOSi), as principais características inovadoras do projeto são:
- Segurança contra ciber-ataques que exploram as vulnerabilidades dos sistemas IoT;
- Controlo de dados e privacidade em sistemas IoT pelo cliente;
- Aprendizagem computacional (Machine Learning) para segregação do tráfego normal do que é estranho e potencialmente malicioso;
- Arquiteturas distribuídas, combinando as plataformas Edge locais com as infraestruturas da Cloud;
- Resposta rápida executando os modelos de deteção localmente (na Edge);
- Disponibilidade contínua combinando os recursos locais (Edge) e na Cloud;
- Custo razoável reutilizando as plataformas computacionais já instaladas;
- Escalabilidade dos algorítmos de IA entre dispositivos instalados no cliente;
- Baixa largura de banda na transmissão dos modelos de IA treinados na Cloud para os dispositivos dos clientes. |