Inteligência Artificial Aplicada à Internet das Coisas
A linha temática Inteligência Artificial Aplicada à Internet das Coisas (IoT) objetiva a introdução de inteligência em aplicações e serviços da IoT. Abaixo são descritas as tarefas envolvidas nessa linha temática.
Tarefa 11: Aprendizado Distribuı́do para Internet de Veı́culos
A Internet dos Veı́culos (IoV) proporcionará a utilização de veı́culos conectados e autônomos em larga escala nos próximos 10 anos, onde novos serviços e aplicações serão disponibilizados para a sociedade em infraestruturas dinâmicas 5G e 6G. A IoV utiliza a comunicação V2X e os recursos veiculares (processamento, armazenamento e sensoriamento) para provimento dos serviços, que cada vez mais possuem requisitos estritos de baixa latência e computação intensiva. Exemplos de aplicações incluem direção autônoma, predição de falhas, sistemas de detecção de objetos e modelos de dirigibilidade. Tais aplicações exigem um aprendizado contı́nuo para que os veı́culos possam reagir melhor às condições das vias, eventos ocorrendo nas proximidades, dinamicidade na mobilidade veicular, clima e comportamento de pedestres.
Além dos desafios de comunicação e computação existentes nesse cenário, como por exemplo a transmissão de massiva quantidade de dados com latência ultra baixa, a IoV possui um desafio adicional que é como melhorar a acurácia de mecanismos e processos de tomada de decisão das aplicações veiculares de forma contı́nua, eficiente e inteligente. Dessa forma, o aprendizado distribuı́do no contı́nuo das bordas até os veı́culos é uma ferramenta importante para atender os desafios exigidos pela IoV e assegurar o aprendizado contı́nuo e eficiente para cenários dinâmicos. Por exemplo, ao agrupar os recursos veiculares para descarregamento de tarefas, o Aprendizado Federado (FL) pode ser utilizado para processamento distribuı́do de grandes modelos de redes neurais, mantendo a privacidade dos usuários. Outro exemplo, é a utilização de aprendizado por reforço profundo para tomada de decisão sobre onde (subconjunto de veı́culos ou infraestrutura) e quando determinadas aplicações serão processadas, levando em consideração aspectos contextuais medidos e estimados a partir do estado atual da rede, através de predições com altos nı́veis de acurácia.
No Brasil, os projetos na área de IoV inteligentes ainda são incipientes e no mundo já existem projetos em desenvolvimento ou já finalizados, por exemplo ROADVIEW (Robust Automated Driving in Extreme Weather), KI Delta Learning, Al-motion Bavaria e Waymo. Em geral, os projetos ainda são fortemente ligados a modelos de IA centralizados para melhorar a eficiência de aplicações e serviços de IoV. A literatura já apresenta modelos de IA descentralizados, por exemplo, usando aprendizado federado [50] ou combinando aprendizado federado e computação em borda para resolver problemas de IoV. Entretanto, a aplicação das técnicas de aprendizado distribuı́do ainda precisa ser explorada em profundidade para ambientes dinâmicos de IoV, sendo ainda importante estudar o impacto e os benefı́cios do aprendizado federado em cenários com diferentes padrões de mobilidade, perfis de dirigibilidade, densidades, oportunidades de comunicação, nı́veis de resiliência, qualidade dos dados e dos modelos, bem como o uso de aprendizado federado no contı́nuo das bordas até os veı́culos. Deve-se investigar desde a coleta de dados até a aplicação do conhecimento gerado nesse tipo de ambiente.
Dessa forma, esta tarefa visa avançar o estado-da-arte e: (i) aumentar a acurácia e eficiência dos modelos de inteligência artificial em IoV através do uso de aprendizado distribuı́do considerando informação contextual do ambiente veicular, privacidade dos dados e otimização dos parâmetros de comunicação (taxa de transmissão e latência). Os principais desafios incluem a inferência contextual e da qualidade de contato dos veı́culos para ajustar a transmissão dos modelos ou parte das camadas que os compõem, proposição de modelos de compressão, agregação e seleção de veı́culos para execução da tomada de decisão distribuı́da [172]; (ii) orquestrar os recursos no contı́nuo da borda da rede até os veı́culos para o provimento eficiente de serviços para a IoV. Em abordagens tradicionais, as decisões de transferência sobre para onde, como, e o que transferir são aplicadas de maneira centralizada, contando com suposições irrealistas, como a disponibilidade de informações de estado global na hora do processo de tomada de decisão, visto como impraticável e não escalável [65]. Assim, pretende-se empregar aprendizado federado e por reforço de forma distribuı́da nos veı́culos para tomada de decisão baseada no estado atual e predito da rede de forma mais eficiente. O desenvolvimento de novos modelos de aprendizado distribuı́do no contı́nuo das bordas até os veı́culos é uma peça chave para atender as demandas e requisitos de IoV ao mesmo tempo que supre uma lacuna no estado da arte referente à falta de estudos sobre benefı́cios e o impacto combinado dessas tecnologias e serviços na IoV e cenários realı́sticos; e (iii) utilizar a metodologia baseado no método analı́tico hipotética-dedutiva e avaliar o desempenho das soluções inteligentes propostas para IoV em ambientes de simulação, emulação e testbed. Inicialmente, as avaliações serão realizadas nos frameworks de FL disponı́veis, irão considerar benchmarks de FL no contexto de veı́culos autônomos, testebed como o implementado na cidade de Aveiro, Portugal, as simulações serão implementadas no framework de redes veiculares Veins e o trace de mobilidade realı́stico da cidade de Luxemburgo será considerado.
Tarefa 12: Aprendizado Distribuı́do para Internet de Hologramas
Um holograma é um conjunto de dados multissensoriais e imagens tridimensionais virtuais que refletem objetos fı́sicos reais, preservando a profundidade, paralaxe e outras propriedades do holograma original. Dados holográficos dependem de informações visuais capturadas e codificadas de muitos ângulos de visão diferentes, onde dispositivos com suporte a holografia irão codificar, decodificar e renderizar hologramas e contribuir para a popularização dos serviços holografia nas redes 6G. Exemplos de casos de uso da Internet de Hologramas incluem serviços de tele presença, saúde, varejo, indústria, educação, treinamento, entretenimento e esportes, os quais que são caracterizados por hologramas 3D de alta resolução, com requisitos de latência ultra baixos e mı́dia multissensorial (áudio, vı́deo, toque, olfato e paladar, ou seja, 5 camadas/sentidos). O holograma é considerado uma aplicação chave das redes 6G, pois a mesma mudará a forma de interação e comunicação da sociedade com o mundo digital imersivo.
Os requisitos de transmissão dos hologramas apresentam enormes desafios para as redes 6G no que diz respeitos a assegurar latências ultra baixas, transferir quantidades ultra altas de dados e sincronizar as várias fontes de dados, sensores e receptores (5 camadas/sentidos). Por exemplo, espera-se que aplicações de hologramas tenham taxas de transmissão próximas a 5 Tbps e latência de fim-a-fim inferior a 1 ms, e, tais requisitos, não são alcançados pelos sistemas atuais e são desafiadores para as redes 6G. Tais desafios exigem a criação de novos modelos de aprendizado contı́nuo, por exemplo, aprendizado federado, para contribuir com a eficácia do sistema e com processo de tomada de decisão de mecanismos de predição de movimentos e imagens holográficas até o monitoramento, sincronização e orquestração de fluxos e recursos computacionais e de redes para a Internet dos Hologramas.
Como forma de assegurar a Internet dos Hologramas em redes 6G, um conjunto de requisitos e soluções tecnológicas foram apresentadas, mas ainda não foram definidas, especificadas e avaliadas na literatura e são objetos de projetos com financiamento nacionais, por exemplo, FAPESP SMARTNESS, internacionais, por exemplo, EU SPIRIT e entidades de padronização, por exemplo, ITU-T. Um senso comum na academia e na indústria é que para conseguir assegurar os requisitos da Internet dos Hologramas, as redes 6G devem suportar soluções inteligentes e distribuı́das de escalonamento, priorização e sincronização de pacotes das 5 diferentes camadas de hologramas, computação na borda inteligente e orquestração eficiente dos serviços de comunicação e computação em redes 6G, incluindo funções de serviço e virtualização de recursos.
Essa tarefa está alinhada com os requisitos e demandas da Internet dos Hologramas em redes 6G e avançará o estado da arte no uso de aprendizado distribuı́do para coletar dados e gerar conhecimento para (1) a predição de movimentos de usuários, sensores e objetos holográficos 3D de forma a permitir uma rápida e eficiente orquestração de recursos de rede e computacional de forma com baixa latência; (2) o treinamento de mecanismos de sincronização, escalonamento e priorização de fluxos holográficos multissensorial; (3) o treinamento de mecanismos de monitoramento e de descoberta de recursos de rede e computacionais para posterior alocação, remoção e/ou realocação de recursos de redes e computacionais de fluxos de hologramas, por exemplo, instanciar ou migrar um serviço de holograma seguindo os princı́pios de encadeamento de função de serviço inteligente; (4) o treinamento de modelos de sustentabilidade e consumo eficiente de energia de forma a otimizar a utilização da energia usada por dispositivos finais, elementos de rede e nuvens computacionais na Internet dos Hologramas; (5) inferir a qualidade de experiência dos hologramas recebidos pelos usuários finais; (6) utilizar a metodologia baseado no método analı́tico hipotética-dedutiva e avaliar o desempenho das soluções inteligentes propostas para a Internet dos Hologramas em ambientes de simulação, emulação e testbed, inclusive pleiteando o uso do ecossistema OpenRAN Brasil e OpenRAN Gym, plataforma do Projeto Europeu SPIRIT16 e base de dados de Hologramas disponı́vel pelo JPEG Pleno.
Tarefa 13: Aprendizado de Máquina para Solução de Problemas em Cidades Inteligentes
Modelos de aprendizado de máquina para cidades inteligentes são treinados utilizando fontes de dados e dispositivos heterogêneos, por exemplo, veı́culos e smartphones. A privacidade desses dados deve ser garantida, seja por restrições legais, seja para incentivar um maior compartilhamento pelos proprietários desses dados. Uma solução para isso é o aprendizado federado. No aprendizado federado, treina-se um modelo global a partir de dados de diversas fontes, que são compartilhados de forma privada. A ideia geral é realizar um treinamento distribuı́do sem que as múltiplas fontes troquem dados entre si.
Esta tarefa visa propor técnicas de aprendizado federado para aplicações de cidades inteligentes, tais como a otimização da temporização de semáforos urbanos conforme a demanda ou aprendizado de máquina contı́nuo para sistemas de auxı́lio à condução avançados. Neste cenário, convivem equipamentos com diferentes capacidades, papéis e localizações na rede: dispositivos com baixo poder de processamento próximos ao usuário, como celulares e computadores de bordo veiculares; a estação base celular; a borda computacional (MEC – Multi-access Edge Computing); e a nuvem que abriga as máquinas de maior poder computacional, porém mais distantes. Por outro lado, estes equipamentos tipicamente pertencem a diferentes pessoas e organizações: proprietários de celulares, veı́culos, diferentes operadoras de telefonia celular. Claramente a privacidade aparece como um grande desafio para o aprendizado cooperativo. Assim, os maiores desafios do aprendizado de máquina neste contexto são o desempenho do treinamento, a segurança dos procedimentos de treinamento e inferência e como as redes de nova geração podem privilegiar o aprendizado contı́nuo. Em termos de desempenho, um dos problemas conhecidos é a convergência dos modelos de aprendizado em presença de dados não independentes e identicamente distribuı́dos (não-IID). Por exemplo, deve-se treinar modelos mais simples em dispositivos embarcados, enquanto modelos mais complexos podem ser treinados na MEC da rede celular, ou na nuvem. Assim, tanto a carga de dados nas redes quanto a necessidade de processamento na MEC ou na nuvem variam ao longo do tempo.
Em termos de segurança, o desafio é verificar o quão privados são mantidos os dados dos participantes durante o procedimento de treinamento do modelo. Para tal, esta tarefa desenvolverá sistemas baseados em blockchains e ambientes de execução confiáveis como forma de aumento da segurança e auditabilidade do aprendizado federado. Busca-se também desenvolver soluções seguras utilizando propriedades de segurança oferecidas por blockchains e sistemas baseados em blockchains aliadas a técnicas modernas de criptografia para garantia de privacidade dos usuários e dados utilizados. As soluções propostas também devem considerar o requisito de escalabilidade de cada cenário, avaliando tecnologias escaláveis em sistemas de blockchains.
Além de servir diretamente a aplicações de usuários, uma infraestrutura computacional na borda também pode servir para o aumento da qualidade de serviço da própria rede. Neste contexto, tecnologias de redes móveis virtualizadas e programáveis são essenciais. A arquitetura O-RAN (Open Radio Access Network) acrescenta a essas caracterı́sticas a desagregação dos elementos da rede celular e interfaces abertas, sendo assim uma infraestrutura promissora para o aprendizado de máquina federado e contı́nuo [32]. Além disso, são definidos na arquitetura O-RAN controladores de rede inteligentes, os RIC (RAN Intelligent Controllers), responsáveis pela alocação dos recursos em diferentes escalas de tempo. Os próprios RIC serão tipicamente implementados por meio de técnicas de aprendizado de máquina, ainda a serem propostos.
Assim, nesta tarefa pretende-se investigar modelos de aprendizado federado que possam ser treinados em dispositivos embarcados, na borda e na nuvem computacional, conforme a capacidade dos dispositivos, da infraestrutura e os requisitos das aplicações. Com base na configuração dinâmica e inteligente da arquitetura O-RAN, serão propostas estratégias de treinamento contı́nuo auxiliado pela borda e nuvem, configurando a rede celular de acordo com requisitos de processamento, latência e mobilidade dos dispositivos. Serão investigados assim modelos de aprendizado para os controladores RIC. A privacidade dos dados durante o treinamento será garantida pela utilização do aprendizado federado. O principal desafio para preservar a privacidade a partir do aprendizado federado é lidar com clientes com dados heterogêneos. Assim, outra etapa desta tarefa é investigar técnicas atuais que permitam o treinamento acurado de modelos a partir do aprendizado federado, mesmo quando os clientes possuı́rem distribuições de dados heterogêneas.
Tarefa 14: Segurança, Internet das Coisas e Pagamentos Digitais em Cidades Inteligentes
Os pagamentos digitais estão no centro de toda atividade econômica desenvolvida nas cidades inteligentes. Os múltiplos dispositivos interconectados das cidades podem estabelecer comunicações entre si para efetuar e receber pagamentos, além de transferir ativos digitais. Neste cenário, a tecnologia de corrente de blocos (blockchain) age como uma tecnologia habilitadora nas cidades inteligentes, permitindo que os múltiplos dispositivos executem as transferências de maneira segura e sem a necessidade de intermediários. No entanto, a alta quantidade de dispositivos em cidades inteligentes demanda soluções que atendam as diversas requisições de pagamento de maneira rápida. Além disso, o alto volume de dados pessoais envolvidos nas transações expõe novos desafios de privacidade.
Apesar de promissora, a tecnologia de corrente de blocos ainda apresenta desafios de escalabilidade e privacidade. Atualmente, as correntes de blocos públicas apresentam baixa vazão e alto tempo de confirmação quando comprados a métodos tradicionais de pagamentos. Esta desvantagem impede a adoção em massa das criptomoedas como meio de pagamento para atividades cotidianas. Ademais, a necessidade de alta capacidade de armazenamento e poder computacional criptográfico das correntes de blocos dificulta a implementação de soluções baseadas em corrente de blocos em dispositivos IoT, que são essenciais para cidades inteligentes.
Esta tarefa busca desenvolver soluções escaláveis para corrente de blocos, como as redes de canais de pagamento (Payment Channel Networks - PCN) e a tecnologia de rolagem (rollup), dentro do contexto de baixo poder computacional de dispositivos IoT e alto número de dispositivos conectados das cidades inteligentes. Grande parte das propostas atuais em PCN e rollups assume que os participantes possuem conexões estáveis para roteamento e disputa de pagamentos. Poucas soluções nestas tecnologias abordam pagamentos digitais seguros e descentralizados para dispositivos IoT. Neste sentido, esta tarefa deverá propor e adaptar protocolos de roteamento e disputas de pagamento para atender aos requisitos de conexão e capacidade computacional de dispositivos IoT. As propostas e adaptações deverão proporcionar o mesmo nı́vel de segurança assumido pelos protocolos atuais em PCN e rollups. Por fim, será investigado também a integração de aprendizado federado e protocolos modernos de criptografia a esses sistemas para garantir a privacidade das soluções desenvolvidas.
Tarefa 15: Aprendizado de Máquinas em ambientes de Computação Confiáveis
O aprendizado federado introduz uma fragilidade de segurança à medida que distribui a tarefa de aprendizado entre nós clientes que não estão sob controle do servidor de agregação. Tais nós clientes podem mentir sobre as condições de treinamento utilizadas, ou estarem sob controle de um atacante. Os dispositivos IoT sofrem portanto com uma grande superfı́cie de ataques, pois idealmente estão conectados a outros dispositivos IoT que podem ser usados como trampolim para um ataque de intrusão. Além disso, os dados produzidos por dispositivos IoT são comumente processados em nuvem, tendo em vista o baixa poder computacional desses mesmos dispositivos. O envio de dados provenientes de usuários para a nuvem oferece a possibilidade de má utilização, já que os termos de uso acordados podem não ser cumpridos.
O emprego de mecanismos de segurança que reduzam a superfı́cie de ataques e garantam a integridade e privacidade do processamento de dados em hospedeiros não confiáveis, como os nós clientes do aprendizado federado, dispositivos IoT e servidores em nuvem, assim, faz-se necessário mesmo em cenários em que super-usuários, BIOS ou sistema operacional hajam maliciosamente. Nesse sentido, a computação confiável surge como uma alternativa de segurança por hardware, que garante segurança independente do correto funcionamento do software. Ambientes de execução confiáveis são uma aplicação dessa ideia que atende as especificações de integridade e privacidade desejadas, promovendo o processamento seguro de dados em um ambiente isolado do restante do sistema. Assim, esta tarefa tem por objetivo investigar o uso de ambientes de computação confiáveis em sistemas IoT em geral e sistemas IoT que executem algoritmos de aprendizado de máquina distribuı́do.
Diferente das soluções baseadas em criptografia e autenticação, tipicamente adotadas nos trabalhos acadêmicos e na indústria, os ambientes de execução confiáveis protegem contra atacantes que obtêm acesso privilegiado aos sistemas dos dispositivos dos clientes ou à infraestrutura em nuvem. Via de regra as propostas que utilizam computação confiável para melhorar a segurança do aprendizado distribuı́do concentram-se em apenas alguns ataques. Ademais, dispositivos IoT, comumente, não possuem mecanismos de segurança adequados e são frequentemente utilizados como vetor de ataques mais complexos como, por exemplo, no ataque Mirai. Assim, esta tarefa complementa o estado da arte ao definir as limitações e os benefı́cios da adoção de ambientes de execução confiáveis na proteção do aprendizado distribuı́do de ataques como o envenenamento, backdoor, inversão de modelos e inferência de pertencimento. Essa tarefa leva em conta as caracterı́sticas dos dispositivos e as tarefas de aprendizado em aplicações IoT tı́picas, como predição de consumo de energia e visão computacional. Para isso, é necessário lidar com pré-requisitos como a presença de instruções que permitam o acesso seguro à memória por hardware e a execução de tarefas mais complexas em ambientes com recursos computacionais limitados. Tais condições serão implementadas através do uso de extensões como a Intel SGX (Software Guard Extensions) e do uso da tecnologia TrustZone para processadores ARM. Além disso, esta tarefa também avalia o uso de ambientes virtualizados, como o Gramine, o SCONE, o Teaclave e o Panoply, que tem por objetivo simplificar o projeto de aplicações complexas para execução em ambientes confiáveis, como é caso do treinamento de modelos distribuı́dos.
Tarefa 16: Aprendizado Federado Explicável para Internet de Energia
Smart Grid 2.0 (SG 2.0) fornece mecanismos para gerar, distribuir e consumir energia de forma eficiente, confiável e inteligente [63]. O SG 2.0 pretende integrar a próxima geração de redes de comunicação (i.e. 5G/6G) e Machine Learning (ML) para aprimorar o controle, proteção, comunicação e monitoramento das redes elétricas. Embora o SG 2.0 ofereça vantagens técnicas e sociais (por exemplo, eficiência energética, redução de emissões de carbono e integração de recursos de energia distribuı́da), os operadores do Sistema de Distribuição (DSO) podem ser afetados por perdas não técnicas, sendo o furto de eletricidade a mais significativa. Na realidade, os DSOs em todo o mundo perdem anualmente mais de US 25 bilhões devido ao roubo de eletricidade.
Atualmente, o processo de Detecção de Furto de Eletricidade (ETD) é realizado principalmente utilizando técnicas de Machine Learning (ML). Normalmente, as soluções ETD baseadas em ML apresentam centralizado e distribuı́do (Federated Learning - FL) abordagens de aprendizagem para analisar os dados de consumo de eletricidade dos clientes (também conhecidos como perfis de carga). Embora os resultados estatı́sticos das abordagens centralizadas sejam promissores, eles focam apenas em melhorar o desempenho de aprendizagem do ETD sem considerar a natureza distribuı́da do AMI e seus dados de alta densidade (dados massivos e distribuı́dos), sendo o treinamento de um modelo centralizado computacionalmente caro e até mesmo inviável. Além disso, essas soluções requerem a transferência de dados massivos para um único local, o que implica comunicação severa e sobrecarga de computação devido à transmissão e armazenamento de grandes conjuntos de dados de treinamento.
As principais deficiências da abordagem ETD baseada em FL é não se concentrar na otimização de custo de comunicação e computação. Essa otimização é essencial para minimizar a sobrecarga de comunicação e computação ao transmitir e processar grandes modelos de treinamento, ao mesmo tempo em que aprimora o desempenho do aprendizado. Outa deficiência é ignorar a explicabilidade do modelo envolvido (também conhecido como modelo caixa-preta); notavelmente, essa deficiência é compartilhada por todas as soluções de ML centralizadas mencionadas acima. A explicabilidade é fundamental para o sucesso comercial das soluções ETD devido à natureza regulada e de alto risco do setor de energia.
Da mesma forma, essas abordagens diferem de nossa proposta, pois não visam explicar seus resultados, prejudicando a explicabilidade, confiabilidade e transparência dos resultados e, portanto, seu possı́vel sucesso comercial. De fato, trabalhos de pesquisa recentes afirmam que explicabilidade, confiabilidade e transparência com base em Inteligência Artificial Explicável (XAI) são um requisito inerente e um grande desafio para ETD. É digno de nota que os fatos acima exteriorizam uma lacuna de pesquisa na interseção da disciplina XAI, tecnologia FL e ETD.
Tarefa 17: Aprendizado Federado para Internet das Coisas Médicas
A Internet de Coisas Médicas está em ampla expansão e permite o monitoramento, o controle e o tratamento de doenças mediante a integração e da combinação de smartphones, sensores, dispositivos vestı́veis, aplicações e sistemas médicos, inteligência artificial e infraestrutura de computação de nuvem e borda. Dados relacionados a diversos aspectos da saúde, bem-estar e do comportamento humano produzidos por dispositivos móveis e vestı́veis são essenciais para derivar soluções mais inteligentes e eficientes. Entretanto, esses dados possuem informações sensı́veis e privadas de cada usuário. Nesse cenário, o FL mostra ser uma ferramenta essencial para permitir soluções inteligentes, enquanto preserva a privacidade dos usuários. Sendo assim, desafios relacionados não apenas à heterogeneidade dos dispositivos e dos dados, mas também aos custos de comunicação devem ser considerados.
Para endereçar esses desafios foram propostos soluções baseadas em poda e compressão de modelos. A ideia principal é utilizar um modelo base para derivar modelos mais simples conforme as caracterı́sticas do dispositivo que demandem menos recursos para processamento e comunicação sem degradar o desempenho do modelo. Essa simplificação tem dois principais focos: (i) reducao de tamanho: o modelo comprimido possui menos parametros, logo, utiliza menos memória RAM e menor carga de processamento durante sua execucao; (ii) reducao de latencia: o modelo comprimido leva menos tempo para realizar o treinamento/inferencia, o que leva a um menor consumo de energia. Entretanto, tais abordagens restringem as arquiteturas a serem exploradas ao derivar os modelos mais simples de um modelo base (i.e., pois novas arquiteturas não são consideradas), consequentemente, limitando o desempenho da solução.
Uma outra abordagem para criação de modelos é a Neural Architecture Search (NAS), que vem sendo utilizada com sucesso com conjuntos de dados centralizados, produzindo resultados do estado-da-arte em configurações de modelos com ou sem restrições. Dessa forma, a NAS pode ser utilizada para buscar por modelos mais eficientes baseado nas restrições dos dispositivos no aprendizado federado. Contudo, desafios relacionados ao aprendizado colaborativo de modelos com arquiteturas heterogêneas devem ser endereçados.
Sendo assim, esta atividade tem como objetivo explorar métodos não triviais para reduzir os modelos que serão treinados nos dispositivos considerando suas caracterı́sticas e contexto de comunicação e processamento em FL no cenário de Internet das Coisas Médicas para encontrar e treinar modelos eficientes considerando o contexto dos dispositivos. Dessa forma, será possı́vel melhorar o custo computacional, custo de comunicação e consumo energético das soluções de FL enquanto mantém um bom desempenho do modelo. Por fim, também será explorado aprendizado colaborativo de modelos com arquiteturas heterogêneas para garantir melhor eficiência e desempenho dos modelos.