Mobile Edge Computing (MEC) est un modèle informatique émergent qui étend le cloud et ses services à la périphérie du réseau. Envisager l'exécution d'applications émergentes à forte intensité de ressources dans le réseau MEC, le déchargement de calcul est un paradigme éprouvé réussi pour activer des applications gourmandes en ressources sur les appareils mobiles. De plus, compte tenu de l'émergence de l'application collaborative mobile (MCA), les tâches déchargées peuvent être dupliquées lorsque plusieurs utilisateurs se trouvent à proximité. Cela nous motive à concevoir un schéma de déchargement de calcul collaboratif pour un réseau MEC multi-utilisateurs. Dans ce contexte, nous étudions séparément les schémas de déchargement par calcul collaboratif pour les scénarios de déchargement de MEC, de déchargement de périphérique à périphérique (D2D) et de déchargement hybride, respectivement.
Dans le scénario de déchargement de MEC, nous supposons que plusieurs utilisateurs mobiles déchargent des tâches de calcul dupliquées sur les serveurs de périphérie du réseau et partagent les résultats de calcul entre eux. Notre objectif est de développer les stratégies optimales de déchargement collaboratif avec des améliorations de mise en cache afin de minimiser le délai d'exécution global du côté du terminal mobile. À cette fin, nous proposons un déchargement optimal avec un schéma d'amélioration de la mise en cache (OOCS) pour le scénario femto-cloud et le scénario d'informatique mobile, respectivement. Les résultats de la simulation montrent que comparé à six solutions alternatives dans la littérature, notre OOCS mono-utilisateur peut réduire les délais d'exécution jusqu'à 42,83% et 33,28% respectivement pour le femto-cloud mono-utilisateur et l'informatique mobile mono-utilisateur. D'un autre côté, notre système OOCS multi-utilisateur peut encore réduire le délai de 11,71% par rapport à l'OOCS mono-utilisateur grâce à la coopération des utilisateurs.
Dans le scénario de déchargement D2D, nous supposons que lorsque des tâches de calcul en double sont traitées sur des utilisateurs mobiles spécifiques et que les résultats de calcul sont partagés via le canal de multidiffusion Device-to-Device (D2D). Notre objectif ici est de trouver une partition réseau optimale pour le déchargement multicast D2D, afin de minimiser la consommation d'énergie globale du côté du terminal mobile. À cette fin, nous proposons d'abord un cadre de déchargement de calcul basé sur la multidiffusion D2D où le problème est modélisé comme un problème d'optimisation combinatoire, puis résolu en utilisant les concepts de correspondance bipartite pondérée maximale et de jeu de coalition. Notez que notre proposition considère la contrainte de délai pour chaque utilisateur mobile ainsi que le niveau de la batterie pour garantir l'équité. Pour évaluer l'efficacité de notre proposition, nous simulons trois composants interactifs typiques. Les résultats de la simulation montrent que notre algorithme peut réduire considérablement la consommation d'énergie et garantir l'équité de la batterie entre plusieurs utilisateurs en même temps.
Nous étendons ensuite le déchargement du D2D au déchargement hybride en tenant compte des relations sociales. Dans ce contexte, nous proposons un cadre d'exécution de tâches hybride multicast pour l'informatique mobile, où une foule d'appareils mobiles à la périphérie du réseau s'appuient sur la collaboration D2D assistée par réseau pour l'informatique distribuée sans fil et le partage des résultats. Le cadre est socialement conscient afin de construire des liens D2D efficaces. Un objectif clé de ce cadre est de mettre en place une politique d'attribution de tâches écoénergétique pour les utilisateurs mobiles. Pour ce faire, nous introduisons d'abord le modèle de système de déchargement de calcul hybride social-aware, puis nous formulons le problème d'affectation de tâches économe en énergie en prenant en compte les contraintes nécessaires. Nous proposons ensuite un algorithme basé sur la recherche d'arbre de Monte Carlo, nommé TA-MCTS pour le problème d'assignation de tâche. Les résultats de la simulation montrent que, par rapport à quatre solutions alternatives dans la littérature, notre proposition peut réduire la consommation d'énergie jusqu'à 45,37%.
Enfin, les problèmes de déploiement nécessitent une optimisation combinatoire et sont NP-durs. Pour surmonter la grande complexité impliquée, nous formulons le problème de décision de déchargement sous la forme d'un problème de classification multi-étiquettes et développons la méthode DSL (Deep Supervised Learning) pour minimiser les frais de calcul et de déchargement. À mesure que le nombre de composants à granularité fine n d'une application augmente, la stratégie exhaustive souffre de la complexité du temps exponentiel O(2n). Heureusement, la complexité de notre système d'apprentissage est seulement O (mn)2, où m est le nombre de neurones dans une couche cachée qui indique l'échelle du modèle d'apprentissage.