2025
A self-supervised deep reinforcement learning for Zero-Shot Task scheduling in mobile edge computing environments
KHOSHVAGHT, Parisa; Amir HAIDER; Amir Masoud RAHMANI; Shakiba RAJABI; Farhad Soleimanian GHAREHCHOPOGH et. al.Základní údaje
Originální název
A self-supervised deep reinforcement learning for Zero-Shot Task scheduling in mobile edge computing environments
Název česky
Samonaváděcí hluboké posilovací učení pro plánování úloh s nulovým počtem snímků v mobilních okrajových výpočetních prostředích
Autoři
KHOSHVAGHT, Parisa; Amir HAIDER; Amir Masoud RAHMANI; Shakiba RAJABI; Farhad Soleimanian GHAREHCHOPOGH; Jan LÁNSKÝ a Mehdi HOSSEINZADEH
Vydání
Ad Hoc Networks, Amsterdam, Elsevier, 2025, 1570-8705
Další údaje
Jazyk
angličtina
Typ výsledku
Článek v odborném periodiku
Obor
10201 Computer sciences, information science, bioinformatics
Stát vydavatele
Nizozemské království
Utajení
není předmětem státního či obchodního tajemství
Odkazy
Impakt faktor
Impact factor: 4.800 v roce 2022
Organizační jednotka
Vysoká škola finanční a správní
Klíčová slova česky
Mobile edge computing Zero-shot task scheduling Self-supervised learning Deep Reinforcement Learning Soft Actor-Critic
Klíčová slova anglicky
Mobile edge computing Zero-shot task scheduling Self-supervised learning Deep Reinforcement Learning Soft Actor-Critic
Příznaky
Mezinárodní význam, Recenzováno
Změněno: 2. 8. 2025 14:12, doc. RNDr. Jan Lánský, Ph.D.
V originále
The rising need for swift response times makes it essential to use computing resources and network capacities efficiently at the edges of the networks. Mobile Edge Computing (MEC) handles this by processing user data near where it is generated rather than always relying on remote cloud centres. Yet, scheduling tasks under these conditions can be difficult because workloads shift, resources vary, and network performance is unstable. Traditional scheduling strategies often underperform in such rapidly changing settings, and even Deep Reinforcement Learning (DRL) solutions usually require extensive retraining whenever they encounter unfamiliar tasks. This paper proposes a self-supervised DRL framework for zero-shot task scheduling in MEC environments. The system integrates self-supervised learning to generate task embeddings, enabling the model to classify tasks into clusters based on resource requirements and execution complexity. A Soft Actor-Critic (SAC)-based scheduler then optimally assigns tasks to MEC nodes while dynamically adapting to network conditions. The training process combines contrastive learning for task representation and policy optimization to enhance scheduling decisions. Simulations demonstrate that the proposed approach reduces task completion time by up to 22 %, lowers energy consumption by 29 %, and improves latency by 18 % over baseline methods.
Česky
Vzhledem k rostoucí potřebě rychlé odezvy je nezbytné efektivně využívat výpočetní zdroje a síťové kapacity na okrajích sítí. Mobile Edge Computing (MEC) to řeší tak, že zpracovává uživatelská data v blízkosti , kde vznikají, místo aby se vždy spoléhal na vzdálená cloudová centra. Plánování úloh v těchto podmínkách však může být obtížné, protože pracovní zátěž se mění, zdroje se mění a výkon sítě je nestabilní. Tradiční strategie plánování v takto rychle se měnících podmínkách často nedosahují dostatečných výsledků, a dokonce i řešení s hlubokým posilováním učení (DRL) obvykle vyžadují rozsáhlé přeškolení, kdykoli se setkají s neznámými úlohami . Tento článek navrhuje samonaváděcí rámec DRL pro plánování úloh s nulovým počtem snímků v prostředí MEC. Systém integruje samonaváděcí učení pro generování vložených úloh, což modelu umožňuje klasifikovat úlohy do shluků na základě požadavků na zdroje a složitosti provádění. Plánovač na bázi Soft Actor-Critic (SAC) pak optimálně přiřazuje úlohy uzlům MEC a zároveň se dynamicky přizpůsobuje podmínkám sítě. Tréninkový proces kombinuje kontrastní učení pro reprezentaci úloh a optimalizaci zásad pro zlepšení rozhodování o plánování . Simulace ukazují, že navrhovaný přístup zkracuje dobu dokončení úlohy až o 22 %, snižuje spotřebu energie o 29 % a zlepšuje latenci o 18 % oproti základním metodám.