J 2025

A self-supervised deep reinforcement learning for Zero-Shot Task scheduling in mobile edge computing environments

KHOSHVAGHT, Parisa; Amir HAIDER; Amir Masoud RAHMANI; Shakiba RAJABI; Farhad Soleimanian GHAREHCHOPOGH et. al.

Základní údaje

Originální název

A self-supervised deep reinforcement learning for Zero-Shot Task scheduling in mobile edge computing environments

Název česky

Samonaváděcí hluboké posilovací učení pro plánování úloh s nulovým počtem snímků v mobilních okrajových výpočetních prostředích

Autoři

KHOSHVAGHT, Parisa; Amir HAIDER; Amir Masoud RAHMANI; Shakiba RAJABI; Farhad Soleimanian GHAREHCHOPOGH; Jan LÁNSKÝ a Mehdi HOSSEINZADEH

Vydání

Ad Hoc Networks, Amsterdam, Elsevier, 2025, 1570-8705

Další údaje

Jazyk

angličtina

Typ výsledku

Článek v odborném periodiku

Obor

10201 Computer sciences, information science, bioinformatics

Stát vydavatele

Nizozemské království

Utajení

není předmětem státního či obchodního tajemství

Odkazy

Impakt faktor

Impact factor: 4.800 v roce 2022

Organizační jednotka

Vysoká škola finanční a správní

Klíčová slova česky

Mobile edge computing Zero-shot task scheduling Self-supervised learning Deep Reinforcement Learning Soft Actor-Critic

Klíčová slova anglicky

Mobile edge computing Zero-shot task scheduling Self-supervised learning Deep Reinforcement Learning Soft Actor-Critic

Příznaky

Mezinárodní význam, Recenzováno
Změněno: 2. 8. 2025 14:12, doc. RNDr. Jan Lánský, Ph.D.

Anotace

V originále

The rising need for swift response times makes it essential to use computing resources and network capacities efficiently at the edges of the networks. Mobile Edge Computing (MEC) handles this by processing user data near where it is generated rather than always relying on remote cloud centres. Yet, scheduling tasks under these conditions can be difficult because workloads shift, resources vary, and network performance is unstable. Traditional scheduling strategies often underperform in such rapidly changing settings, and even Deep Reinforcement Learning (DRL) solutions usually require extensive retraining whenever they encounter unfamiliar tasks. This paper proposes a self-supervised DRL framework for zero-shot task scheduling in MEC environments. The system integrates self-supervised learning to generate task embeddings, enabling the model to classify tasks into clusters based on resource requirements and execution complexity. A Soft Actor-Critic (SAC)-based scheduler then optimally assigns tasks to MEC nodes while dynamically adapting to network conditions. The training process combines contrastive learning for task representation and policy optimization to enhance scheduling decisions. Simulations demonstrate that the proposed approach reduces task completion time by up to 22 %, lowers energy consumption by 29 %, and improves latency by 18 % over baseline methods.

Česky

Vzhledem k rostoucí potřebě rychlé odezvy je nezbytné efektivně využívat výpočetní zdroje a síťové kapacity na okrajích sítí. Mobile Edge Computing (MEC) to řeší tak, že zpracovává uživatelská data v blízkosti , kde vznikají, místo aby se vždy spoléhal na vzdálená cloudová centra. Plánování úloh v těchto podmínkách však může být obtížné, protože pracovní zátěž se mění, zdroje se mění a výkon sítě je nestabilní. Tradiční strategie plánování v takto rychle se měnících podmínkách často nedosahují dostatečných výsledků, a dokonce i řešení s hlubokým posilováním učení (DRL) obvykle vyžadují rozsáhlé přeškolení, kdykoli se setkají s neznámými úlohami . Tento článek navrhuje samonaváděcí rámec DRL pro plánování úloh s nulovým počtem snímků v prostředí MEC. Systém integruje samonaváděcí učení pro generování vložených úloh, což modelu umožňuje klasifikovat úlohy do shluků na základě požadavků na zdroje a složitosti provádění. Plánovač na bázi Soft Actor-Critic (SAC) pak optimálně přiřazuje úlohy uzlům MEC a zároveň se dynamicky přizpůsobuje podmínkám sítě. Tréninkový proces kombinuje kontrastní učení pro reprezentaci úloh a optimalizaci zásad pro zlepšení rozhodování o plánování . Simulace ukazují, že navrhovaný přístup zkracuje dobu dokončení úlohy až o 22 %, snižuje spotřebu energie o 29 % a zlepšuje latenci o 18 % oproti základním metodám.