J 2025

A self-supervised deep reinforcement learning for Zero-Shot Task scheduling in mobile edge computing environments

KHOSHVAGHT, Parisa; Amir HAIDER; Amir Masoud RAHMANI; Shakiba RAJABI; Farhad Soleimanian GHAREHCHOPOGH et. al.

Basic information

Original name

A self-supervised deep reinforcement learning for Zero-Shot Task scheduling in mobile edge computing environments

Name in Czech

Samonaváděcí hluboké posilovací učení pro plánování úloh s nulovým počtem snímků v mobilních okrajových výpočetních prostředích

Authors

KHOSHVAGHT, Parisa; Amir HAIDER; Amir Masoud RAHMANI; Shakiba RAJABI; Farhad Soleimanian GHAREHCHOPOGH; Jan LÁNSKÝ and Mehdi HOSSEINZADEH

Edition

Ad Hoc Networks, Amsterdam, Elsevier, 2025, 1570-8705

Other information

Language

English

Type of outcome

Article in a journal

Field of Study

10201 Computer sciences, information science, bioinformatics

Country of publisher

Netherlands

Confidentiality degree

is not subject to a state or trade secret

References:

WWW odkaz na abstrakt článku

Impact factor

Impact factor: 4.800 in 2022

Organization unit

University of Finance and Administration

DOI

http://dx.doi.org/10.1016/j.adhoc.2025.103977

UT WoS

001532401900001

EID Scopus

2-s2.0-105010520146

Keywords (in Czech)

Mobile edge computing Zero-shot task scheduling Self-supervised learning Deep Reinforcement Learning Soft Actor-Critic

Keywords in English

Mobile edge computing Zero-shot task scheduling Self-supervised learning Deep Reinforcement Learning Soft Actor-Critic

Tags

AR 2024-2025, odmeny_2026, POZNÁMKA, RIV_2026, xJ1

Tags

International impact, Reviewed
Changed: 21/8/2025 14:22, Mgr. Tereza Denišová, DiS.

Abstract

ORIG CZ

V originále

The rising need for swift response times makes it essential to use computing resources and network capacities efficiently at the edges of the networks. Mobile Edge Computing (MEC) handles this by processing user data near where it is generated rather than always relying on remote cloud centres. Yet, scheduling tasks under these conditions can be difficult because workloads shift, resources vary, and network performance is unstable. Traditional scheduling strategies often underperform in such rapidly changing settings, and even Deep Reinforcement Learning (DRL) solutions usually require extensive retraining whenever they encounter unfamiliar tasks. This paper proposes a self-supervised DRL framework for zero-shot task scheduling in MEC environments. The system integrates self-supervised learning to generate task embeddings, enabling the model to classify tasks into clusters based on resource requirements and execution complexity. A Soft Actor-Critic (SAC)-based scheduler then optimally assigns tasks to MEC nodes while dynamically adapting to network conditions. The training process combines contrastive learning for task representation and policy optimization to enhance scheduling decisions. Simulations demonstrate that the proposed approach reduces task completion time by up to 22 %, lowers energy consumption by 29 %, and improves latency by 18 % over baseline methods.

In Czech

Vzhledem k rostoucí potřebě rychlé odezvy je nezbytné efektivně využívat výpočetní zdroje a síťové kapacity na okrajích sítí. Mobile Edge Computing (MEC) to řeší tak, že zpracovává uživatelská data v blízkosti , kde vznikají, místo aby se vždy spoléhal na vzdálená cloudová centra. Plánování úloh v těchto podmínkách však může být obtížné, protože pracovní zátěž se mění, zdroje se mění a výkon sítě je nestabilní. Tradiční strategie plánování v takto rychle se měnících podmínkách často nedosahují dostatečných výsledků, a dokonce i řešení s hlubokým posilováním učení (DRL) obvykle vyžadují rozsáhlé přeškolení, kdykoli se setkají s neznámými úlohami . Tento článek navrhuje samonaváděcí rámec DRL pro plánování úloh s nulovým počtem snímků v prostředí MEC. Systém integruje samonaváděcí učení pro generování vložených úloh, což modelu umožňuje klasifikovat úlohy do shluků na základě požadavků na zdroje a složitosti provádění. Plánovač na bázi Soft Actor-Critic (SAC) pak optimálně přiřazuje úlohy uzlům MEC a zároveň se dynamicky přizpůsobuje podmínkám sítě. Tréninkový proces kombinuje kontrastní učení pro reprezentaci úloh a optimalizaci zásad pro zlepšení rozhodování o plánování . Simulace ukazují, že navrhovaný přístup zkracuje dobu dokončení úlohy až o 22 %, snižuje spotřebu energie o 29 % a zlepšuje latenci o 18 % oproti základním metodám.
Displayed: 23/8/2025 11:54