مجلة مفتوحة الوصول

المجلة الدولية للعلوم والتقنية

International Science and Technology Journal

ISSN: 2519-9854 (Online)

ISSN: 2519-9846 (Print)

DOI: www.doi.org/10.62341/ISTJ

مجلة علمية محكّمة تهتم بنشر البحوث والدراسات في مجال العلوم التطبيقية، تصدر دورياً تحت إشراف نخبة من الأساتذة

ينشرها

تحت إشراف

Optimizing Round Robin Using Machine Learning Models (KNN) in CPU scheduling

الملخص
يُعتبر خوارزمية الجولات الدائرية (Round Robin) واحدة من أكثر خوارزميات جدولة العمليات في جدولة وحدة المعالجة المركزية (CPU) شهرةً من الناحية العملية، لأنها بسيطة وعادلة. ومع ذلك، تعتمد كفاءة خوارزمية الجولات الدائرية بشكل كبير على اختيار فترة زمنية مثالية (Time Quantum). إذا كانت الفترة الزمنية قصيرة جدًا، فإن وحدة المعالجة المركزية تحتاج إلى تبديل السياق بشكل متكرر؛ وبالتالي، يزداد العبء الزائد، ويصبح متوسط وقت الانتظار للعمليات طويلًا أيضًا. نتيجةً لذلك، تنخفض أداء النظام حيث يتم استهلاك المزيد والمزيد من وقت وحدة المعالجة المركزية في تبديل السياق بدلاً من تنفيذ المهام. قد تتصرف بشكل مشابه لخوارزمية من يأتي أولاً يخدم أولا(FCFS) إذا كانت الفترة الزمنية طويلة بشكل مفرط، مما يؤدي الي متوسط وقت الانتظار طويل. يقترح هذا البحث تحسينًا لخوارزمية الجولات الدائرية من خلال دمج التعلم الآلي لتحديد الوقت المثالي ديناميكيًا. بشكل أكثر تحديدًا، سيتم استخدام خوارزمية الجار الأقرب (K-Nearest Neighbors) مع مكتبة NumPy لمعالجة البيانات، للتنبؤ الفوري بوقت مثالي للفترة الزمنية بناءً على خصائص العمليات. أظهرت النتائج التجريبية تحسنًا كبيرًا في متوسط وقت الانتظار، ووقت الإنهاء، وعدد تبديلات السياق مقارنةً بخوارزمية الجولات الدائرية التقليدية. أشارت النتائج إلى أن التعلم الآلي يقوم بتعديل خوارزميات الجدولة التقليدية بكفاءة لجعل عملية الجدولة تكيفية وأكثر كفاءة في أنظمة التشغيل.................................. الكلمات المفتاحية:............... جولة روبن الديناميكية، جولة روبن الكلاسيكية، وقت التشغيل، التعلم الآلي.
Abstract
Round Robin is considered as one of the most practically recognized process scheduling algorithms in CPU scheduling because it is simple and fair. However, the efficiency of Round Robin depends a lot upon the selection of an optimal time quantum. If the quantum is too small, then frequent context switches are needed by the CPU; therefore, the overhead increases, and thus, the average waiting time for the processes also becomes long. As a result, system performance is reduced as more and more CPU time is used up in context switching, instead of task execution. it may behave similarly to the First Come First Serve (FCFS) algorithm if the time quantum is excessively long, which leads to extended average waiting time. This paper proposes an improved Round Robin algorithm by incorporating machine learning, which optimally determines the time quantum dynamically. More precisely, the K-Nearest Neighbors algorithm will be used, with NumPy in charge of data processing, for the runtime prediction of an optimal time quantum considering characteristics of processes. The experimental results showed a considerable improvement in the parameters of average waiting, turnaround time, and the number of context switches with respect to the traditional Round Robin algorithm. Results indicated that machine learning efficiently modifies the predictable scheduling algorithms to make the scheduling process adaptive and efficient in operating systems........................ Key words: ...............dynamic round robin, classical round robin, burst time, machine learning.