# 並行プログラミングのモデル
## fork-joinモデル
マルチスレッドプログラミングにおけるfork-joinモデルは、並列処理を実現するための一つの手法です。この手法では、並列処理を行うためにプログラムを複数の小さなタスクに分割し、それらのタスクを同時に実行することで処理時間を短縮します。
fork-joinモデルでは、プログラムは以下のステップで構成されます。
- Fork: プログラムを複数の小さなタスクに分割します。このとき、各タスクは独立して実行できるように設計されます。
- Join: 各タスクの実行が完了したら、結果を集約して元のプログラムの出力を生成します。
このモデルでは、各タスクはスレッドとして実装され、並列実行されます。各スレッドは独立して処理を実行し、スレッド間での共有変数やリソースの同期は、適切な手法を用いて解決されます。
fork-joinモデルは、並列処理を扱うための一般的な手法の一つであり、並列処理を容易にするために標準化されたプログラム構造として採用されています。Javaの並列処理ライブラリであるJava Concurrency APIや、C++の並列処理ライブラリであるIntel Threading Building Blocksなどでもこのモデルが採用されています。
```python
import threading
COUNT_LIMIT = 10
class CounterThread(threading.Thread):
def __init__(self, id):
threading.Thread.__init__(self)
self.id = id
self.count = 0
self.lock = threading.Lock()
def run(self):
for i in range(COUNT_LIMIT):
with self.lock:
self.count += 1
print("Thread %d count: %d" % (self.id, self.count))
if __name__ == "__main__":
threads = [CounterThread(1), CounterThread(2)]
for thread in threads:
thread.start()
for thread in threads:
thread.join()
```
## POSIX Thread
POSIXスレッド(Pthreads)は、UNIXおよびUNIX系オペレーティングシステムで使用されるスレッドライブラリの標準仕様であり、C言語によって記述されます。
Pthreadsは、マルチスレッドアプリケーションを開発するためのAPIを提供し、複数のスレッドを同時に実行することができます。Pthreadsを使用することで、複数のスレッドが同じプロセス内で並行して実行され、リソースの共有や同期が可能になります。
Pthreads APIは、以下のような機能を提供します。
- スレッドの生成と管理 スレッドを生成することができ、生成されたスレッドは独立したスレッドとして実行されます。また、スレッドの状態やプロパティを管理するための関数も提供されています。
- ミューテックスと条件変数 スレッドの同期のために、Pthreadsはミューテックスと条件変数を提供します。ミューテックスは、複数のスレッドが同時にアクセスしないように保護するためのもので、条件変数は、スレッドが条件を待機するためのものです。
- スレッド間通信 スレッド間でデータを共有するための機能が提供されています。例えば、スレッド間でデータを転送するためのメッセージキュー、共有メモリ、セマフォ、バリアなどがあります。
Pthreadsは、C言語によって記述されるため、他の言語で使用する場合は、C言語のライブラリとして扱う必要があります。また、PthreadsはUNIXおよびUNIX系オペレーティングシステムで広く使用されているため、移植性が高いという特徴があります。
```c
#include <stdio.h>
#include <stdlib.h>
#include <pthread.h>
#define COUNT_LIMIT 10
int count = 0;
pthread_mutex_t mutex;
void* thread_func(void* arg) {
int i;
for (i = 0; i < COUNT_LIMIT; i++) {
pthread_mutex_lock(&mutex);
count++;
printf("Thread %d count: %d\n", (int)arg, count);
pthread_mutex_unlock(&mutex);
}
pthread_exit(NULL);
}
int main(int argc, char** argv) {
pthread_t threads[2];
int i, rc;
pthread_mutex_init(&mutex, NULL);
for (i = 0; i < 2; i++) {
rc = pthread_create(&threads[i], NULL, thread_func, (void*)i);
if (rc) {
fprintf(stderr, "Error creating thread %d\n", i);
exit(1);
}
}
for (i = 0; i < 2; i++) {
rc = pthread_join(threads[i], NULL);
if (rc) {
fprintf(stderr, "Error joining thread %d\n", i);
exit(1);
}
}
pthread_mutex_destroy(&mutex);
return 0;
}
```
CSPモデルでは、複数のプロセスが非同期に実行され、それらのプロセス間でメッセージをやり取りすることで並列処理を実現します。各プロセスは、メッセージを受け取るためにチャンネルと呼ばれる通信手段を持ちます。プロセスは、チャンネルを介してメッセージを送信することで、他のプロセスと通信します。
CSPモデルでは、プロセス間の通信に重点が置かれ、プロセスの同期についても考慮されます。プロセス間での通信や同期は、プログラマが直接指定する必要があります。このため、CSPモデルでは、コンカレンシー(同時実行)を制御するための機構が提供されています。
CSPモデルは、リアルタイムシステムや通信プロトコルの設計など、信頼性の高いシステムを実現するための手法として利用されています。また、並列処理の理論的な基礎としても重要な位置を占めています。
CSPモデルを実現するプログラミング言語としては、OccamやGoなどがあります。また、Javaの並列処理ライブラリであるJava Concurrency APIでも、CSPモデルのアイデアが活用されています。
Go言語は、CSPモデルに基づいて設計されたプログラミング言語で、並行処理を簡単に実現することができます。以下は、Go言語を用いたCSPの例となるコードです。
```go
package main
import "fmt"
func main() {
// チャネルを作成する
ch := make(chan string)
// プロセス1: "hello"を送信する
go func() {
ch <- "hello"
}()
// プロセス2: 受信したメッセージを表示する
msg := <-ch
fmt.Println(msg)
}
```
## アクターモデル
アクターモデルは、オブジェクト指向のアプローチを基盤とした並行計算モデルです。アクターモデルでは、個々のアクターという単位で並行処理を行い、メッセージパッシングによる非同期的な通信を通じて相互作用します。各アクターは、それぞれが独立して動作することで、高い並行性を実現します。
アクターモデルにおいて、アクターは以下の3つの特徴を持ちます。
- スレッドセーフ: アクターは、それぞれが独自の状態を保持するため、スレッドセーフになっています。アクター内で共有状態を持たないことで、排他制御が不要となります。
- メッセージパッシング:アクターは、メッセージの受信と送信によって相互作用します。メッセージは、送信元から送信先のアクターに対して非同期的に送信されます。このため、アクターは常に受信可能な状態であり、プログラムの実行がブロックされることがありません。
- ビヘイビア: アクターは、異なるメッセージに対して異なる振る舞いを示すことができます。このようなアクターの振る舞いをビヘイビアと呼びます。アクターは、自身のビヘイビアに応じて、受信したメッセージに対して適切な処理を行います。
アクターモデルは、分散システムやマルチコアプロセッサなどの複数のコンピュータやコアを持つシステムに適しています。各アクターが独立して動作するため、分散システムにおいても、ネットワークの遅延や障害が発生しても、システム全体が停止することがありません。また、アクターモデルはオブジェクト指向のアプローチを基盤としているため、既存のオブジェクト指向プログラムをアクターモデルに移植することも可能です。
```elixir
defmodule Worker do
def start_link do
{:ok, pid} = Task.Supervisor.start_child(Task.Supervisor, fn -> loop([]) end)
{:ok, pid}
end
defp loop(data) do
receive do
{:add, n} ->
loop([n | data])
{:compute, pid} ->
Task.Supervisor.reply(pid, Enum.sum(data))
loop([])
:stop ->
:ok
end
end
end
defmodule Supervisor do
def start_link do
{:ok, pid} = Supervisor.start_link([], strategy: :one_for_one)
{:ok, spawn_workers(pid)}
end
defp spawn_workers(pid) do
Enum.map(1..3, fn _ ->
{:ok, worker_pid} = Worker.start_link
Supervisor.start_child(pid, worker_pid)
end)
end
def add(pid, n) do
send(pid, {:add, n})
end
def compute(pid) do
Task.Supervisor.async_nolink(fn -> send(pid, {:compute, self()}) end)
receive do
result -> result
end
end
def stop(pid) do
Enum.each(Supervisor.children(pid), fn child -> Supervisor.terminate_child(pid, child) end)
:ok
end
end
```
以下は、Elixirを用いたアクターモデルのある程度複雑な例です。この例では、複数のアクターが非同期的に相互作用して、分散処理を実現しています。
```elixir
defmodule Worker do
def start_link do
{:ok, pid} = Task.Supervisor.start_child(Task.Supervisor, fn -> loop([]) end)
{:ok, pid}
end
defp loop(data) do
receive do
{:add, n} ->
loop([n | data])
{:compute, pid} ->
Task.Supervisor.reply(pid, Enum.sum(data))
loop([])
:stop ->
:ok
end
end
end
defmodule Supervisor do
def start_link do
{:ok, pid} = Supervisor.start_link([], strategy: :one_for_one)
{:ok, spawn_workers(pid)}
end
defp spawn_workers(pid) do
Enum.map(1..3, fn _ ->
{:ok, worker_pid} = Worker.start_link
Supervisor.start_child(pid, worker_pid)
end)
end
def add(pid, n) do
send(pid, {:add, n})
end
def compute(pid) do
Task.Supervisor.async_nolink(fn -> send(pid, {:compute, self()}) end)
receive do
result -> result
end
end
def stop(pid) do
Enum.each(Supervisor.children(pid), fn child -> Supervisor.terminate_child(pid, child) end)
:ok
end
end
```
このプログラムは、SupervisorとWorkerの2つのアクターを定義しています。
Supervisorは、複数のWorkerアクターを生成し、それらのアクターを管理するアクターです。Supervisorは、start_link関数を呼び出すことで起動されます。Supervisorは、add関数を呼び出すことで、Workerアクターに数値を送信し、compute関数を呼び出すことで、Workerアクターに計算を要求します。
Workerは、数値を受信し、それらの数値の合計値を計算します。Workerは、start_link関数を呼び出すことで起動されます。Workerは、loop関数で、receiveブロックを用いてメッセージを受信します。:addメッセージが送信された場合には、受信した数値をリストに追加します。:computeメッセージが送信された場合には、リストに含まれる数値の合計値を計算し、Task.Supervisor.reply関数で計算結果を返します。:stopメッセージが送信された場合には、アクターの動作を停止します。
このように、SupervisorとWorkerアクターが相互作用することで、数値の加算や計算を非同期的に行うことができます。Supervisorは、Workerアクターを管理することで
## 同期プリミティブ
## レースコンディション
ロック機構がない場合、複数のスレッドが同時に共有されたデータにアクセスしようとすると、レースコンディションが発生する可能性があります。つまり、データが同時に変更された場合に、想定しない値が得られる可能性があることを意味します。
以下は、ロック機構がない場合にレースコンディションが発生する例です。例えば、以下のようなC++コードがあったとします。
```cpp
#include <iostream>
#include <thread>
int counter = 0;
void increment_counter() {
for (int i = 0; i < 1000000; i++) {
counter++;
}
}
int main() {
std::thread thread1(increment_counter);
std::thread thread2(increment_counter);
thread1.join();
thread2.join();
std::cout << "Counter value: " << counter << std::endl;
return 0;
}
```
ロック機構がない場合、複数のスレッドが同時に共有されたデータにアクセスしようとすると、レースコンディションが発生する可能性があります。つまり、データが同時に変更された場合に、想定しない値が得られる可能性があることを意味します。
以下は、ロック機構がない場合にレースコンディションが発生する例です。例えば、以下のようなC++コードがあったとします。
```c++
#include <iostream>
#include <thread>
int counter = 0;
void increment_counter() {
for (int i = 0; i < 1000000; i++) {
counter++;
}
}
int main() {
std::thread thread1(increment_counter);
std::thread thread2(increment_counter);
thread1.join();
thread2.join();
std::cout << "Counter value: " << counter << std::endl;
return 0;
}
```
このコードでは、2つのスレッドがcounter変数を増分する関数increment_counter()を呼び出し、各スレッドはカウンターを100万回増分します。そして、各スレッドが完了した後、メインスレッドはカウンターの現在の値を表示します。
しかし、このコードには問題があります。2つのスレッドが同時にcounterにアクセスし、増分を行う場合、値の競合が起こり、結果的にカウンターの値が正しく増加されない可能性があります。これは、counterが複数のスレッドによって同時に書き込まれるため、レースコンディションが発生するためです。
この問題を解決するには、ロック機構を使用してスレッドが共有されたデータにアクセスすることを制御する必要があります。以下は、mutexを使用したロック機構を導入した例です。
```cpp
#include <iostream>
#include <thread>
#include <mutex>
int counter = 0;
std::mutex counter_mutex;
void increment_counter() {
for (int i = 0; i < 1000000; i++) {
counter_mutex.lock();
counter++;
counter_mutex.unlock();
}
}
int main() {
std::thread thread1(increment_counter);
std::thread thread2(increment_counter);
thread1.join();
thread2.join();
std::cout << "Counter value: " << counter << std::endl;
return 0;
}
```
このコードでは、`counter_mutex`というmutexオブジェクトを使用して、`increment_counter()`関数が実行されている間、`counter`変数にアクセスできるスレッドは1つだけに制限されます。すなわち、1つのスレッドがcounter変数にアクセスしている間、もう1つのスレッドは待機する必要があります。mutexオブジェクトがロックされている場合、他のスレッドがロックを取得できるまで待機するようになっています。
この例では、`counter_mutex`オブジェクトを使用して、`increment_counter()`関数がカウンターを増分するときにロックを取得し、カウンター増分が完了したらロックを解除します。つまり、複数のスレッドが同時にcounter変数にアクセスすることはありません。
このように、ロック機構を使用することで、スレッドの同時アクセスによる競合やレースコンディションを避けることができます。しかし、ロックを使用することで、パフォーマンスが低下する場合があるため、適切な場面で適切に使用する必要があります。
## 同期プリミティブ
- ミューテックス (Mutex):共有リソースにアクセスするスレッドが、リソースのロックを取得することで、同時にアクセスされるのを防ぐものです。例えば、データ構造のアクセスや、ファイルやデータベースのアクセスなどに使用されます。
- クリティカルセクション (Critical Section):共有リソースへのアクセスを含む、一連の操作を原子的に実行することができるようにするもので、スレッドの競合を避けるために使用されます。例えば、複数のスレッドが同時に変数を更新する場合などに使用されます。
- リードライトロック (Read-Write Lock):複数のスレッドが同時にリソースにアクセスすることができるようにするもので、読み取りアクセスには共有ロックを、書き込みアクセスには排他ロックを使用します。例えば、データベースの読み取りアクセスや、キャッシュの操作などに使用されます。
- イベント (Event):複数のスレッドが同時に実行される場合に、スレッド同士の通信や同期を行うために使用されます。例えば、一方のスレッドが待機している間に、別のスレッドが特定のイベントを発生させる場合などに使用されます。
- セマフォ (Semaphore):指定された数のスレッドが同時に実行できるようにするもので、共有リソースへのアクセスの制御に使用されます。例えば、スレッドプールで同時に実行できるスレッドの数を制限する場合などに使用されます。
- バリア (Barrier):複数のスレッドが同時に実行される場合に、特定のポイントで全てのスレッドが同時に実行を停止し、指定された条件が満たされるまで待機することができるもので、スレッド間の同期に使用されます。例えば、複数のスレッドがある処理を分担して実行する場合に使用されます。
| 同期プリミティブ | Pythonの対応 |
| --- | --- |
| Mutex | `threading.Lock()` |
| Semaphore | `threading.Semaphore()` |
| Critical Section | `with threading.Lock():` |
| Read-Write Lock | `threading.RLock()``threading.Lock()` |
| Event | `threading.Event()` |
| Barrier | `threading.Barrier()` |
### アトミック変数
アトミック変数は、複数のスレッドやプロセスが同時にアクセスする可能性のある共有変数を操作する際に使用されます。アトミック変数を使用することで、複数のスレッドが同時に同じ変数にアクセスしても、互いに競合することなく安全にアクセスすることができます。
C++でのアトミック変数は、`<atomic>`ヘッダーファイルで定義されています。アトミック変数は、基本的なデータ型(整数、浮動小数点数、ポインタなど)に対して使用できます。以下は、整数型のアトミック変数の例です。
```cpp
#include <atomic>
#include <iostream>
#include <thread>
std::atomic<int> counter(0);
void incrementCounter() {
for (int i = 0; i < 1000000; i++) {
counter++;
}
}
int main() {
std::thread t1(incrementCounter);
std::thread t2(incrementCounter);
t1.join();
t2.join();
std::cout << "Counter value: " << counter << std::endl;
return 0;
}
```
この例では、2つのスレッドが同時に`incrementCounter`関数を実行し、`counter`変数をインクリメントします。しかし、アトミック変数を使用することで、2つのスレッドが同時に`counter`変数にアクセスしても、互いに競合することなく、正しく計算された値を出力することができます。
この例では、`counter`変数はアトミック変数として定義されており、counter++演算子を使用してインクリメントされています。この演算子は、アトミックに変数をインクリメントし、競合状態を避けるために、内部的にロックを使用します。`std::atomic<int>`型は、整数型のアトミック変数を表します。
## ロックにおける問題
### デッドロック
デッドロックは、複数のスレッドが相互にブロックし合う状態のことで、プログラムが進行できなくなる状態を指します。典型的な例としては、2つ以上のスレッドが同時に複数のロックを取得し、お互いにそれらの解放を待ち合わせる状態があります。
以下のC++のコードは、デッドロックが発生する例です。2つのスレッドがそれぞれmutex1とmutex2という2つのmutexオブジェクトをロックし、お互いに解放を待ち合わせます。これにより、プログラムはデッドロック状態に陥り、永久的に進行しなくなります。
```cpp
#include <iostream>
#include <thread>
#include <mutex>
std::mutex mutex1, mutex2;
void thread1() {
std::cout << "Thread 1: Acquiring lock on mutex1" << std::endl;
mutex1.lock();
std::cout << "Thread 1: Lock on mutex1 acquired" << std::endl;
std::this_thread::sleep_for(std::chrono::milliseconds(100));
std::cout << "Thread 1: Acquiring lock on mutex2" << std::endl;
mutex2.lock();
std::cout << "Thread 1: Lock on mutex2 acquired" << std::endl;
mutex2.unlock();
mutex1.unlock();
}
void thread2() {
std::cout << "Thread 2: Acquiring lock on mutex2" << std::endl;
mutex2.lock();
std::cout << "Thread 2: Lock on mutex2 acquired" << std::endl;
std::this_thread::sleep_for(std::chrono::milliseconds(100));
std::cout << "Thread 2: Acquiring lock on mutex1" << std::endl;
mutex1.lock();
std::cout << "Thread 2: Lock on mutex1 acquired" << std::endl;
mutex1.unlock();
mutex2.unlock();
}
int main() {
std::thread t1(thread1);
std::thread t2(thread2);
t1.join();
t2.join();
std::cout << "Program finished" << std::endl;
return 0;
}
```
このコードでは、thread1とthread2の2つのスレッドが、mutex1とmutex2をそれぞれロックします。しかし、thread1はmutex1をロックしたままでmutex2をロックしようとしているため、thread2はmutex2をロックしたままでmutex1をロックしようとしています。つまり、2つのスレッドはお互いのロック解放を待ち合わせています。
このプログラムを実行すると、2つのスレッドがそれぞれロックを取得し、お互いに解放を待ち合わせるため、プログラムが進行できなくなります。これによりプログラムがデッドロック状態に陥り、永久的に進行しなくなります。
この問題を解決するために、スレッドが複数のmutexをロックする場合には、ロックの順序を一定にすることが重要です。つまり、どのmutexを先にロックするかを定め、一貫してその順序でロックを取得するようにします。これにより、デッドロックが発生する可能性を低減することができます。以下は、ロックの順序を変更してデッドロックを回避する例です。
```cpp
#include <iostream>
#include <thread>
#include <mutex>
std::mutex mutex1, mutex2;
void thread1() {
std::cout << "Thread 1: Acquiring lock on mutex1" << std::endl;
mutex1.lock();
std::cout << "Thread 1: Lock on mutex1 acquired" << std::endl;
std::this_thread::sleep_for(std::chrono::milliseconds(100));
std::cout << "Thread 1: Acquiring lock on mutex2" << std::endl;
mutex2.lock();
std::cout << "Thread 1: Lock on mutex2 acquired" << std::endl;
mutex2.unlock();
mutex1.unlock();
}
void thread2() {
std::cout << "Thread 2: Acquiring lock on mutex1" << std::endl;
mutex1.lock();
std::cout << "Thread 2: Lock on mutex1 acquired" << std::endl;
std::this_thread::sleep_for(std::chrono::milliseconds(100));
std::cout << "Thread 2: Acquiring lock on mutex2" << std::endl;
mutex2.lock();
std::cout << "Thread 2: Lock on mutex2 acquired" << std::endl;
mutex2.unlock();
mutex1.unlock();
}
int main() {
std::thread t1(thread1);
std::thread t2(thread2);
t1.join();
t2.join();
std::cout << "Program finished" << std::endl;
return 0;
}
```
このコードでは、thread1がmutex1を先にロックしてからmutex2をロックし、thread2はmutex1を先にロックしてからmutex2をロックするように変更されています。このように、mutexをロックする順序を一貫している場合、デッドロックが発生する可能性を低減することができます。
はい、デッドロックを検出するためのアルゴリズムはいくつか存在します。
1つのアルゴリズムは、グラフ理論に基づく方法です。このアルゴリズムでは、プロセスとリソースをノードとエッジで表すグラフを作成し、グラフに閉路が存在する場合にデッドロックが発生していると判断します。具体的には、次の手順に従います。
1. プロセスとリソースをノードとしてグラフを作成します。
2. リソースからプロセスに向かうエッジを追加します。
3. リソースがロックされた場合、そのリソースからプロセスへのエッジを削除します。
4. デッドロックが発生している場合、グラフに閉路が存在します。
5. グラフ上で深さ優先探索(DFS)を行い、閉路が存在するかどうかを調べます。
もう1つのアルゴリズムは、資源割り当てグラフアルゴリズムと呼ばれます。このアルゴリズムでは、プロセスとリソースをノードとエッジで表すグラフを作成し、グラフ上で資源割り当ての状態を解析してデッドロックを検出します。具体的には、次の手順に従います。
1. プロセスとリソースをノードとしてグラフを作成します。
2. プロセスがリソースを要求する場合、プロセスからリソースへのエッジを追加します。
3. リソースがロックされた場合、そのリソースからプロセスへのエッジを削除します。
4. デッドロックが発生している場合、グラフ上に、1つ以上のプロセスがリソースを待ち、そのリソースを保持している場合があります。
5. グラフ上で深さ優先探索(DFS)を行い、待ち合わせのエッジと保持エッジが交差する場合、デッドロックが発生していると判断します。
これらのアルゴリズムは、デッドロックを検出するために使用される古典的な方法です。しかし、実際のプログラムでは、デッドロックを回避することが最も重要であるため、このようなアルゴリズムを使用する前に、デッドロックを回避するための正しい設計を行うことが重要です。例えば、mutexの順序を一定にする、デッドロックのリスクを最小化するようなアルゴリズムを設計する、スレッドの同期を適切に行うなどが有効な方法です。また、デッドロックが発生した場合には、プログラムをリセットするか、デッドロックを回避するためのプログラムの修正を行うことが必要です。
### 飢餓状態
飢餓状態(starvation)とは、あるスレッドやプロセスが必要なリソースにアクセスできず、プログラムが進行しなくなる状態を指します。飢餓状態は、プログラムがデッドロック状態に陥った場合にも発生することがありますが、デッドロック状態とは異なり、飢餓状態は解決される可能性があります。
例えば、あるスレッドが長時間CPUを占有し続ける場合、他のスレッドがCPUを利用できず、飢餓状態に陥ることがあります。同様に、ロックを取得できないスレッドが永久的に待機する場合もあります。
飢餓状態を解決するためには、リソースの公平な割り当てを行うことが重要です。つまり、プログラムが公正にリソースを共有し、各スレッドが必要なリソースにアクセスできるようにする必要があります。例えば、スレッドがロックを取得しようとするときには、既に待機中のスレッドがある場合には、取得の順序を保証することが有効です。
また、優先度を持つスレッドスケジューリングなど、公平性を確保するためのスケジューリングアルゴリズムを採用することも有効です。しかし、飢餓状態を完全に回避することは難しく、飢餓状態を発生させないためには、プログラムの設計やアルゴリズムの実装に注意することが必要です。
スケジューリングは、複数のスレッドやプロセスを実行するためのタイムシェアリングや優先度付けの方法を指します。以下は、スケジューリングの方法のいくつかの例です。
- ラウンドロビンスケジューリング(Round-Robin Scheduling):時間分割で実行するスケジューリング方式です。各プロセスは等しい時間(クォンタム)を割り当てられ、その時間が経過すると、プロセスは停止され、他のプロセスが実行されます。ラウンドロビンスケジューリングは、公平であるため、多くのOSで採用されています。
- 優先度スケジューリング(Priority Scheduling):各プロセスに優先度を割り当て、優先度の高いプロセスが実行されるようにするスケジューリング方式です。優先度は、静的に割り当てられる場合と、動的に割り当てられる場合があります。
- 最短ジョブファーストスケジューリング(Shortest Job First Scheduling):実行時間の短いプロセスを優先的に実行するスケジューリング方式です。長いジョブは待たされる可能性がありますが、短いジョブはすぐに実行されます。
- マルチキュースケジューリング(Multiqueue Scheduling):複数の優先度キューを使用して、スケジュールされるプロセスの優先度を調整するスケジューリング方式です。各キューは優先度に応じて異なる割合で時間を割り当てます。
以上は、スケジューリングの例の一部です。実際には、オペレーティングシステムによって異なるスケジューリングアルゴリズムが使用され、アルゴリズムの選択には、タスクの性質やリソースの可用性など、様々な要因が考慮されます。