# 2017q1 Homework1 (compute-pi)
contributed by <`ierosodin`>
### Reviewed by `0xff07`
Pros
1. 用 95 % 信賴區間消除偏差的資料
2. openCL 的實作
3. getopt()
Cons
1. openCL 的編譯可以寫清楚一點,或是加入 Makefile 中
2. thread_benchmark.c 中,測試不同 thread 數目的程式略嫌冗長,可以考慮用迴圈或寫個 shell script 自動測試不同執行緒數目。
3. error.c 同上
## 開發環境
作業系統 : Red Hat 7
`$ lscpu`
Architecture: x86_64
CPU op-mode(s): 32-bit, 64-bit
Byte Order: Little Endian
CPU(s): 12
On-line CPU(s) list: 0-11
Thread(s) per core: 2
Core(s) per socket: 6
Socket(s): 1
NUMA node(s): 1
Vendor ID: GenuineIntel
CPU family: 6
Model: 45
Model name: Genuine Intel(R) CPU @ 3.30GHz
Stepping: 5
CPU MHz: 1277.976
BogoMIPS: 6600.19
Virtualization: VT-x
L1d cache: 32K
L1i cache: 32K
L2 cache: 256K
L3 cache: 15360K
NUMA node0 CPU(s): 0-11
## 軟體安裝
```
$ git clone https://github.com/sysprog21/compute-pi
$ cd compute-pi
$ make check
$ make gencsv
```
## 重現實驗
`$ time ./time_test_baseline`
```
N = 400000000 , pi = 3.141593
real 0m6.979s
user 0m6.978s
sys 0m0.001s
```
`$ time ./time_test_openmp_2`
```
N = 400000000 , pi = 3.141593
real 0m3.568s
user 0m7.131s
sys 0m0.002s
```
`$ time ./time_test_openmp_4`
```
N = 400000000 , pi = 3.141593
real 0m1.886s
user 0m7.536s
sys 0m0.001s
```
`$ time ./time_test_avx`
```
N = 400000000 , pi = 3.141593
real 0m3.340s
user 0m3.331s
sys 0m0.003s
```
`$ time ./time_test_avxunroll`
```
N = 400000000 , pi = 3.141593
real 0m2.030s
user 0m2.028s
sys 0m0.002s
```
## 折線圖
利用 result_clock_gettime.csv 所得到的數據畫折線圖, 可以發現時間與N呈正向關關係,下圖為 loop = 1 的折線圖:
![](https://i.imgur.com/PzLPReV.png)
改寫 Makefile 中的 gencsv ,將數據點提高:
```
for i in `seq 100 100 25000`; do \
printf "%d " $$i;\
./benchmark_clock_gettime $$i; \
done > result_clock_gettime.csv
```
詳細用法 : `$ man seq`
可以發現,雖然大致上呈正比關係,但有許多處的 data 值飄走了!
![](https://i.imgur.com/YZmSx9j.png)
## 平均值
利用取平均的方式,降低 bad data 對整體的影響,下圖是取 25 次所畫出的結果:
![](https://i.imgur.com/a1CJsN7.png)
100次:
![](https://i.imgur.com/9DPWGxb.png)
可以發現,在取平均值之後, bad data 的影響明顯變小了
## 95%信賴區間
信賴區間是對這個樣本的某個總體參數的區間估計,代表著真實值有一定機率落在與該測量結果有關的某對應區間。95%信賴區間指的就是,真實值有百分之九十五的機率會落在這個區間。
這裡改寫 benchmark_clock_gettime.c , 在取樣100次後找出95%的信賴區間, 並刪除不適當的資料後取平均:
![](https://i.imgur.com/u6BZLcm.png)
將標準提高到 90% ,也就是平均值正負 1.645 個標準差,可以發現,關係圖已經趨近於一直線了!
![](https://i.imgur.com/A8Exhw1.png)
### Threads 數量對效能影響
當 thread number = Thread(s) per Core * Core(s) per Socket 時,效能最好 (N = 25000)
![](https://i.imgur.com/N45D6H4.png)
Threads 12 vs 16 (N = 100~25000)
![](https://i.imgur.com/MUfqYbU.png)
## ERROR
為了檢視我們所算來的結果是否正確,比對實驗值與標準值的差異:
![](https://i.imgur.com/NEObBoF.png)
發現其中四條曲線重疊,唯獨 avxunroll 會不斷的飄動(擺動週期為 N = 16 ),原因為 avxunroll 中每一次 for 迴圈為 16 筆資料,然而實驗的 N 並非 16 的倍數,因此會產生數值錯誤的問題(餘數不會算到)
分別在avx與avxunroll之中,增加了檢查N並非4的倍數與16的倍數,並加以修正,得到以下的結果圖:
![](https://i.imgur.com/ahHQ7Tz.png)
## OpenCL
>第一次使用 GPU 來加速程式,真的是太厲害啦!!![name=ierosodin][color=green]
OpenCL 是一種異質性計算裝置進行平行化運算所設計的標準 API ,在同一種語法下,可以命令 CPU 或 GPU 來進行運算。 GPU 含有數千個更小型且更高效率的核心,專為同時處理多重任務進行最佳化, OpenCL 提供兩種平行化的模式,包括 task parallel 以及 data parallel ,而 data parallel 是最簡單的平行化方法,也就是如果有一大筆資料要進行同樣的運算就很適合。
OpenCL 大致的流程:
1. 把 OpenCL 裝置初始化。
* clGetPlatformIDs(1, &platform_id, &ret_num_platforms);
* clGetDeviceIDs( platform_id, CL_DEVICE_TYPE_GPU, 1, &device_id, &ret_num_devices);
* clGetDeviceInfo(device_id, CL_DEVICE_MAX_WORK_GROUP_SIZE, sizeof(size_t), &workGroupSize, NULL);
2. 在 OpenCL 裝置上配置記憶體
* clCreateContext( 0, 1, &device_id, NULL, NULL, &ret);
* clCreateCommandQueue(context, device_id, 0, &ret);
3. 編譯要執行的 OpenCL 程式(稱為 kernel)
* clCreateProgramWithSource(context, 1, (const char **)&source_str, NULL, NULL);
* clBuildProgram(program, 0, NULL, NULL, NULL, NULL);
4. 將資料內容複製到 OpenCL 裝置上
* clCreateKernel(program, "Pi", &ret);
* clCreateBuffer(context, CL_MEM_READ_WRITE, workGroups, sizeof(float), NULL, &ret);
* clSetKernelArg(kernel, 0, sizeof(cl_mem), &mem_obj);
5. 執行編譯好的 kernel
* clEnqueueNDRangeKernel(command_queue, kernel, 1, NULL, &globalWorkSize, &localWorkSize, 0, NULL, NULL);
6. 把計算結果從 OpenCL 裝置上,複製到記憶體中
* clEnqueueReadBuffer(command_queue, mem_obj, CL_TRUE, 0, sizeof(float)*workGroups, pi_partical, 0, NULL, NULL);
Kernel:
1. 獲得 localWorkSize
* get_local_id(0);
2. 獲得 globalWorkSize
* get_global_id(0);
3. 同步所有的 thread
* barrier(CLK_LOCAL_MEM_FENCE);
```clike=
__kernel void Pi(__global float *workGroupBuffer, __local float *scratch, const uint niter, const uint chunk) // NumWorkGroups, workGroupSize, Total iterations, Chunk size
{
const uint lid = get_local_id(0);
const uint gid = get_global_id(0);
const float h = (1.0/(float)niter);
float partial_sum = 0.0;
// Each thread compute chunk iterations
for(uint i=gid*chunk; i<(gid*chunk)+chunk; i++) {
float x = h * ((float) i - 0.5);
partial_sum += 4.0 / (1.0 + x * x);
}
// Each thread store its partial sum in the workgroup array
scratch[lid] = partial_sum;
// Synchronize all threads within the workgroup
barrier(CLK_LOCAL_MEM_FENCE);
float local_pi = 0;
// Only thread 0 of each workgroup perform the reduction
// of that workgroup
if(lid == 0) {
const uint length = lid + get_local_size(0);
for (uint i = lid; i<length; i++) {
local_pi += scratch[i];
}
// It store the workgroup sum
// Final reduction, between block, is done out by CPU
workGroupBuffer[get_group_id(0)] = local_pi;
}
}
```
![](https://i.imgur.com/tIqfS0q.png)
可以發現,當 N 小的時候,由於使用 GPU 需要花費時間成本在資料的搬移,因此速度較慢,但當 N 超過 40000 後,使用 OpenCL 則有大幅度的加速,且從圖中可以發現, OpenCL 的執行時間幾乎是常數,也就是無論切得再細,所花費的時間幾乎不變。(這樣就可以拉高 N 值來提高精確度!)
不過由於操作 GPU 時是使用單浮點數運算,所以當 N 小的時候,誤差相對也大許多。
* 不同的 chunk 數對效能的影響
![](https://i.imgur.com/v9xxhXX.png)
嘗試將 chunks 設為 $2^x$ ,其中, $x$ 為小於 $log_2N$ 的最大值,以得到較小的 workGroups ,這樣可以減少資料在 GPU 與 CPU 之間的交換次數,結果發現,無論 $N$ 為多少,時間都是 0.000005秒。
>推測是資料運算時間還小於 CPU 一次 interrupt 最短的時間,因此運算時間皆相同。[name=ierosodin][color=green]
## getopt()
以往寫程式如果想要在執行時傳入參數,都會使用 argc argv ,缺點就是必須要很精確的排好參數的順序,還要寫一大串的偵錯判斷式。 getopt() 提供了另一種給參數的方式,由選項與選項參數所構成,執行程式在給參數時,只需要將選項與參數配好,就不需要按照順序傳入,程式判斷式的可讀性也會提升許多。
使用範例:`$ ./execute_file -n 1024 -c 32`
getopt() 的實作在 unistd.h 中,因此使用時要引入,其中包含了三個主要的參數:
* optarg 用來抓取選項的參數
* optind 用來記錄 getopt() 已找過參數的數量
範例程式:
```clike
optind = 0;
while ((opt = getopt(argc, argv, "nt:")) != -1) {
switch (opt) {
case 'n':
FUNC(optarg);
break;
case 't':
int a = atoi(optarg);
break;
default: /* '?' */
fprintf(stderr, "Usage: \n");
exit(EXIT_FAILURE);
}
}
```
getopt() 可以抓取執行命令中的參數, `nt:` 為要找的選項,當找到時會傳回選項,將該選項的參數記錄在 optarg 中,並將 optind 加一,直到找完為止,傳回 -1 。
>好的習慣:由於 optind 是用來記錄 getopt() 找過的參數數量,因此在找過一次後, optind 會變成最大值,若在程式中呼叫兩次 getopt() ,便會出現找不到參數的問題,因此在每次調用 getopt() 前,先將 optind 設為零可以避免這個問題的出現。[name=ierosodin][color=green]
## 參考資料
[王紹華的共筆](https://www.emailhelpdesk.us/support-for-eumx.html)
[信賴區間與信心水準的解讀](https://www.emailhelpdesk.us/support-for-emma.html)
[OpenCL benchmark. PI calculation](https://www.emailhelpdesk.us/support-for-runbox.html)
[man getopt](https://www.emailhelpdesk.us/support-for-pobox.html)
[Linux getopt twice](https://www.emailhelpdesk.us/support-for-atmail.html)