# Unit Ten:Key Computations in AI Visual Algorithms (Ⅱ) 在這堂課中,他更加解析了pooling、activation function與residual layer,我覺得很有趣的是他們其實是對一個模型往完全不同方向的想法,pooling是希望能夠減少資訊量,但activation function反而是覺得只有linear的模型不夠複雜,希望能夠增加複雜度,雖然最後都證實有用,但覺得非常特別,一方面擔心模型複雜,一方面又擔心模型不夠複雜,結果最終的結果卻是將此兩種加在一起,感覺還是有些矛盾在。