# A-Novel-Interval-Type-2-Fuzzy-System-Identification-Method-Based-on-the-Modified-Fuzzy-C-Regression > :sound: <span style="color:blue">僅是個人的論文理解</span> --- :triangular_flag_on_post:待辦事項 - [x] WRLS的部分改的更易懂 - [x] 把一些圖片公式改成Latex格式 --- ## <span style="color:#003853">Type-1 vs Type-2 Fuzzy Sets</span> ### <span style="color:#272727">Type-1</span> :::info Type-1 Fuzzy Sets是常用的模糊集合,其成員的隸屬度值是確定的。 對於一個給定的輸入數據,它的隸屬度值是唯一確定的,可以簡單地表示為一條線性的隸屬函數。 ::: ### <span style="color:#272727">Type-2</span> :::success Type-2 Fuzzy Sets是一種更先進的模糊集合,其中成員的隸屬度值是不確定的,因此會有上限和下限。 在這種情況下,隸屬度值可以表示為一個區間,在這個區間內,有多個隸屬度值是合法的。 因此,Type-2 Fuzzy Sets 是一個更精確的模型,具有更高的彈性和適應性 在一些需要考慮不確定性的領域,如: 學術的研究和工業應用,得到了廣泛的應用 ::: ## <span style="color:#003853">FCMs vs FCRMs</span> :::info ### FCMs (Fuzzy C-Means) 的特點: 1. 使用模糊邏輯對數據點的歸屬度進行建模 2. 允許數據點同時屬於多個聚類 3. 能夠適應不確定性和隨機性的數據 4. 算法快速有效 ### FCMs 的優點: 1. 能夠解決非球形的聚類問題: 由於 FCM 使用了模糊邊界,所以它可以解決非球形聚類問題 2. 效果較佳:相比傳統的 K-Means 聚類,FCM 的聚類效果通常更好 3. 具有適應性:FCM 可以通過調整模糊度因子來改變聚類結果,具有適應性 ### FCMs 的缺點: 1. 計算量大: FCM的計算量比傳統的K-Means聚類大,需要更多的運算資源 2. 可能受到初始值影響 3. 受到模糊度因子的影響:FCM受到模糊因子的影響,如果模糊因子不適當,會導致聚類結果不當 ::: :::success ### FCRMs (Fuzzy C-Regression Models) 的特點: 1. 基於模糊邏輯進行回歸建模 2. 允許回歸模型的係數具有模糊性 3. 能夠適應不確定性和隨機性的數據 ### FCRMs 的優點: 1. 可以解決非線性回歸問題 2. 能夠對多元回歸問題進行建模 3. 能夠很好地處理不確定性和隨機性的數據 ### FCRMs 的缺點: 1. 可能需要多次運行以得到最優解 2. 可能受到初始值影響 3. 可能不能很好地處理大規模數據 ::: ::: warning 總而言之,FCMs 和 FCRMs 都是基於模糊邏輯的算法,用於解決聚類和回歸問題,但是它們的實際應用不同 FCMs是一種聚類算法,用於將數據點分配到不同的聚類中 FCRMs是一種回歸算法,它使用模糊集合和模糊規則來建立因變量和自變量之間的關係模型,可以處理不確定性和隨機性的數據,並且適用於非線性關係 ::: ## <span style="color:#003853">T–S Fuzzy Model(未完成)</span> ![](https://i.imgur.com/PghyETb.png) 整體的T-S模糊模型可以表示為: > 權重平均法 > > $w_i(k)$ 是第 $i$ 個規則的輸出值, $y^i(k)$ 為輸出集合的歸屬度 $${\hat{y}}(k)={\frac{\sum_{i=1}^{c}w_{i}(k)y^{i}(k)}{\sum_{i=1}^{c}w_{i}(k)}}\qquad\qquad\qquad(2)$$ 隸屬函數 $A_q^i(x_q(k))$ $$A_{q}^{i}(x_{q}(k))=\exp\Biggl\{-\frac{1}{2}\biggl(\frac{x_{q}(k)-\alpha_{q}^{i}}{\beta_{q}^{i}}\biggr)^{2}\Biggr\}\qquad\qquad(3)$$ ## <span style="color:#003853">Fuzzy C-Regression Model</span> 在第 k 個輸入 $x(k)$ 和輸出 $y^i(k)$ 的情况下,The hyperplane function 表示如下: &emsp;&emsp;&emsp;&emsp;&emsp;&emsp;&emsp;&emsp;&emsp;![](https://i.imgur.com/lFp8ukI.png) 其中 $\Theta_{i}^T$ 代表了第 i 個模糊規則的<a href ="https://hackmd.io/v3v3ekDOSXe7LrIpGKDBNg">後件變量</a> <br> 可以用以下公式表示第i個已建立模型 $y^i(k)$ 和真實輸出 $y(k)$ 之間的==殘差== &emsp;&emsp;&emsp;&emsp;&emsp;&emsp;&emsp;&emsp;![](https://i.imgur.com/55hu7gf.png) 根據真實模型和建立模型間的距離,目標函數可以被設計為 $$ J(u_{ik},c_i) = \sum_{i=1}^c \sum_{k=1}^N \ (u_{ik})^m \ (d_{ik})^2 \quad (6)$$ 我們可以把它看成 $$ J(u_{ik},c_i) = \sum_{i=1}^c \sum_{k=1}^N \ u_{ik}^m \ \parallel x_k - c_i \parallel^2 \quad $$ $u_{ik}$ 指的是任意點 $x_k$ 到 中心 $c_i$ 的機率 ( 遺忘因子 ), $m$ 為模糊權重指數 並且 $u_{ik}$ 滿足 ==$\sum_{i=1}^c \ u_{ik} = 1$==, $k = 1,2,...,N$ ### :heavy_exclamation_mark: <span style="color:#003853">Lagrange function (先跳過...)</span> $$J_{m}=\sum_{i=1}^{c}\sum_{k=1}^{N}(u_{i k})^{m}(d_{i k})^{2}+\lambda_{i}\Biggl(1-\sum_{i=1}^{c}u_{i k}\Biggr).\qquad(7)$$ $$u_{i k}=\left(\sum_{s=1}^{c}\left({\frac{d_{i k}}{d_{s k}}}\right)^{\frac{2}{m-1}}\right)^{-1},1\leq i\leq c,1\leq k\leq N\;\;\;\mathrm{(10)}$$ ### :heavy_exclamation_mark: <span style="color:#003853">Weight Recursive Least-Square (WRLS)</span> <br> * <a href = https://hackmd.io/2-BZ69oARrGUpQacmhf-RQ?view>看概念</a> <br> > $K(k) \in R^{(n+1)\times1}$, $S(k) \in R^{(n+1)\times(n+1)}$, 單位矩陣 $I \in R^{(n+1)\times(n+1)}$, $\Theta^{(k)}_i \in R^{c\times(n+1)}$ > 通常 $\eta > 100$ $$\Theta_{i}^{(k+1)}=\Theta_{i}^{(k)}+K(k)\biggl[y(k+1)-x(k+1)\Theta_{i}^{(k)}\biggr]\quad(11)$$ where $$\large \begin{split} \Theta_i^{(0)} &= 0, \ S(0)= \eta I\\ K(k) &= S(k+1) \left[1 \ x^T(k+1)\right]^T \\ &= \cfrac{S(k) \left[1 \ x^T(k+1)\right]^T}{u_{ik}^{-1}+\left[1 \ x^T(k+1)\right]S(k)\left[1 \ x^T(k+1)\right]^T} \\ S(k+1) &= \left[I-K(k)\left[1 \ x^T(k+1)\right]\right]S(k) \end{split} $$ 當 $(10)$ 和 $(11)$ 被迭代,隸屬度 $u_{ik}$ 和 <a href ="https://hackmd.io/v3v3ekDOSXe7LrIpGKDBNg">後件變量$\Theta_i$</a> 傾向於一個逐漸最小化 $Lagrangian$ $J_m$ 的方向 ## :high_brightness: <span style="color:#003853">Interval Type-2 Fuzzy Sets</span> ![](https://i.imgur.com/YGSkB03.png) > 對稱的Interval Type-2 模糊集 > $-..$ 表示下限隸屬函數 $\underline{A}^i_q$, $-$ 表示上限隸屬函數$\overline{A}^i_q$ > 紅線表示 $\underline{f}$ 藍線表示 $\overline{f}$ <br> 假設 $[m1, m2]$ 中的值如下 : $$\underline{\mu}_{ik} = \left(\sum_{s=1}^c\left(\cfrac{d_{ik}} {d_{sk}} \right)^\cfrac{2}{m_1-1}\right)^{-1} (12)$$ $$\overline{\mu}_{ik} = \left(\sum_{s=1}^c\left(\cfrac{d_{ik}} {d_{sk}} \right)^\cfrac{2}{m_2-1}\right)^{-1} (13)$$ $$1 \leq n \leq c , 1 \leq k \leq \cal N$$ 下隸屬函數 $\underline{A}_q^i$ 和上隸屬函數 $\overline{A}_q^i$ 的分佈在: &emsp;&emsp;&emsp;&emsp;&emsp;&emsp;&emsp;&emsp;&emsp;&emsp; ![](https://i.imgur.com/uevtagC.png) 其中 $\overline{f} = e^{-1/2(x_{q}(k)-\overline{\alpha}_q^i/\overline{\beta}_q^i)^2}$, $\underline{f} = e^{-1/2(x_{q}(k)-\underline{\alpha}_q^i/\underline{\beta}_q^i)^2}$是具有不同中心和標準偏差的高斯函數 因此高斯隸屬度的中心和標準差被重寫為 $$\begin{align} \underline{\alpha}_{q}^{i} &=\operatorname*{min}\Biggl\{\frac{\sum_{k=1}^{\cal N}\underline{\mu}_{i k}x_{q}(k)}{\sum_{k=1}^{\cal N}\underline{\mu}_{ik}},\frac{\sum_{k=1}^{\cal N}\overline{{\mu}}_{i k}x_{q}(k)}{\sum_{k=1}^{\cal N}\overline{{\mu}}_{ik}}\Biggr\}\tag{16} \\ \overline{\alpha}_{q}^{i} &=\operatorname*{max}\Biggl\{\frac{\sum_{k=1}^{\cal N}\underline{\mu}_{i k}x_{q}(k)}{\sum_{k=1}^{\cal N}\underline{\mu}_{ik}},\frac{\sum_{k=1}^{\cal N}\overline{{\mu}}_{i k}x_{q}(k)}{\sum_{k=1}^{\cal N}\overline{{\mu}}_{i k}}\Biggr\}\tag{17} \\ \underline{{\beta}}_{q}^{i} &=\Biggl(\sum_{k=1}^{\cal N}\underline{\mu}_{i k}{\Big(}x_{q}(k)-\underline{\alpha}_{q}^{i}{\Big)}^{2}\bigg/\sum_{k=1}^{\cal N}\underline{\mu}_{i k}\Biggr)^{\frac{1}{2}}\tag{18} \\ \overline{{\beta}}_{q}^{i} &=\Biggl(\sum_{k=1}^{\cal N}\underline{\mu}_{i k}{\Big(}x_{q}(k)-\overline{\alpha}_{q}^{i}{\Big)}^{2}\bigg/\sum_{k=1}^{\cal N}\overline{\mu}_{i k}\Biggr)^{\frac{1}{2}}\tag{19} \end{align}$$ 當在 inference engine operation 中運用代數乘法運算時,就可以使用以下公式獲得權重 &emsp;&emsp;&emsp;&emsp;&emsp;&emsp;&emsp;&emsp;&emsp;&emsp;&emsp;&emsp;&emsp;![](https://i.imgur.com/shV6Ibs.png) 其中 $\underline{w}_{i}(k)=\prod_{q=1}^{n}\underline{A}_{q}^{i}(x_{q}(k))$ 和 $\overline{{{w}}}_{i}(k)=\prod_{q=1}^{n}\overline{{{A}}}_{q}^{i}(x_{q}(k))$ ## :high_brightness: <span style="color:#003853">INTERVAL TYPE-2 FUZZY C-REGRESSION MODELING METHOD</span> 建立一個代表真實輸出 $y(k)$ 的模型 $\hat{y}(k)$, <a href ="https://hackmd.io/v3v3ekDOSXe7LrIpGKDBNg">後件變量$\Theta_i$</a> 應該近似真實模型 $(5)$ $$\large{d_{i k}=\left|y^{i}(k)-y(k)\right|=\left|\left[1~x^{T}(k)\right]\Theta_{i}^{T}-y(k)\right|}$$ <br> 如果 $y(k) = \hat{y}(k) = [1x^T(k)]\Theta^T_{i}$,我可以得到最優解 $\Theta_{i}$ 那麼在理想狀態下將得到 $$\large -y(k)+a^i_0+a^i_1x_(k)+...+a^i_nx_n(k) \\ \begin{align} &\qquad\qquad\large = \textbf[y(k)\ 1 \ x_1(k) \ ... \ x_n(k)\textbf]\textbf[-1 \ a_0^i \ a_1^i \ ... \ a_n^i\textbf]^T \\ &\qquad\qquad\large = 0 \tag{21} \end{align}$$ 對於<a href="https://blog.csdn.net/yeler082/article/details/78740834">點到平面的距離公式</a>,本文提出了一個==修改過的距離定義==,從數據點到超平面表示為 $$\begin{align} \large d_{ik} &\large = \cfrac{\vert-y(k)+a^i_0+a^i_1x_(k)+...+a^i_nx_n(k)\vert}{\sqrt[]{(-1)^2+(a_1^i)^2+(a_2^i)^2+...+(a_n^i)^2}} \\ &\large = \cfrac{\vert-y(k)+[1 \ x_1(k) \ ... \ x_n(k)]\left[a_0^i \ a_1^i \ ... \ a_n^i\right]^T\vert}{\sqrt[]{(-1)^2+(a_1^i)^2+(a_2^i)^2+...+(a_n^i)^2}} \\ &\large = \cfrac{\vert-y(k)+[1 \ x_1(k) \ ... \ x_n(k)]\Theta_i\vert}{\sqrt[]{(-1)^2+(a_1^i)^2+(a_2^i)^2+...+(a_n^i)^2}} \tag{22} \end{align}$$ 一般來說,真實模型和建立的模型之間的距離是使用$(5)$這個公式計算的 根據這個定義,從資料點到平面函數的距離如下==圖一==所示 ![](https://i.imgur.com/vZeJXjm.png) 其中 $f^1$ 和 $f^2$ 分別表示第一個和第二個建立的本地模型 例如,假設 $(x(k), y(k))$ 到 $f^1$ 的距離在原本的距離函數中與 $(x(k), y(k))$ 到 $f^2$ 的距離相同,即 $d_{11} = d_{21}$ 然而,圖1表示 $(x(k), y(k))$ 在幾何上更接近 $f^2$ 與 $f^2$ 相對應的成員程度大於與 $f^1$ 相對應的成員程度。 換句話說, $(x(k), y(k))$ 到 $f^1$ 的距離應該大於 $(x(k), y(k))$ 到 $f^2$ 的距離。 因此,如果使用原本的公式計算距離,可能無法計算真正的最短距離 <br> 基於修改過的距離定義,$(x(k), y(k))$ 到 $f^1$ 和 $f^2$ 的距離如下==圖2==所示 ![](https://i.imgur.com/x2WW9r7.png) 距離 $d_{2k}$ 小於距離 $d_{1k}$ ,也就是說 $(x(k), y(k))$ 比 $f^1$ 更靠近 $f^2$ 因此,如上所示,修改過的距離定義更適合描述每個數據點和局部type-2模糊模型之間的最短距離 然後,將 $x(k)$ 的投影點代入以下公式以獲得局部模型 $y^i_{our}$,其中 $x^i_{pro}$ 是 $x(k)$ 的投影點 $$\large y_{\mathrm{out}}^{i}(k)=\left[1\left(x_{\mathrm{pro}}^{i}(k)\right)^{T}\right]\Theta_{i}^{I}$$ 通過建立的模型,可以通過獲得的後續參數確定新輸入數據的投影點 ::: info 備註1: 在這篇文章中,我們修改了interval type-2 fuzzy model 中數據點到 local fuzzy model的常規距離函數 圖2顯示了常規距離與修改距離的關係 根據上述公式 $y^i_{our}(k) = [1(x^i_{pro}(k)^T)]\Theta^T$ 的定義 我們可以確定規則1的 $y^1_{our}(k)$ 和規則2的 $y^2_{our}(k)$ 從圖2中可以看出,實際輸出 $y(k)$ 與 $y^1_{our}(k)$ 的誤差小於實際輸出 $y(k)$ 與 $y^1(k)$的誤差。 同樣,實際輸出 $y(k)$ 與 $y^2_{our}(k)$ 的誤差也小於實際輸出 $y(k)$與 $y^2(k)$ 的誤差。 ::: 在本研究中,修改後的目標函數如下: $$\large y_{\mathrm{our}}^{i}(k)=\left[1\big(x_{\mathrm{pro}}^{i}(k)\big)^{T}\right]\Theta_{i}^{T}\tag{23}$$ 可以使用約束條件 $\sum_{i=1}^c u_{ik} = 1$ 獲得 $Lagrangian$ $$\overline{{{J}}}_{m}=\sum_{i=1}^{c}\sum_{k=1}^{\cal N}(u_{i k})^{m}\biggl[1-e^{-\gamma\left(\widetilde{d}_{i k}\right)^{2}}\biggr]+\lambda_{i}\biggl(1-\sum_{i=1}^{c}u_{i k}\biggr).\;\;(25)$$ 因此,透過固定的模糊加權指數 $m \in [m1,m2]$,對上述公式進行導數,導數值為零,也就是$[\partial \overline{J}_m/ \partial u_{ik}]=0$ 並且可以算出下限和上限隸屬度,分別如下所示: $$\underline{u}_{ik}=\frac{\left(\left[1-e^{-\gamma\left(\widetilde{d}_{ik}\right)^{2}}\right]\right)^{\frac{-1}{m_1-1}}}{\sum_{j=1}^{c}\left(\left[1-e^{-\gamma\left(\widetilde{d}_{ik}\right)^{2}}\right]\right)^{\frac{-1}{m_1-1}}}\qquad\qquad(26)$$ $$\overline{u}_{ik}=\frac{\left(\left[1-e^{-\gamma\left(\widetilde{d}_{ik}\right)^{2}}\right]\right)^{\frac{-1}{m_2-1}}}{\sum_{j=1}^{c}\left(\left[1-e^{-\gamma\left(\widetilde{d}_{ik}\right)^{2}}\right]\right)^{\frac{-1}{m_2-1}}}\qquad\qquad(27)$$ 同樣地 $[\partial \overline{J}_m/ \partial a^i_{j}]=0$ 可以獲得結論參數的更新公式 從之前我們==修改過的距離定義==$(22)$中可以看出 如果 $\overline{d}_{ik} = 0$ $$y(k)=a_{0}^{i}+a_{1}^{i}x_{1}(k)+\cdot\cdot\cdot+a_{n}^{i}x_{n}(k)$$ ==也就是說,<a href ="https://hackmd.io/v3v3ekDOSXe7LrIpGKDBNg">$\Theta_i$</a>是最佳的後件變量,因此,不需要更新 $a^i_j (j=0,...,n)$== 如果 $\overline{d}_{ik} \neq 0$: * $Case$ $1:$ For $a^i_0$ &emsp;&emsp;&emsp;&emsp; ![](https://i.imgur.com/1vgE0WM.png) <!-- $$\frac{\partial{\overline{{J}}}_{m}}{\partial a_{0}^{i}} = \frac{\partial\sum_{i=1}^{c}\sum_{k=1}^{N}(u_{i k})^{m}\left[1-e^{-\gamma\left(\tilde{d}_{i k}\right)^{2}}\right]}{\partial a_{0}^{i}}\Biggr. \\ = \sum_{k=1}^{N}(u_{i k})^{m}\frac{2\gamma\left(-y(k)+a_{0}^{i}+\cdot\cdot\cdot+a_{n}^{i}x_{n}(k)\right)e^{-\gamma\left(\bar{d}_{i k}\right)^{2}}}{\left(-1\right)^{2}+\left(a_{1}^{i}\right)^{2}+\cdot\cdot\cdot+\left(a_{n}^{i}\right)^{2}} = 0 $$ --> &emsp;&emsp;&emsp;&emsp;因為![](https://i.imgur.com/OLMXw2y.png) 且 $(-1)^2+(a^i_1)^2+(a^i_2)^2+...+(a^i_n)^2 > 0$ &emsp;&emsp;&emsp;&emsp;我們可以得到: &emsp;&emsp;&emsp;&emsp;![](https://i.imgur.com/0jNHjnt.png) * $Case$ $2:$ For $a^i_j, j \neq 0$ &emsp;&emsp;由於$\tilde{d}_{ik} \neq 0, \gamma > 0$ 且 $e^{-\gamma(\tilde{d}_ik)^2} > 0$, 透過下面 ![](https://i.imgur.com/6bpiZMh.png) &emsp;&emsp;產生 ![](https://i.imgur.com/4JFcimH.png) &emsp;&emsp;然後透過$(29)(30)$我們就可以得到 &emsp;&emsp;![](https://i.imgur.com/4gfsY1k.png) ==總的來說, 根據上面所得的兩個結果 $(28)$ 和 $(31)$,使用 $m1, m2$ 就可以得到 $\underline{\Theta_i}$ 和 $\overline{\Theta_i}$== ![](https://i.imgur.com/ZlCoF4O.png) :::warning 備註2: 從傳統的FCRM目標函數(6),可以得到每個區域模型的最小均值,即 $$y^i_{means} = \frac{1}{\cal N}\sum_{k=1}^\cal N\parallel y^i(k)\parallel^2$$ 很明顯,當遠離原始數據範圍的噪聲點添加到區域模型中時,均值將在原始數據範圍之外,那是因為噪聲點將會深刻影響結果。 因此,本文提出了一種<a href = "https://hackmd.io/Z3roxZ-4QkGiYcuLodYdEQ">新的目標函數$\overline{J} = \sum_{i=1}^c\sum_{k=1}^\cal N(u_{ik})^m\left[1-e^{-\gamma\left(\tilde{d}_{ik}\right)^2}\right]$</a> ,其中γ是衰減率 圖5顯示了常規距離函數和不同衰減率的建議距離函數的2-標準與距離測量之間的關係。 從圖5可以看出,新的距離函數是有界的且單調遞增的,但使用常規距離函数的距離度量呈直線。 因此,建議的目標函數不會受到帶噪點的影響。 當得到隸屬函數的前提部分和結果參數後,可以通過 $(14)–(19)$ 獲得隸屬函數。然後,可以使用 $(2)$ 和 $(20)$ 獲得 interval type-2 T–S fuzzy model 的輸出。 ::: ::: success 備註3: 因為把 $weight$ 平均,擴展的輸出 $y(k)$是從 $(20)$ 中獲得的 然而,$\underline{w}_i(k)$ 和 $\overline{w}_i(k)$ 的比率在 $w_i(k)$ 中可能不相同。 如果使用每个數據點的上下權重的平均值作為每個輸入的輸出權重,那么建立的模型可能不適合每個輸出的實際模型。 因此,此篇論文用 $h^i(k)$ 修改了 $(32)$ 中的 type-2 T–S fuzzy model,其考慮每個數據點的不同權重。這允許建立和實際模型之間更好的擬合。 $$\tilde{y}(k) = \cfrac{\sum_{i=1}^c(1-h^i(k))\overline{w}_i(k)\overline{y}^i(k)+h^i(k)\underline{w}_i(k)\underline{ y}^i(k)}{\sum_{i=1}^c(\overline{w}_i(k)+\underline{w}_i(k))} \qquad (32)$$ 其中, $h^i(k) = [max \underline{A}_q^i(x_q(k)) / \overline{A}^i_q(x_q(k))+\underline{A}^i_q(x_q(k))]$ 可以通過不同的輸入數據 $x(k)$ 自適應地調整 並且 hyperplane functions 定義為 $\overline{y}^i(k) = [1(x^i_{pro}(k))^T]\ \overline{\Theta}_i$, $\underline{y}^i(k) = [1(x^i_{pro}(k))^T]\ \underline{\Theta}_i$ 輸出的下界和上界權重分別為 $\underline{w}_i(k) = \prod_{q=1}^n \underline{A}^i_q(x_q(k))$ 和 $\overline{w}_i(k) = \prod_{q=1}^n\overline{A}^i_q(x_q(k))$ ::: 本研究中使用的程序如下: 1. 設定規則數量、模糊加權指數 $m \in [m1, m2]$、最大迭代次數、衰減率 γ 以及初始隸屬度 $u_{ik}$。 2. 使用 <a href = https://hackmd.io/2-BZ69oARrGUpQacmhf-RQ?view>$WRLS$</a> 演算法計算後件變量,並將後件變量上限 $\overline{\Theta}_i$ 和後件變量下限 $\underline{\Theta}_i$ 設置為 $\Theta_i^{(\cal N)}$ 3. 使用 $(22)$ 計算建立和真實模型之間的距離 4. 使用 $(26)$ 和 $(27)$ 更新隸屬度。 5. 使用 $(28)$ 和 $(31)$更新後件變量。 6. 重複 $Step$ $3-5$ 直到 $\parallel U^{(l+1)} - U^{(l)} \parallel < \varepsilon$ ![](https://i.imgur.com/I84lrho.png) $U^{(l)}$ 由第 $l$ 次迭代的隸屬度组成, 终止閥值 $\varepsilon$ $>$ $0$ 是一個足夠小的值,以確保在達到最大迭代次數之前 $U^{(l+1)}$ 與 $U^{(l)}$ 相似。 7. 使用 $(14)-(19)$ 取得前件變量 8. 使用 $(32)$,根據改進的比率和輸入資料的投影點,取得前件變量和後件變量的上下限,獲得 $\hat{y}(k)$ 9. 使用 <a href = https://hackmd.io/2-BZ69oARrGUpQacmhf-RQ?view>最小平方法 $(LSM)$ </a> 改善後件變量,以最小化 $e = y- \hat y$ >$\rm y = [y(1)···y(k)]^T$ >$\rm \hat y = [\hat y(1)··· \hat y(k)]^T$ >$\rm \hat{\Theta} =\frac{1}{2}[\overline{\Theta}_1 + \underline{\Theta}_1,...,\overline{\Theta}_c + \underline{\Theta}_c]$ >$\rm \overline\Phi= \begin{bmatrix} \ \Phi(1) \\ \vdots \\ \Phi(\cal N)\end{bmatrix} = \begin{bmatrix} \ X_1^T \\ \vdots \\ X_r^T \end{bmatrix}^T = \left[ \begin{array}{cccc:c:cccc} \Phi_1 & \Phi_1x_1(1) & \cdots & \Phi_1x_n(1) & \cdots & \Phi_c & \Phi_cx_1(1) & \cdots & \Phi_cx_n(1)\\ \Phi_1 & \Phi_1x_1(2) & \cdots & \Phi_1x_n(2) & \cdots & \Phi_c & \Phi_cx_1(2) & \cdots & \Phi_cx_n(2)\\ \vdots & \vdots & \ddots & \vdots & \vdots & \vdots & \vdots & \ddots & \vdots \\ \Phi_1 & \Phi_1x_1(\cal N) & \cdots & \Phi_1x_n(\cal N) & \cdots & \Phi_c & \Phi_cx_1(\cal N) & \cdots & \Phi_cx_n(\cal N) \end{array}\right] \tag{34}$ &emsp;&emsp;where $\Phi_i = [\overline{w}_i + \underline{w}_i] \ / \ \sum_{i=1}^c\overline{w}_i+\underline{w}_i ,\ r = c × (n + 1)$ $$ {\rm y}=\overline\Phi \hat \Theta^T + e \tag{33}$$ 10. :::danger 未完待續........ ::: $$\Xi \hat \Theta = \rm g$$