Logistic Regression ์ ๊ทธ๋ํ
ํจ์๋ฅผ ํต๊ณผํ๊ธฐ ์ ์ ๊ฐ์ Score(Logit) ์ด๋ผ ๋ถ๋ฅธ๋ค. ํต๊ณผํ ๋ ๋ค์ ๊ฐ์ ํ๋ฅ ์ด๋ค.
์ฌ์ค ์ด ์์ ์, ๋ฐ์ดํฐ๋ฅผ ๊ทธ๋ํ์ ๋ฟ๋ ค๋จ์ ๋, ๋ ๊ฐ์ง ํด๋์ค๋ก ๊ตฌ๋ถํ ์ ์๋ ๊ตฌ๋ถ์ ์ ์ฐพ๋ ๊ฒ๊ณผ ๊ฐ์ ์์ ์ด๋ค!!
0.5์ ํ๋ฅ ์ ๊ธฐ์ค์ผ๋ก ๋ ํด๋์ค๋ก ๋๋๊ณ ์์ผ๋ฏ๋ก, ๊ทธ 0.5๋ฅผ ๋ง์กฑํ๋ ์ ๋ค์ ์งํฉ์ด ๋ฐ๋ก ๊ตฌ๋ถ์ ์ด๋ค.
Softmax function
๊ทธ๋ ๋ค๋ฉด ์ฌ๋ฌ ๊ฐ์ ํด๋์ค๋ฅผ ๋ถ๋ฅํด์ผ ํ๋ค๋ฉด ์ด๋ป๊ฒ ํด์ผํ ๊น?
์์ Logistic regression์ ์์ด๋์ด๋ฅผ ์ด์ฉํ ์ ์๋๋ฐ, ๋ง์ฝ A, B, C ์ธ ๊ฐ์ ํด๋์ค๊ฐ ์๋ค๋ฉด
์ธ ๊ฐ์ ๋
๋ฆฝ์ ์ธ logistic regression์ ์ฌ์ฉํ๋ฉด, ์ ๋ ๊ฒ 3๊ฐ์ ์ ์ด ๊ทธ์ด์ง ์ ์๋ค.
๊ทธ๋ฆฌ๊ณ 3๊ฐ์ ๋ชจ๋ธ์ ๋๋ฆฐ ํ ๊ฒฐ๊ณผ๋, ํด๋น ํฌ์ธํธ์ ์ ์ด A, B, C ๊ฐ๊ฐ์ ํฌํจ๋ ํ๋ฅ ์ด ๋์ฌ ๊ฒ์ด๋ค.
๊ทธ๋ฐ๋ฐ ์ด๊ฑธ ๊ตฌํํ๋ ค๊ณ ๋ณด๋ ๋๋ฌด ๋ณต์กํ๊ณ ๊ตฌํํ๊ธฐ ํ๋ค์ด ๋ณด์ธ๋ค. ๊ทธ๋์ ํ๋ ฌ์ ์ฌ์ฉํ๋ค.
\\begin{pmatrix} w\_{A1} & w\_{A2} & w\_{A3} \\ w\_{B1} & w\_{B2} & w\_{B3} \\ w\_{C1} & w\_{C2} & w\_{C3}\end{pmatrix} \cdot \begin{pmatrix} x_1 \\ x_2 \\ x_3\end{pmatrix};=;\begin{pmatrix} x_1w\_{A1}+x_2w\_{A2}+x_3w\_{A3} \\ x_1w\_{B1}+x_2w\_{B2}+x_3w\_{B3} \\ x_1w\_{C1}+x_2w\_{C2}+x_3w\_{C3}\end{pmatrix}=\begin{pmatrix} \hat{y_A} \\ \hat{y_B} \\ \hat{y_C}\end{pmatrix}์ด๋ ๊ฒ ๋ฒกํฐ๋ก ํ๋ฒ์ ์ฒ๋ฆฌ๊ฐ ๊ฐ๋ฅํ๋ค!
Z ๋ฒกํฐ๋ฅผ sigmoid์ ๋ฃ์ด ํ๋ฅ ๋ฒกํฐ๋ฅผ ๋์ค๊ฒํ๋ฉด ๋๋ค.
์ด๊ฑธ ๊ฐ๋ฅํ๊ฒ ํ๋ ๊ฒ์ด Softmax Function ์ด๋ค.
ํ๊ท๋ก ๋๋ฆฐ Z๊ฐ์ ๋ฃ๊ฒ ๋๋ฉด, ํ๋ฅ ๋ก ๋งคํ์์ผ ์ค๋ค.
Cost Function
๊ทธ๋ผ ์ด๊ฑธ ํ์ต ์ํค๊ธฐ ์ํด Cost Function์ ์ ์ํด์ผ ํ๋ค.
Logistic ๊ฐ์ ๊ฒฝ์ฐ cost function์ ๋ฏธ๋ถํ ๊ฒ์ gradient descent ํ์ง๋ง
์ด๋ฒ์๋ ์กฐ๊ธ ๋ค๋ฅด๋ค. Cross Entropy๋ฅผ ์ฌ์ฉํ๋ค. ๋ฐ์์ ์ ์ด ์งํ๊ฐ ๋ง๋์ง ์์๋ณด์.
Cross Entropy
์ด ๋, -log ํจ์๋ y hat์ ๊ฐ์ด 01์ ํ๋ฅ ๊ฐ์ด๋ฏ๋ก ๋ฌดํ๋0 ๊ฐ์ ๊ฐ๋๋ค.
์๋ฅผ ๋ค์ด ์๊ฐํด๋ณด์. ๋ ๊ฐ์ง ๋ ์ด๋ธ์ ๊ฐ์ง ์ ์๊ณ ,
์์๋๋ก A ํด๋์ค, B ํด๋์ค์ธ์ง ๋ํ๋ด๋ Array ํํ๋ก ๋ต์์ด ์ ์ถ๋๋ค ํ์.
์ค์ ๊ฐ(y) = [0 1] # Bํด๋์ค๊ฐ ๋ต์
์์ธก๊ฐ1(y_hat) = [0 1] # Bํด๋์ค์ผ ํ๋ฅ ์ด 100%๋ผ๊ณ ์์ธก
์์ธก๊ฐ2(y_hat) = [1 0] # Aํด๋์ค์ผ ํ๋ฅ ์ด 100%๋ผ๊ณ ์์ธก
์ฐ๋ฆฌ๊ฐ ํ๊ณ ์ถ์ ๊ฒ์, ๋ง์์ ๋๋ cost function์ ๊ฐ์ด ์๊ฒ, ํ๋ ธ์ ๋๋ cost function์ ๊ฐ์ด ํฌ๊ฒ ๋์ค๊ฒ ํ๋ ๊ฒ์ด๋ค. ๊ทธ๋ฆฌ๊ณ ๋์ ์ด ํจ์๋ฅผ ์ต์ํํ๋ ๋ฐฉํฅ์ ๋ชจ๋ธ์ ๋ง๋๋ ๊ฒ์ด ๋ชฉ์ ์ด๋ค.
๊ทธ๋ ๋ค๋ฉด, Cross Entropy๊ฐ ๋ด๊ฐ ์๊ฐํ๋ ์ด ๊ณผ์ ์ด ๋ง๋์ง ์๊ฐํด๋ณด์.
์์ธก๊ฐ 1์ ๊ฒฝ์ฐ,
\\begin{bmatrix} 0 \\ 1 \end{bmatrix} \cdot -log\begin{bmatrix} 0 \\ 1 \end{bmatrix};=;\begin{bmatrix} 0 \\ 1 \end{bmatrix}\cdot\begin{bmatrix} โ \\ 0 \end{bmatrix};=;0+0;=;0์์ธก๊ฐ์ด ๋ง์์ ๋, ๊ฐ์ด 0์ด ๋ฌ๋ค. ์์ธก๊ฐ 2์ ๊ฒฝ์ฐ,
\\begin{bmatrix} 0 \\ 1 \end{bmatrix} \cdot -log\begin{bmatrix} 1 \\ 0 \end{bmatrix};=;\begin{bmatrix} 0 \\ 1 \end{bmatrix}\cdot\begin{bmatrix} 0 \\ โ \end{bmatrix};=;0+โ;=;โ๊ฐ์ด ์ปค์ง๋ค.
์ฆ, ํ๋ฆฐ ์์ธก์ ๋ํด ์์ฃผ ํฐ ๊ฐ์ penelty ๋ฅผ ์ฃผ๊ณ ์์์ ์ ์ ์๋ค.
Logistic Regression & Cross Entropy
๋ ๊ฐ์ ๋ ์ด๋ธ์ด ์๋ค๊ณ ์๊ฐํ ๋, Cross Entropy๋ ๋ค์๊ณผ ๊ฐ๋ค.
๊ทธ๋ฐ๋ฐ, ๋ก์ง์คํฑ ํ๊ท๋ ๋ ์ด๋ธ์ด 2๊ฐ๊ฐ ์๊ณ , ๋ ํ๋๊ฐ ๊ฒฐ์ ๋ ๋, ๋ฐ๋๋ 1์์ ๋บ ๊ฐ์ด๋ค.
์ ์์ logistic ํ๊ท์์ ๋น์ฉํจ์์ด๋ค.