์๋กญ๊ฒ ์๊ฒ ๋ ์ง์ ์ค์์ ํ๋์ ํฌ์คํ ์ผ๋ก ๋ง๋ค๊ธฐ์๋ ๋ถ๋ด์ค๋ฌ์ด ๋ด์ฉ๋ค์ ์ด๊ณณ์ ๋ชจ์๋ก๋๋ค. ๋งค์ผ ๊ณต๋ถํ ๋ด์ฉ์ ๊ธฐ๋กํ๊ธฐ๋ณด๋ค๋ ์๋ฌด๋๋ ๋น์ ๊ธฐ์ ์ผ๋ก ๋ด์ฉ์ ์ ๋ฐ์ดํธ ํ๊ณ ์์ต๋๋ค. ๋ณธ ํฌ์คํ ์์๋ AI/ML๊ณผ ๊ด๋ จ๋ ๊ธฐ์ ์คํ ๋ด์ฉ์ ์๊ณ ์์ต๋๋ค. ์ต๊ทผ์ ์์ฑํ ๋ด์ฉ๋ค์ด ํ๋จ์ ์์นํ๋๋ก ๋ฐฐ์ดํ์์ต๋๋ค.
๐งฉ ML library
2021.04.25
ํ
์ํ๋ก์ฐ ๊ณต์๋ฌธ์์ tf.map_fn
ํจ์์ ๋ํ ์ค๋ช
์ ์ฝ์์ต๋๋ค. dimension 0์์ unpack๋ elems์ด๋ผ๋ tensor list์ ์์๋ค์ fn์ mapํฉ๋๋ค.
tf.map_fn(fn, elems, dtype=None, parallel_iterations=None, back_prop=True,
swap_memory=False, infer_shape=True, name=None)
MAML์ ๊ตฌํ ํ ๋ meta-batch์ ๋ํ cross entropy๋ฅผ ๋ณ๋ ฌ์ ์ผ๋ก ๊ณ์ฐํ๊ธฐ ์ํด์ ์๋์ ๊ฐ์ ์ฝ๋๋ฅผ ์ฌ์ฉํ ์ ์์ต๋๋ค. ์ฌ๊ธฐ์ xs์ shape์ [meta-batch size, nway*kshot, 84*84*3] ์ ๋๋ค.
cent, acc = tf.map_fn(lambda inputs: self.get_loss_single(inputs, weights),
elems=(xs, ys, xq, yq),
dtype=(tf.float32, tf.float32),
parallel_iterations=self.metabatch)
๐งฉ ML library
2021.04.27
๋ชจ๋ธ ๊ทธ๋ํ๋ฅผ ๋น๋ํ๋ ํจ์์์ for loop๋ฅผ ๋ง์ด ์ฌ์ฉํ๋ฉด ์ด๊ฒ ๊ทธ๋๋ก ๋ชจ๋ธ training ๋จ๊ณ์์๋ ๋งค๋ฒ for loop๊ฐ ์ ์ฉ๋์ด ๋ชจ๋ธ์ ํ์ต์ด ๋๋ ค์ง๊ฒ ๊ตฌ๋๋ผ๊ณ ์๊ฐํ์๋๋ฐ ๊ณฐ๊ณฐํ ์๊ฐํด๋ณด๋๊น ์๋๋๋ผ๊ตฌ์.
๋น๋ํ๋ ๋จ๊ณ์์๋ for loop๊ฐ ์ฌ๋ฌ ๋ฒ ๋๋๋ผ๋, ๊ทธ๋ํ์ ๊ฐ ๋ ธ๋๋ค์ด ์ฐ๊ฒฐ๋๊ณ ๋ ๋ค์๋ ๋น๋ ๋ ๊ทธ๋ํ ๊ตฌ์กฐ ์์ฒด๊ฐ ์ค์ํ์ง, ๋น๋ ๋จ๊ณ์์์ for loop๋ ๊ด๋ จ์ด ์๊ฒ ๋ฉ๋๋ค. ๊ฝค๋ ์ค๋ซ๋์ ์๋ฌด๋ ์ง ์๊ฒ ์ฐฉ๊ฐํ๊ณ ์์์ด์ ์ด ๊ณณ์ ๊ธฐ๋กํฉ๋๋ค. ๊ทธ๋ผ map_fn์ ํนํ ์ด๋ค ๊ฒฝ์ฐ์ ๋ฉ๋ฆฌํธ๋ฅผ ๊ฐ์ง๊น ๊ถ๊ธํ๊ธด ํ๋ค์ ๐ง
๐งฉ ML library
2021.05.02
TensorFlow 1.15๋ก ์ฝ๋๋ฅผ ์ง๋ค๊ฐ softmax_cross_entropy_with_logits
๋ loss์ ๋ํ 2nd-order ๊ณ์ฐ์ ์ง์ํ์ง๋ง sparse_softmax_cross_entropy_with_logits
๋ loss์ ๋ํ 2nd-order ๊ณ์ฐ์ ์ง์ํ์ง ์๋๋ค๋๊ฑธ ์๊ฒ ๋์์ต๋๋ค. ์ด ๋์ ์ฐจ์ด๋ label์ด one-hot ํํ๋ก ์ฃผ์ด์ง๋ ์๋๋์ ์ฐจ์ด๋ฐ์ ์๋๋ฐ ์ด๋ฐ ๊ฒฐ๊ณผ๋ฅผ ๋ํ๋๋ค๋๊ฒ ์ด์ํด์ ์ฐพ์๋ณด๋ค๊ฐ tensorflow repository์ ๊ด๋ จ ์ด์๊ฐ ์ฌ๋ผ์๋ ๊ฒ์ ๋ฐ๊ฒฌํ์ต๋๋ค.
์์ฝํ์๋ฉด ์ผ๋ถ indexing ์์ ์ ๋ํ ๋ํจ์ ๊ณ์ฐ์ด ์์ง ์ ๋๋ก ๊ตฌํ๋์ง ์์๊ฑฐ๋, ๋ช ๊ฐ์ง operation์ ๋ํด์ 2์ฐจ ๋ฏธ๋ถ ๊ณ์ฐ์ด ๊ฐ๋ฐ์๋ค๋ ์์ง ํด๊ฒฐํ์ง ๋ชปํ ์ค๋ฅ๋ฅผ ๊ฐ์ง๋ค๊ณ ๋งํ๊ณ ์์ต๋๋ค(๊ตฌ์ฒด์ ์ธ ์์ธ์ ๋ชจ๋ฅด๊ฒ ์ต๋๋ค). 0.2 ๋ฒ์ ์์ 1.15 ๊น์ง ๊ฐ๋ฐ์ด ์งํ๋๋ฉด์๋ TensorFlow ํ์ด ์ง์์ ์ผ๋ก ํด๊ฒฐํ์ง ๋ชปํ๊ณ ์๋ ๋ฌธ์ ์ ์ด ์๋ค๋ ๊ฒ์ด ์ ๊ธฐํ์ต๋๋ค.
๐ค ML & DL
2021.05.10
PR-317: MLP-Mixer: An all-MLP Architecture for Vision ์์์ ํตํด CNN๊ณผ MLP๊ฐ ๋ณ๋ก ๋ค๋ฅด์ง ์๋ค๋ ๊ฒ์ ์์์ต๋๋ค. ์์์์ ์ด์ง์๋์ CNN weight์ด Fully-Conneted weight๊ณผ ๋ค๋ฅธ ์ ๋ ๊ฐ์ง๊ฐ weight sharing๊ณผ locally connected๋ผ๊ณ ์ค๋ช ํ๊ณ ์์ต๋๋ค. ์๊ฐํ๋ ์๋ฃ๋ง ๋ด๋ ์ด๋ ๊ฒ ๊ฐ๋จํ๊ฒ ์ดํด๋๋ ๋ด์ฉ์ธ๋ฐ ์ ์ง๊ธ๊น์ง ๊นจ๋ซ์ง ๋ชปํ์๊น๋ผ๋ ์๊ฐ์ด ๋ค์๊ณ , CNN์ ๋ช ๊ฐ์(์ฌ์ค์ ์์ฒญ ๋ง์ ์์ด์ง๋ง) weight์ ์ถ๊ฐํ๋ ๊ฒ๋ง์ผ๋ก๋ Fully-Connected์ ์์ ํ ๋์ผํ ๊ตฌ์กฐ๋ก ๋ง๋ค์ ์๋ค๋ ๊ฒ์ ์ดํดํ์ต๋๋ค.
๐งฉ ML library
2021.05.11
tf.contrib.layers.batch_norm
ํจ์๋ฅผ ์ฌ์ฉํ ๋ is_traning
์๊ท๋จผํธ ์ค์ ์ ์ฃผ์ํด์ผ ํฉ๋๋ค. Batch normalization์ ์ฌ์ฉํ ๋ ํ์ต ์ํฉ์ธ์ง ํ
์คํธ ์ํฉ์ธ์ง์ ๋ฐ๋ผ์ mean๊ณผ variance๋ก ์ฌ์ฉํ๋ statistics์ ์ถ์ฒ๊ฐ ๋ฌ๋ผ์ง๊ธฐ ๋๋ฌธ์ is_traning
๋ฅผ ์๋ชป ์ค์ ํ๋ค๋ฉด ์ ํ๋๋ ๋๊ฒ ๋์ค๋๋ผ๋ ๊ทธ ์คํ์ด ์๋ชป๋ ๊ฒฐ๊ณผ์ผ ์ ์์ต๋๋ค.
is_training
์ด True์ธ ๊ฒฝ์ฐ์๋ movingmean ํ
์์ movingvariance ํ
์์ statistics of the moments(๋ฏธ๋ ๋ฐฐ์น ํ๊ท ๊ณผ ๋ถ์ฐ)์ exponential moving average ์์ ๋ฐ๋ผ ์ถ์ ํฉ๋๋ค. BN ๊ณ์ฐ์๋ ๋ฏธ๋๋ฐฐ์น์ ํ๊ท ๊ณผ ๋ถ์ฐ์ ์ฌ์ฉํฉ๋๋ค. is_training
์ด False์ธ ๊ฒฝ์ฐ์๋ ๊ทธ๋์ ์ถ์ ํ์๋ movingmean ํ
์์ movingvariance ํ
์ ๊ฐ์ ๊ฐ์ ธ์ BN ๊ณ์ฐ์ ์ฌ์ฉํฉ๋๋ค.
Few-shot learning setting์์ support set๊ณผ query set์ ๋ํด์ ๋ ๋ค is_training
์ True๋ก ์ค์ ํ๋ฉด ์ด๋ transductive setting์ด ๋ฉ๋๋ค. ์ฆ query๋ฅผ ์ถ์ ํ๊ธฐ ์ํด์ support ๋ฟ๋ง ์๋๋ผ query ๋ถํฌ์ ์ ๋ณด๊น์ง ์ฌ์ฉํ๊ฒ ๋ค๋ ๊ฒ์ ์๋ฏธํฉ๋๋ค. Few-shot learning์์๋ ๋๋ถ๋ถ transductive setting์ด non-transductive์ ๋นํด 3%์ ๋์ ์ฑ๋ฅ ํฅ์์ ๋ณด์ด๊ธฐ ๋๋ฌธ์ ๋ณธ์ธ์ ์คํ ์ํฉ์ ์๋ง๊ฒ ์๊ท๋จผํธ ๊ฐ์ ์ค์ ํด์ผ ํฉ๋๋ค.
tf.contrib.layers.group_norm
๊ฐ์ instance-based normalization ๋ฐฉ์์ ๋ฏธ๋๋ฐฐ์น์ ๋ํ running statistics๋ฅผ ์ฌ์ฉํ์ง ์๊ธฐ ๋๋ฌธ์ is_trainable
ํ๋ผ๋ฏธํฐ๊ฐ ์กด์ฌํ์ง ์์ต๋๋ค.
๐ค ML & DL
2021.05.14
Moment1๋ ๋ฌผ๋ฆฌํ์์ ํน์ ๋ฌผ๋ฆฌ๋๊ณผ distance์ ๊ณฑ์ ํตํด ๋ฌผ๋ฆฌ๋์ด ๊ณต๊ฐ์ ์ด๋ป๊ฒ ์์นํ๋์ง๋ฅผ ๋ํ๋ด๋ฉฐ Force, Torque, Angular momentum ๋ฑ์ ์๋ก ๋ค ์ ์์ต๋๋ค. Moment of mass์ ๋ํด์ zeroth moment๋ total mass, 1st moment๋ center of mass, 2nd moment๋ moment of inertia๋ฅผ ์๋ฏธํฉ๋๋ค.
์ํ์์๋ ํจ์์ ํน์ง์ ๋ํ๋ด๊ธฐ์ํด moment๋ผ๋ ์๋ฉ์ ์ฌ์ฉํฉ๋๋ค. ํจ์๊ฐ ํ๋ฅ ๋ถํฌ ํํ์ธ ๊ฒฝ์ฐ first moment๋ ํ๋ฅ ๋ถํฌ์ ๊ธฐ๋๊ฐ์ ์๋ฏธํ๋ฉฐ, ์ด๋ฅผ moments about zero๋ผ๊ณ ๋ ๋งํฉ๋๋ค. ๋ํ second central moment๋ก๋ variance, third standardized moment๋ skewness(๋น๋์นญ๋), fourth standardized moment๋ kurtosis(์ฒจ๋, ๋พฐ์กฑํ ์ ๋) ๋ฑ์ด ์์ต๋๋ค.
๐งฉ ML library
2021.09.20
PyTorch ๊ณต์ ๋ฌธ์๋ฅผ ์ฐธ๊ณ ํ์ฌ ๊ฐ์ฅ ๊ธฐ๋ณธ์ ์ธ torch Tensor ๊ธฐ๋ฅ๋ค์ ์ ๋ฆฌํฉ๋๋ค.
- squeeze: ์ฐจ์์ด 1์ธ ์ฐจ์์ ์ ๊ฑฐํ๋ ํจ์์ ๋๋ค. ๋ฐ๋ก ์ต์ ์ ์ฃผ์ง ์์ผ๋ฉด ์ฐจ์์ด 1์ธ ๋ชจ๋ ์ฐจ์์ ์ ๊ฑฐํฉ๋๋ค.
- unsqueeze: ํน์ ์์น์ 1์ธ ์ฐจ์์ ์ถ๊ฐํ๋ ํจ์ํ๋๋ค.
- view: ํ ์์ shape์ ๋ณ๊ฒฝํด์ฃผ๋ ํจ์์ ๋๋ค.
๐ค ML & DL
2021.11.13
์ํคํผ๋์์ Signed Distance Function(SDF)4์ ๋ํ ์ค๋ช ์ ์ฝ์์ต๋๋ค. ๋จผ์ , SDF๋ ๋ค์๊ณผ ๊ฐ์ด ์ ์๋ฉ๋๋ค.
- If is a subset of a metric space and is the boundary of the signed distance function is defined by
SDF๋ ์ด๋ค boundary๊น์ง์ ๊ฑฐ๋ฆฌ๋ฅผ ํํํ๋ ํจ์์ ๋๋ค. ๋ง์ฝ ์ด๋ค ์ ๊ฐ boundary ์ ์ชฝ์ ์์นํ๊ฒ ๋๋ฉด function ๊ฐ์ ์์๋ฅผ ๊ฐ๊ฒ ๋๋ฉฐ, ์ด ์ ์ด boundary์ ์ ์ ๊ฐ๊น๊ฒ ์ด๋ํ ์๋ก function ๊ฐ์ 0์ ๊ฐ๊น์ ์ง๋ค๊ฐ, boundary์ ์์นํ๋ ๊ฒฝ์ฐ์๋ 0์ด ๋ฉ๋๋ค. ๋ฐ๋๋ก ๊ฐ boundary ๋ฐ๊นฅ ์ชฝ์ ์์นํ๋ ๊ฒฝ์ฐ์๋ function ๊ฐ์ด ์์๋ฅผ ๊ฐ์ต๋๋ค.
์์์๋ SDF ํจ์์ ์์ ๋ํด์ boundary ์ ์ชฝ์ธ ๊ฒฝ์ฐ์ ์์๋ผ๊ณ ํ๊ธฐํ์์ง๋ง boundary ์ ์ชฝ์ ์์๋ก ๋์ด ๋ฐ๋๋ก ์ฌ์ฉํ๋ ๊ฒฝ์ฐ๋ ์กด์ฌํฉ๋๋ค. ์๋ ์ฌ์ง์ DeepSDF5๋ผ๋ ๋ ผ๋ฌธ์์ ๊ฐ์ ธ์จ SDF์ ์์์ด๋ฉฐ ํด๋น ๋ ผ๋ฌธ์์๋ boundary ์ ์ชฝ์ ์์๋ก ๋์์ต๋๋ค.
๊ณผ๊ฑฐ์ surface ์ถ์ ์ด๋ 3D reconstruction ๊ฐ์ task์์๋ ์ฃผ๋ก voxel, point, mesh๋ฅผ ์ฌ์ฉํ๋ ๋ฐฉ์์ผ๋ก ์ ๊ทผํ๋ค๋ฉด, ์ต๊ทผ์๋ SDF ์ฌ์ฉํ๋ ค๋ ์๋๊ฐ ๋์ด๋๊ณ ์๋ ๊ฒ ๊ฐ์ต๋๋ค. ํนํ Implicit Neural Representation ์ฐ๊ตฌ์ SDF๋ฅผ ๊ฒฐํฉํ ์ฐ๊ตฌ ๊ฒฐ๊ณผ๋ค์ด ํฅ๋ฏธ๋ก์ ๋ณด์์ต๋๋ค.
Implicit Neural Representation์ ์ด๋ฏธ์ง๋ 3D ๋ฐ์ดํฐ๋ฅผ pixel, voxel ๋จ์์ matrix ํํ๋ก ํํํ๋ ๊ฒ์ด ์๋๋ผ, (x, y) ๊ฐ์ ๋ฐ์์ ๋ (r, g, b) ๊ฐ์ ์ถ๋ ฅํ๋ ์ด๋ค ํจ์ ํ๋๋ก์จ ํํํ๋ ค๋ ์ฐ๊ตฌ์ ๋๋ค(ํจ์ 1๊ฐ๋ ๋ฐ์ดํฐ 1๊ฐ๋ฅผ ์๋ฏธํ๊ณ , ๋ฐ๋ผ์ ํ์ต ์ ๋ ฅ 1๊ฐ๋ ํฝ์ ๊ฐ 1๊ฐ๋ก ์ฃผ์ด์ง๊ฒ ๋ ๋ฏ ํฉ๋๋ค). ๋ฐ์ดํฐ๋ฅผ ์ฐ์์ ์ธ ํจ์์ ํํ๋ก ํํํ๊ธฐ ๋๋ฌธ์ ์์ฐ์ค๋ฝ๊ฒ super resolution์ด ๊ฐ๋ฅํ๋ค๋ ์ฅ์ ์ด ์๋๋ฐ, ์ต๊ทผ์ ์ด ๋ฐฉ์๊ณผ SDF๋ฅผ ๊ฒฐํฉํ์ฌ ์ต์ข output์ ๋งค์ฐ ๋งค๋๋ฝ๊ฒ ๋ง๋ค์ด๋ด๊ณ ์ ํ๋ ์ฐ๊ตฌ๊ฐ ๋ง์ด ์งํ๋๊ณ ์์ต๋๋ค.
๐ค ML & DL
2021.12.02
์ง๊ธ๊น์ง๋ ์๋ฌด ์๊ฐ ์์ด continuous distribution์์๋ single point์ ํน์ ํ๋ฅ ์ด ์กด์ฌํ๋ค๊ณ ์๊ฐํ์ต๋๋ค. ์๋ฅผ ๋ค์ด ์ ๋ํด์ point ์ด ๊ด์ธก๋ ํ๋ฅ ์ด ํน์ ๊ฐ์ผ๋ก ์กด์ฌํ๋ค๊ณ ์๋ชป ์๊ฐํ๊ณ ์์์ต๋๋ค.
์ด ๊ณณ6์ ์ฐธ๊ณ ํ๋ continuous probability function์ continuous interval์ ๋ฌดํ points์ ๋ํด ์ ์๋๊ธฐ ๋๋ฌธ์ single point์ ํ๋ฅ ์ ์ธ์ ๋ 0์ด๋ฉฐ, ๋ฐ๋ผ์ continuous probability function์์ ํ๋ฅ ์ ํน์ interval์ ๋ํด์ ์ธก์ ํ๊ณ single point์ ๋ํด์ ์ธก์ ํ์ง ์๋๋ค๊ณ ํฉ๋๋ค.
์ด์ฐ๋ณด๋ฉด ๊ฐ๋จํ ๊ฒ์ด์์ง๋ง ์์ธํ ์๊ฐํด๋ณด์ง๋ ์์์ ํท๊ฐ๋ ธ๋ ๋ฏ ํฉ๋๋ค. ์ถ๊ฐ์ ์ผ๋ก, ๊ทธ๋ฌ๋ฉด ์ด๋ป๊ฒ 0์ด ๋ชจ์ฌ 1์ด ๋๋ ๊ฒ ์ธ์ง๊น์ง ๊ถ๊ธํด์ง๋ฉด์ ์ํ์ ๋น์ฅ ๊ทผ๋ณธ๋ถํฐ ๋ค์ ๊ณต๋ถํด์ผํ๋ ์ถ์์ง๋ง, ์๊ฐ์ ํ์ ๋์ด ์๊ณ ํ ์ผ์ ๋ง์ผ๋ ๊ธธ๊ฒ ๋ณด๊ณ ์ฒ์ฒํ ๊ณต๋ถํ์๋ ๊ฒฐ๋ก ์ผ๋ก ๋์์์ต๋๋ค ๐ฅฒ
๐งฉ ML library
2021.12.08
PyTorch์ ํน์ weight๋ง freezeํ๋ ๊ธฐ๋ฅ์ด ๊ตฌํ๋์ด ์๋์ง ์ดํด๋ณด์์ต๋๋ค.
Layer ๋จ์๋ก freezing ํ๋ ๊ฒฝ์ฐ์๋ required_grad=False
๋ฅผ ์ฌ์ฉํด์ ๊ตฌํํ์๋๋ฐ, layer ๋ด ํน์ weight๋ง ๊ณจ๋ผ์ freezeํ๋ ๊ธฐ๋ฅ์ ๋ฐ๋ก ๋ณธ ์ ์ด ์๋ ๊ฒ ๊ฐ์ ์ฐพ์๋ณด๋ค๊ฐ ํด๋น ๋งํฌ๋ฅผ ์ฝ๊ฒ ๋์์ต๋๋ค. ์์ฑ์ ๋ถ์ด ์ค๋ช
ํ๊ธฐ๋ก๋ ์๋์ ๊ฐ์ ๋ ๊ฐ์ง ์์๋ฐฉํธ์ด ์๋ค๊ณ ํฉ๋๋ค.
.step()
๋ฅผ ํธ์ถํ๊ธฐ ์ ์ freeze ํ๊ณ ์ํ๋ weight์ ๋ํด์grad=0
ํ ๋น. ๋ค๋ง momentum, weight decay๋ฅผ ์ฌ์ฉํ๋ optimizer์ ๊ฒฝ์ฐ์grad=0
์ด๋๋ผ๋.step()
ํธ์ถ ์ weight์ ๋ณํํ๊ธฐ ๋๋ฌธ์ ์ํ๋๋๋ก ๋์ํ์ง ์์ ์ ์์- Freezeํ๊ณ ์ถ์ weight์ ๋ฏธ๋ฆฌ copy ํด๋๊ณ
.step()
์ ํธ์ถํ์ฌ weight์ ์ ๋ฐ์ดํธํ ๋ค์, ๋ณต์ฌํ๋ weight์ ์ ๋ฐ์ดํธ๋ weight์ ๋ฎ์ด์์ฐ๊ธฐ
๐ค ML & DL
2022.01.15
๋งํฌ7๋ฅผ ์ฐธ๊ณ ํ์ฌ triplet loss ๊ด๋ จ ์ฉ์ด๋ฅผ ์์งํ์์ต๋๋ค.
- Easy triplets:
- Hard triplets:
- Semi-hard triplets:
๐งฉ ML library
2022.02.28
Random seed๋ฅผ ๊ณ ์ ํ ๋ ๊ฐ์ฅ ๋จผ์ ๊ณ ๋ คํ๋ฉด ์ข์ ๊ฒ๋ค์ ๊ธฐ๋กํ์์ต๋๋ค.
random.seed(args.seed)
np.random.seed(args.seed)
torch.manual_seed(args.seed)
torch.cuda.manual_seed_all(args.seed)
๐ค ML & DL
2022.04.10
์ฐ๊ตฌ๋ฅผ ํ๋ฉฐ, ๋ชจ๋ธ ํ์ต์ ์์ ์ฑ์ ์์ด์ residual connection์ด ์ ์ฉํ๋ค๋ ๊ฒฝํ์ ์ธ ํ์ ์ป์์ต๋๋ค. ResNet๊ณผ ๊ฐ์ด ๋ชจ๋ธ ๊ตฌ์กฐ์์ residual connection์ ํ์ฉํ๋ ๊ฒ ๋ฟ๋ง ์๋๋ผ, ์ด๋ค ๊ฐ์ ์กฐ์ฌ์ค๋ฝ๊ฒ ๋ฐ๊พธ๊ณ ์ถ์ ๋ residual connection์ ๊ฐ์ง ๊ตฌ์กฐ๊ฐ ๋น๊ต์ ๋์ ์ฑ๋ฅ์ ๋ณด์ด๋ ๊ฒ์ ํ์ธํ์์ต๋๋ค.
์๋ฅผ ๋ค์ด GNN์ ํตํด embedding vector๋ฅผ ์ ๋ฐ์ดํธํ๊ณ ์ถ์ ๋ ์ ํํ๋ฅผ ์ฌ์ฉํ๋ ๊ฒ ๋ณด๋ค ์ ํํ๋ฅผ ์ฌ์ฉํ๋ ๊ฒ์ด ์ข์ผ๋ฉฐ, ํ์ฌ ์คํ ์ค์ธ ๊ฒ ์ค์์๋ few-shot์ผ๋ก distribution์ mean์ ์ ์ถ์ ํด๋ณด๋ ค๋ ๋ด์ฉ์ด ์๋๋ฐ, ์ด ๊ฒฝ์ฐ์๋ ๋ณด๋ค๋ ํํ์์ ๋ ์ข์ ๊ฒฐ๊ณผ๋ฅผ ์ป์์ต๋๋ค.
์๋ฌด๋๋ ์ผ๋ฐ์ ์ผ๋ก parameter๊ฐ 0์ ๊ฐ๊น์ด ๊ฐ์ฐ์์์ผ๋ก ์ด๊ธฐํ๋๊ธฐ ๋๋ฌธ์, residual connection์ ์ฌ์ฉํ ๊ฒฝ์ฐ์ ์ด๊ธฐ loss๊ฐ ๋ ์์์ ธ ๋น๊ต์ ํ์ต์ด ์์ ์ ์ธ ๊ฒ์ด ์๋๊น ์ถ์ต๋๋ค. (์ ๋ง๋ก ๊ทธ๋ฐ ๊ฒ์ธ์ง ์ฐพ์๋ณด๊ณ ๋ด์ฉ ์ถ๊ฐํ๊ธฐ)
๐ค ML & DL
2022.05.16
MooreโPenrose inverse(=Pseudo inverse)8์ ๋ํด์ ์ ๋ฆฌํฉ๋๋ค.
- ์ ํํ์ linear system์ ํ ๋, ๊ฐ ์ ๋ฐฉ ํ๋ ฌ์ด ์๋๋ผ๋ฉด ์๋์ ๋ ๊ฐ์ง ์ํฉ์ด ์กด์ฌ.
- Underdetemined (n < m): ๊ฐ๋ก๋ก ๊ธด A. Infinitely many solution given in general
- Overdetermined (n > m): ์ธ๋ก๋ก ๊ธด A. Zero solution for given in general
- ์ ๋ํด์ singular value decomposition์ ์ํํ๋ฉด ์๋์ ๊ฐ์ด ์ ๊ฐ๊ฐ ๊ฐ๋ฅํจ
- ์ฌ๊ธฐ์ ๋ฅผ A์ pseudo inverse๋ผ ํจ
- ์ผ ๋, where
MooreโPenrose inverse๋ฅผ ์ฌ์ฉํ๋ฉด ์ ํ๋์ํ์ ๋ง์ ๋ถ๋ถ์ ์ฝ๊ฒ ์์ ๋ฐ ์ฆ๋ช ๊ฐ๋ฅํจ
- Underdetemined(ํด๊ฐ ์ฌ๋ฌ ๊ฐ ์กด์ฌ)์์ ๋ ์ ํด๋ฆฌ๋ ๋ ธ๋ฆ ์ ์ต์ํํ๋ ํด์
- Overdetermined์์ ๋ ์ต์์ ๊ณฑ๋ฒ์ ์ต์ ํด์
๐ค ML & DL
2022.05.27
Linear combination์ ๋ํด์ ๊ณ์๊ฐ ์์์ด๊ณ ๊ณ์์ ํฉ์ด 1์ธ ๊ฒฝ์ฐ, ์ด๋ฅผ convex combination์ด๋ผ๊ณ ํจ
Convex set์ ์ ์์ ์ฐ๊ด์ง์ด ๋ณด๋ฉด, ์ด๋ค ์งํฉ C์ ์ํ๋ ์์์ ์ ๋ค์ convex combination์ด C์ ์ํ๋ฉด ๊ทธ ์งํฉ์ convex set์ด๋ผ๊ณ ๋งํ ์ ์์ผ๋ฉฐ, ๋ง์ฐฌ๊ฐ์ง๋ก convex set C์ ์ํ๋ ์ ๋ค์ convex combination์ ํญ์ C์ ์ํจ.
๐ค ML & DL
2022.05.28
๋ค์ํ Data Augmentation ๋ฐฉ๋ฒ๋ค์ ๋ํด์ ์ด๊ณณ์ ์ ๋ฆฌํ์์ต๋๋ค.
๐ค ML & DL
2022.06.29
Upper bound, Lower bound, Supremum, Infimum์ ๋ํ ์ํ์ ์ ์๋ฅผ ์ด๊ณณ์ ์ฐธ๊ณ ํ์ฌ ์ ๋ฆฌํฉ๋๋ค.
- Upper bound (์๊ณ): ์ด๋ค ์ค์ ๊ฐ ์์ ๋, ์ ๋ชจ๋ ์์ ์ ๋ํด์ ๋ฅผ ๋ง์กฑํ ๋, ๋ฅผ ์ upper bound๋ผ๊ณ ํจ. ์ด ๋ ๋ bounded above๋ผ๊ณ ํจ. (Lower bound๋ ๋์ผํ ๋ฐฉ์์ผ๋ก ์ ์ ๋จ)
- Supremum, Least upper bound (์ํ): ์ด๋ ค๋ฉด, ๊ฐ ์ upper bound์ด๋ฉฐ, ์ธ ๋ชจ๋ ๊ฐ ์ upper bound๊ฐ ์๋์ด์ผ ํจ. ์ฆ, upper bound ์ค least๊ฐ supermum์
- Infimum, Greatest lower bound (ํํ): ์ด๋ ค๋ฉด, ๊ฐ ์ lower bound์ด๋ฉฐ, ์ธ ๋ชจ๋ ๊ฐ ์ lower bound๊ฐ ์๋์ด์ผ ํจ. ์ฆ, lower bound ์ค greatest๊ฐ infimum์
๐ค ML & DL
2022.10.06
10์ 6์ผ์ ์งํ๋ AI workshop ๋ด์ฉ์ ๊ธฐ๋กํฉ๋๋ค. ๋จผ์ , Federated Learning๊ณผ ๊ด๋ จ๋ ๋ด์ฉ์ ๋๋ค.
-
Federated Learning (FL)
- Central server์ client์ data๋ฅผ ์ ๋ก๋ํ ์ ์๋ ์ํฉ์ ์ด๋ป๊ฒ ๋ชจ๋ธ์ ํ์ตํ ์ ์์์ง?
- Client์์ ๊ฐ์ ์ ๋ฐ์ดํธ๋ '๋ชจ๋ธ'์ ์๋ฒ๋ก ์ฌ๋ฆฌ๊ณ , ํ๊ท ์ ์ทจํด์ ๋ค์ client์๊ฒ ๋ฟ๋ฆฌ๋ ๋ฐฉ์์ด ์ ์ผ ์ผ๋ฐ์ (FedAvg)
- ํ์ง๋ง ์ด๋ฐ ๋ฐฉ์์ non-IID setting(heterogeneous)์์ ๋งค์ฐ ํฌ๊ฒ ์ฑ๋ฅ์ด ๋จ์ด์ง๊ฒ ๋จ: PFL ์ฐ๊ตฌ์ ๋ฐฐ๊ฒฝ
- Personalized Federated Learning (PFL): Client specific weights์ด ๋์ ๋จ
- PFL via Meta-learning: PFL์ ์ปจ์ ๊ณผ Meta-learning(MAML)์ ์ปจ์ ์ด ๋งค์ฐ ์ ์ฌํ๋ค๋ ์ ์์ ๊ณ ์๋จ
Imitation learning ๊ด๋ จ ๋ด์ฉ์ ๋๋ค.
-
Reinforcement Learning (RL)
- Purpose: Find an optimal policy that miximize
- Require domain knowledge for real-world application
- ๋๋ก ์ ์๋ก ๋ค๋ฉด, ์ค์ ๋๋ก ์ ๋งค์ฐ ์ฝ๊ฒ ๋ถ์ด์ง๋ฏ๋ก Sim2Real learning์ ๊ณ ๋ คํด์ผ ํ๊ณ , ๋๋ก physics์ ๋ง์ perturbation์ด ์กด์ฌํ๋ฏ๋ก Robust learning๋ ๊ณ ๋ คํด์ผ ํจ
-
Imitation Learning (IL)
- Behavior cloning (BC), Inverse RL (IRL), IRL + RL ๋ฑ์ ๋ฐฉ๋ฒ์ด ์กด์ฌ
- BC๋ ๋ง์ ์์ ๋ฐ์ดํฐ๊ฐ ํ์ํ๊ณ compounding error์ ์ทจ์ฝํ๋ฏ๋ก, ์ด๋ฐ ์ ์์๋ IRL์ด ์ฅ์ ์ ๊ฐ์ง
-
Generative Adversariel Imitation Learning (GAIL)
- Real data๋ก๋ expert actions๋ฅผ ์ ๊ณตํ๊ณ , Fake data๋ก๋ policy actions๋ฅผ ์ ๊ณตํ์ฌ expert์ policy๋ฅผ ํ๋ด๋ด๋๋ก ํ์ด
- Limitation: Real envrionment danger์ environment perturbation์ ๋ํด์๋ ์ ๋ชจ๋ธ๋งํ์ง ์์. ๋ฐ๋ผ์ domain-adpative IL์ด ํ์
-
Simulation-based Learning: Domain Adaptive IL
- Simulation(source) env.์์ information์ ๋ฝ์, target env์ policy์ ๋์์ ์ฃผ๋๋ก, information extraction ๊ณผ์ ์ด ์ค์
๐ค ML & DL
2022.10.06
๋ ๋ง์ ์ฝ๋ค๊ฐ "ํ์ต์ด ๋๋ฌด ์ค๋๊ฑธ๋ฆฌ๋ ๊ฒฝ์ฐ์ ํ์ดํผํ๋ฆฌ๋ฏธํฐ ํ๋์ ์ด๋ป๊ฒ ํด์ผํ๋๊ฐ?"์ ๋ํ ๊ธ์ด ์์ด, ๊ธ์ ๋ฌ๋ฆฐ ์ฝ๋ฉํธ์ ๊ฐ์ธ์ ์ธ ์๊ฐ๋ค์ ๊ธฐ๋กํฉ๋๋ค.
- ๋ชจ๋ธ ์ค์ผ์ผ์ ์ค์ธ ์ํ๋ก ํ์ดํผ ํ๋ผ๋ฏธํฐ ํ๋์ ์งํํ๊ฑฐ๋, ๋ฐ์ดํฐ์ ์ ์ผ๋ถ๋ง ์ฌ์ฉํ ํ์ต์ ํตํด ํ์ดํผ ํ๋ผ๋ฏธํฐ ํ๋์ ์งํ
- e.g., ResNet152๋ผ๊ณ ํ๋ค๋ฉด ResNet18 ๊ฐ์ด ์์ ๋ชจ๋ธ ์ฌ์ฉํ๊ฑฐ๋, ImageNet์ด๋ผ๊ณ ํ๋ค๋ฉด 100๊ฐ class๋ง ์ฌ์ฉํ์ฌ ํ์ต ์ํ
- ์ด ๋ฐฉ๋ฒ์ ๋น์ฐํ sub-optimal์ด๊ธด ํ๊ฒ ์ง๋ง ํ์ต์ด ๋๋ฌด ์ค๋๊ฑธ๋ฆฌ๋ ๊ฒฝ์ฐ์ ์ถฉ๋ถํ ํ์ฉํด ๋ณผ๋ง ํ ๋ฐฉ๋ฒ์ด๋ผ๊ณ ์๊ฐํ์
- ์ฌ์ค ์ ์ผ ์ข์ ๊ฒ์ GPU ์์์ ๋ณ๋ ฌ๋ก ์ถฉ๋ถํ ํ์ฉํ ์ ์๊ฒ ์์ง๋์ด๋ง์ ๊ฑฐ์น ํ์ ํ์ตํ๋ ๊ฒ. ์๋๋ฉด big model๊ณผ small model ์ฌ์ด์ ํ์ดํผ ํ๋ผ๋ฏธํฐ์ ๋ฐ๋ฅธ ๋ชจ๋ธ์ ๋์์ ๋ถ๋ช ํ ์ฐจ์ด๊ฐ ์กด์ฌํ ๊ฒ์ด๊ธฐ ๋๋ฌธ์, ์๋ ์ค์ผ์ผ๋๋ก ์คํํ๋๊ฒ ์ ์ผ ์ข์
๐ค ML & DL
2022.10.14
ML ๋ถ์ผ์์์ "Grokking"์ด๋ผ๋ ๋จ์ด์ ์๋ฏธ๋ฅผ ๊ธฐ๋กํฉ๋๋ค.
- Overparameterized๋ ๋ด๋ด๋ท ๋ชจ๋ธ์ด, small training dataset์ ๋ํด์ overfit ๋์ด ์๋ค๊ฐ, ๋งค์ฐ ๋ง์ ์๊ฐ(optimization step)์ด ์ง๋ ํ์ ์ด๋ ์ง์ ์ ๊ฐ์๊ธฐ ์ข์ generalization ์ฑ๋ฅ(validation loss ๊ฐ์)์ ๋ฌ์ฑํ๋ ํ์
- OpenAI์ "Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets" ๋ ผ๋ฌธ์์ ๋ช ๋ช
๐ค ML & DL
2022.10.21
- The stability-plasticity dilemma: ์๋ก์ด ์ง์์ ์ป๊ธฐ ์ํด ๋ชจ๋ธ์ ์๊ตฌ ๋ณํ์ด ์๊ตฌ๋๋ฉด์๋, ๋์์ ๊ธฐ์กด์ ์ง์์ ์์ด๋ฒ๋ฆฌ์ง๋ ์์์ผ ํ๋ค๋ ์
- Learning in a parallel and distributed system requires plasticity for the integration of new knowledge but also stability in order to prevent the forgetting of previous knowledge.10
๐ค ML & DL
2022.12.03
Noisy label์ด๋ ๋ฌด์์ ์๋ฏธํ๋๊ฐ?
- ๋ฐ์ดํฐ ์ ๋ด์ ๋ฐ์ดํฐ์ labeling์ด ์ ๋ชป ๋์ด์๋ ๊ฒฝ์ฐ๋ฅผ noisy label ํน์ labeling noise๋ผ๊ณ ํจ. Large scale dataset์ ๋ํด์๋ label์ ํ์ธํ๋ ๊ณผ์ ์ด ํ๋ค๋ค ๋ณด๋๊น(๋๊ณผ ์๊ฐ์ด ๋ง์ด ์์), ์ด๋ฌํ noisy label์ด ์ถฉ๋ถํ ์กด์ฌํ ์ ์์
- ์ข ์ข semi-supervised learning ๋ถ์ผ์์๋ ์ฌ์ฉ๋๋๋ฐ, ์ด ๋๋ pseudo label ๊ธฐ๋ฐ์ self-training model์ด unlabeled dataset์ ์๋ชป pseudo labeling ํ ๊ฒ์ noisy label์ด๋ผ๊ณ ๋ถ๋ฅด๋ ๋ฏ ํจ
Ad-hoc์ด๋ ๋ฌด์์ ์๋ฏธํ๋๊ฐ?
- ์ผ๋ฐ์ ์ผ๋ก๋ '์ค๋ก์ง ํน์ ํ๋์ ๋ชฉ์ ๋ง์ ์ํด ๊ณ ์๋ ๋ฐฉ๋ฒ' ์ ๋๋ก ํด์ํด๋ณผ ์ ์์
๐ค ML & DL
2023.01.01
Anomaly detection ๊ด๋ จ ์ฉ์ด์ ๋ฆฌ, ChatGPT๋ฅผ ํ์ฉํด๋ณด์์.
-
Target(positive) class๊ฐ ๊ฐ์์ง๋ผ๊ณ ๊ฐ์ ํ ๋, ์๋ก์ด ๋ฐ์ดํฐ์ ๋ํด ๋ฐ์ํ ์ ์๋ ์ํฉ๋ค
- ๊ฐ์์ง์ด์ง๋ง, ์ด์ ์ ๋ณธ ์ ์๋ ์๋ก์ด ์ข ์ ๊ฐ์์ง๋ฅผ ๋ฐ๊ฒฌํ ๊ฒฝ์ฐ
- ๊ณ ์์ด ๋ฐ์ดํฐ ๋ฑ๊ณผ ๊ฐ์ด ์์ ์๋ก์ด ํด๋์ค๋ฅผ ๋ฐ๊ฒฌํ ๊ฒฝ์ฐ
- ๊ฐ์์ง ๋ฐ์ดํฐ์ด์ง๋ง ์์๋/์ค์ผ๋ ๋ฐ์ดํฐ๋ฅผ ๋ฐ๊ฒฌํ ๊ฒฝ์ฐ
- Novelty detection: Unseen data point๋ฅผ ๋ฐ๊ฒฌํ๋ ๊ฒฝ์ฐ๋, ์๋ก์ด ํธ๋ ๋๋ ๊ฒฝํฅ์ฑ์ ๋ฐ๊ฒฌํ๋ ๊ฒฝ์ฐ์ ์ฃผ๋ก ์ฌ์ฉํ๋ ์ฉ์ด
- Outlier detection: ๊ธฐ์กด ๋ฐ์ดํฐ์ ๋งค์ฐ ์ฐจ์ด๋๋ data point๋ฅผ ๋ฐ๊ฒฌํ๋ ๊ฒฝ์ฐ๋, ์ ๊ฑฐํด์ผ ํ ์ค์ผ๋๊ฑฐ๋ ์์๋ ๋ฐ์ดํฐ๋ฅผ ๋ฐ๊ฒฌํ๋ ๊ฒฝ์ฐ์ ์ฃผ๋ก ์ฌ์ฉํ๋ ์ฉ์ด
- Anomaly detection: Novelty detection๊ณผ Outlier detection์ ๊ฒฝ์ฐ๋ฅผ ๋ชจ๋ ํฌํจํ๋ ์๋์ ์ผ๋ก ๋์ ๋ฒ์์ ์ฉ์ด
- ๋ค๋ง ์์ ์ธ ๊ฐ์ง ์ฉ์ด๋ค์ด ๋งค์ฐ ์์ฃผ ํผ์ฉ๋๋ฏ๋ก, ๋ ผ๋ฌธ์ด๋ ์ํฉ์ ๋ง๊ฒ ์ ๋์ ์ผ๋ก ์ดํดํด์ผ ํจ
๐ค ML & DL
2023.01.11
Object detection๊ณผ ๊ด๋ จ๋ ์ฉ์ด๋ฅผ ์ ๋ฆฌํฉ๋๋ค. ๋จผ์ ๋ฌธ์ ์ํฉ๋ค์ ๋์ดํ์์ต๋๋ค.
- Localization: Single object, ํด๋น object๊ฐ ์ฌ์ง ๋ด์์ ์ด๋ ์์น์ ์กด์ฌํ๋์ง bounding box ์ค์
- Object detection: Multiple object, ์ฌ๋ฌ objects๊ฐ ์ฌ์ง ๋ด์์ ์ด๋ ์์น์ ์กด์ฌํ๋์ง bounding box ์ค์ ํ๊ณ ๊ฐ๊ฐ์ class ์ ๋ณด๊น์ง ๋ถ์ฌ
- Segmentation: Multiple object, ์ฌ๋ฌ objects๊ฐ ์ฌ์ง ๋ด์์ ์ด๋ ์์น์ ์กด์ฌํ๋์ง๋ฅผ 'ํฝ์ ๋จ์๋ก' class ์ ๋ณด ๋ถ์ฌ
- 2-Stage ๋ฐฉ์: ๋ฌผ์ฒด๊ฐ ์กด์ฌํ ๊ฒ ๊ฐ์ ์์น๋ฅผ ์ ์ํ ๋ค์์(Region proposal, localization), ํด๋น ์์น ์ ๋ณด๋ฅผ ๊ธฐ๋ฐ์ผ๋ก feature๋ฅผ ์ถ์ถํ๊ณ class ๋ถ์ฌ
- 1-Stage ๋ฐฉ์: Localization๊ณผ classification์ ํ ๋ฒ์ ์ํ. 2-Stage์ ๋นํด ์ฑ๋ฅ์ ๋ฎ์ง๋ง ์๋๋ ๋น ๋ฆ
-
Region proposal ๋ฐฉ์
- Sliding window: Window๋ฅผ ์ฌ๋ผ์ด๋ฉํ๋ฉฐ window ๋ด์ object๊ฐ ์กด์ฌํ๋์ง ํ์ธ
- Selective search: ์ธ์ ํ ์์ญ๋ผ๋ฆฌ ์ ์ฌ์ฑ์ ์ธก์ ํด ํฐ ์์ญ์ผ๋ก ์ฐจ๋ก๋๋ก ํตํฉ
- NMS: ์ฌ๋ฌ bounding box๊ฐ ๊ฐ์ class๋ก ๊ฒน์ณ์๋ค๋ฉด, ํ๋์ class๋ก ํตํฉํ๋ ๋ฐฉ๋ฒ
- RoI = Region of Intereset = Region proposal
2-Stage detector๋ฅผ ๊ฐ๋จํ ์ ๋ฆฌํฉ๋๋ค.
- R-CNN: Selective search๋ฅผ ํตํด 2000๊ฐ ์ ๋์ region proposal ์ฐพ์. ๊ฐ๊ฐ์ crop ์ด๋ฏธ์ง๋ฅผ ๋ชจ๋ CNN์ ์ ๋ ฅํ ๋ค์, feature vector ์ถ์ถ. ๋ง์ง๋ง์ผ๋ก๋ Regressor๋ฅผ ํตํด bounding box๋ฅผ ์ค์ ํ๊ณ , SVM์ ํตํด classification
- Fast R-CNN: Selective search๋ฅผ ํตํด 2000๊ฐ ์ ๋์ region proposal ์ฐพ์
- Faster R-CNN: ์ด์ ๊น์ง๋ CPU ๊ธฐ๋ฐ์ selective search ์๋ค๋ฉด, ๋ณธ ์๊ณ ๋ฆฌ์ฆ์ GPU ๊ธฐ๋ฐ์ Region Proposal Network(RPN)์ ์ ์ํ์ฌ ์๋ ํฅ์. ๊ทธ ์ธ์๋ Fast R-CNN์ ๋์ผ
1-Stage detector๋ฅผ ๊ฐ๋จํ ์ ๋ฆฌํฉ๋๋ค.
- YOLO: ์ด๋ฏธ์ง๋ฅผ NxN ๊ทธ๋ฆฌ๋๋ก ๋ถํ ํ์ฌ ์์ธก ํ ์(Prediction tensor) ์์ฑ
- SSD: ํ ๋๋ฆฌ ์์ ์กฐ์ ์ ์ํด ํฝ์ ์ด๋ ํน์ง๋ค์ ์ฌ ์ถ์ถํ์ง ์์
๐ค ML & DL
2023.01.14
Bayesian Inference์ ๋ํด ๊ฐ๋จํ ์ ๋ฆฌํฉ๋๋ค.
- Bayesian Inference: ์ถ๋ก ๋์์ ์ฌ์ ํ๋ฅ ๊ณผ ์ถ๊ฐ์ ์ธ ์ ๋ณด๋ฅผ ํตํด ํด๋น ๋์์ ์ฌํ ํ๋ฅ ์ ์ถ๋ก ํ๋ ๋ฐฉ๋ฒ
- ์ผ๋ฐ์ ์ผ๋ก ์ฐ๋ฆฌ์ ๋ชฉ์ ์ ๋ฅผ ๊ณ์ฐํ๋ ๊ฒ์. ์ฆ, given data ๋ฅผ ๊ธฐ๋ฐ์ผ๋ก test data ์ ๋ํ ์ฌ๋ฐ๋ฅธ ์์ธก์ ํ ์ ์์ด์ผ ํจ
- ๋ก ๊ณ์ฐ ํ ์ ์์ผ๋ฉฐ, ์ฌ๊ธฐ์ ๋ Bayes rule์ ์ํด ์
๐ค ML & DL
2023.02.22
CLIP์ ๋ํด ๊ฐ๋จํ ์ ๋ฆฌํฉ๋๋ค
- Natural language supervision: ์ด๋ฏธ์ง์ ํ ์คํธ๊ฐ ์ง์ ์ด๋ฃจ๋ ๋ฐ์ดํฐ์ ์ ํ์ฉํ์ฌ ์ด๋ฏธ์ง ๋ชจ๋ธ์ ํ์ต์ํค๋ ๊ฒ
- Contastive pre-training: Batchsize ๋งํผ์ ์ด๋ฏธ์ง์ ๊ทธ์ ํด๋นํ๋ ํ ์คํธ(๋ฌธ์ฅ)์ ๋ํด ์ด๋ฏธ์ง์ ํ ์คํธ ์๋ฒ ๋ฉ์ ๊ฐ๊ฐ ๋ฝ์๋ด๊ณ , ์๋ก ์ง์ด ๋ง๋ ์๋ฒ ๋ฉ๊ฐ ์ ์ฌ๋๊ฐ ๋์์ง๋๋ก ๋ชจ๋ธ ํ์ต
- Target dataset์ ๋ํด class label ์๋ฒ ๋ฉ์ ๋ชจ๋ ๋ฝ๋๋ฐ, ์ด ๋ ํ ์คํธ๋ก๋ 'a photo of a {class labe}'๋ฅผ ์ ๋ ฅ์ผ๋ก ์ค (Prompt engineering!)
- ์ต์ข ์ ์ผ๋ก, ํ ์คํธ ์ด๋ฏธ์ง์ ์๋ฒ ๋ฉ๊ณผ target dataset์ 'a photo of a {class labe}' ์๋ฒ ๋ฉ ์ฌ์ด์ ์ ์ฌ๋๊ฐ ์ ์ผ ๋์ ๊ฒ์ ํ์ธํจ
๐ค ML & DL
2023.03.24
- Domain generalization: source domain์ผ๋ก ํ์ตํ ๋ค ๋ฐ๋ก target domain์ ์ผ๋ฐํ
- Domain adaptation: target domain์๋ ์ด๋์ ๋ label์ด ์กด์ฌํ์ฌ ์ฌํ์ต์ด ๊ฐ๋ฅ
- Style-based generalization: Gram matrix, Maximum Mean Discrepancy(MMD), Mean Var ๋ฑ์ style๋ก ์ฌ๊ฒจ์ ํ์ฉ
- ์ผ๋ฐ์ ์ผ๋ก CNN์ texture๋ฅผ ์ ์ก๋ high pass filter(๊ณ ์ฃผํ ์์ฃผ๋ก ์ ๋ฌ), Transfomer๋ contour๋ฅผ ์ ์ก๋ low pass filter์ ํน์ฑ์ ๋ณด์ธ๋ค๊ณ ํจ. ๋ฐ๋ผ์ CNN์ ๋ํด adversarial attack ํ ๋๋ ํน์ ์ด๋ฏธ์ง์ ๋ค๋ฅธ texture ์ ํ๋ฉด ์์ธก ์ฑ๋ฅ ๋จ์ด์ง
๐ค ML & DL
2023.04.03
Stable diffusion์ ๋ํ ๊ฐ๋จํ ๊ธฐ๋ก
- Text2Image๋ฅผ ์ํด text encoder(CLIP์ text encoder)์ image generator ์ฌ์ฉ
-
Image generator: Image information creator (UNet + Scheduler)์ image decoder (Autoencoder decoder)๋ก ๊ตฌ์ฑ๋จ
- Image information creator: latent space to latent space. Diffusion process ์ํ
- Image decoder: latent space to image space
- Text conditioning: UNet ๋ด๋ถ์ resnet block ์ฌ์ด์ attention layer๋ฅผ ์ถ๊ฐํ๊ณ , token embedding์ ๊ฐ attention layer์ ์ ๋ ฅ์ผ๋ก ์ฃผ์ด conditioning
๐ค ML & DL
2023.04.08
Random thought of AI tech.
- ์ต๊ทผ์ ๋์จ ๋ ผ๋ฌธ์ธ Segment Anything๊ณผ PIX2STRUCT๋ฅผ ์ฝ์ผ๋ฉฐ ๋ (์ด์ ๋ถํฐ ์์ฃผ ํ์ง๋ง ๋ ๊ฐํด์ง) ์๊ฐ์, 'ํ์ต์ ์ํ task๋ฅผ ์ด๋ป๊ฒ ์ ์ํ๋์ง', ๊ทธ๋ฆฌ๊ณ '์๋ง์ ์์ training ๋ฐ์ดํฐ๋ฅผ ์ด๋ป๊ฒ ๋ชจ์์ผํ๋์ง' ๊ณ ๋ฏผํ๋ ๊ฒ์ด powerfulํ ๋ชจ๋ธ์ ๋ง๋๋ ์ ์ผ ์ค์ํ ๊ธฐ๋ฐ์ด ๋ ๊ฒ์ด๋ผ๋ ๊ฒ
- ๊ด๋ จํ์ฌ Video PreTraining (VPT)๋ ์ด๋ฐ ์๊ฐ์ ๊ธฐ๋ฐ์ผ๋ก ์ฐ๊ตฌ๋์์
๐งฉ ML library
2023.05.05
Lightning์์ Distributed Data Parallel ์ฌ์ฉํ ๋ ์ฐธ๊ณ ํ ์ ์ ๋ํด ๊ธฐ๋กํฉ๋๋ค.
- ์ฐธ๊ณ ๋งํฌ: https://github.com/Lightning-AI/lightning/discussions/6501#discussioncomment-553152
sync_dist=True
์ต์ ์ ์ฌ์ฉํ๋ฉด ๋ชจ๋ process์ ๋ํด sync ๋ง์ถค. ๊ธฐ๋ณธ ์ต์ ์ reduced mean- ๋ค๋ง, torchmetrics๊ณผ ๊ด๋ จํด์๋ own sync code๊ฐ ์๊ธฐ ๋๋ฌธ์
self.log(...)
์sync_dist
,sync_dist_op
,sync_dist_group
,reduce_fx
,tbptt_reduce_fx
flags๊ฐ metric logging์๋ ์ ํ ์ํฅ์ ์ฃผ์ง ์์ - Metric sync๋
metric.compute()
ํจ์ ํธ์ถ์ ๋์ํจ
๐ค ML & DL
2023.05.05
Reinforcement Learning from Human Feedback (RLHF)์ ๋ํด ๊ธฐ๋กํฉ๋๋ค
- ์์ ๋งํฌ: https://www.youtube.com/watch?v=2MBJOuVq380
- ๋ ผ๋ฌธ ๋งํฌ: https://arxiv.org/pdf/2203.02155.pdf
- RL์ ์ด์ฉํ์ฌ human feedback์ผ๋ก๋ถํฐ model์ ํ์ต์ํค๋ ๋ฐฉ๋ฒ. ๋ค๋ง 2~3 ๋จ๊ณ๋ฅผ ํตํด ์ค์ ๋ก ์ ํ์ต์ด ๋๋์ง์ ๋ํด ์ ๋๋ก ์ดํดํ์ง ๋ชปํด์ ๋ค์ ๊ณต๋ถํ ํ์ ์์.
- Pretraining a language model (LM)
- Gathering data and training a reward model
- Fine-tuning the LM with reinforcement learning
๐ค ML & DL
2023.05.05
VQ-VAE์ ๋ํด ๊ธฐ๋กํฉ๋๋ค.
- AutoEncoder: latent variable ๋ฅผ ์ ์ถ์ถํ๊ธฐ ์ํ ๊ตฌ์กฐ
- VAE: encoding์ distribution์ด prior๋ก ์ฃผ์ด์ง
-
VQ-VAE
- AutoEncoder์ ๊ฐ์ ๊ตฌ์กฐ์ด๊ธด ํ๋, ๊ธฐ๋ฐ์ผ๋ก codebook(K๊ฐ์ embeddings) ๋ด ๊ฐ์ฅ ๊ฐ๊น์ด embedding์ ๊ฐ์ ธ์์ decoder input์ผ๋ก ์ฌ์ฉํจ. codebook์ ๊ฑฐ์ณ ๊ฐ์ ธ์ค๊ธฐ ๋๋ฌธ์ vector quantization์ (codebook์ ๋ํ ์ค๋ช ์ ์ด ๋ธ๋ก๊ทธ ํฌ์คํ ์ฐธ๊ณ )
- Posterior์ prior๊ฐ categorical distribution์
- ํ๊ฐ์ง ์๋ฌธ: K๋ image ์ํ ์์ ๊ฐ์์ง๊ฐ ๊ถ๊ธํจ
- Forward pass: ์์์ ๋งํ๋๋ก codebook์์ ์ ์ฌํ embedding์ ๊ฐ์ ธ์์ decoder์ feed forward
- Backward pass: decoder๋ ๊ทธ๋๋ก backward propagation ์ํํ๋๋ฐ, codebook์์ embedding ๊ณ ๋ฅด๋ ๋ถ๋ถ์ argmin์ ์ํด backprop ๋ ์ ์๊ธฐ ๋๋ฌธ์, decoder์ gradient๋ฅผ encoder ๋๋จ์ ๊ทธ๋๋ก ๊ฐ์ ธ์ด
- Loss: (encoder-decoder์ ๋ํ reconstruction error) + (codebook embedding์ด encoder output๊ณผ ์ ์ฌํด์ง๋๋ก ๋๋ l2 loss) + (encoder output์ด codebook embedding๊ณผ ์ ์ฌํด์ง๋๋ก ๋๋ l2 loss)
๐ค ML & DL
2023.05.12
Meta์์ 5์ 9์ผ์ ๋ฐํํ ImageBind์ ๋ํด์ ๊ธฐ๋กํฉ๋๋ค.
- 6 mocailities(Image/Video, Text, Heatmap, Depth, Audio, IMU)๋ก ํ์ต๋ ๋ชจ๋ธ์ด one modaility specialist model์ ์ฑ๋ฅ์ ๋๊น
- ํนํ, ์ด ๋ฟ๋ง ์๋๋ผ ์ฌ๋ฌ modality ๊ธฐ๋ฐ์ผ๋ก ๋ค๋ฅธ modality๋ก์ ์ ์ด, ์๋ฅผ ๋ค์ด audio ๊ธฐ๋ฐ์ผ๋ก image ์์ฑ ๋ฑ์ multi-modality ์ฐ๊ตฌ๋ก ํ์ฅ ๊ฐ๋ฅ
- Cross-modal retrieval, embedding-space arithmetic, audio-to-image generation ๋ฑ ๊ฐ๋ฅ
- ์ต๊ทผ Meta์ open source AI tool๋ค์ ์งํฉ์ฒด์. DINO v2, SAM ๋ฑ์ ํฌํจํ๊ณ ์์
- For the four additional modalities (audio, depth, thermal, and IMU readings), ImageBind use naturally paired self-supervised data. ์ฆ, image ํน์ video๋ฅผ ๋ค๋ฅธ modaility์ pair ์ํด์ผ๋ก์จ 6๊ฐ์ modality๋ฅผ ๋ชจ๋ combine ํ ์ ์๋ค๋ ๊ฒ์ ImageBind๊ฐ ๋ณด์
๐ค ML & DL
2023.05.15
ViT์ CNN์ ๋ํ ๋น๊ต: How Do Vision Transformers Work?
- ViT ์ฆ, Multi-head Self Attention(MSA)์ shape(structure) biased = low-pass filter
- ResNet ์ฆ, ConvNet์ texture biased = high-pass filter
CL ViT์ MIM ViT์ ๋ํ ๋น๊ต: What Do Self-Supervised Vision Transformers Learn?
- CL: self-attentions collapse into homogeneity ๋ฐ์ / utilizes the low-frequency signals / a crucial role in the later layers
- MIM: utilizes high-frequency signals / focuses on the early layers
๐ค ML & DL
2023.05.20
- Hyper-parameter tuning ๊ณ ๋ฏผ: shell script ์ง์ ๋ฏธ๋ฆฌ ์ ํ rule์ ๋ฐ๋ผ ์คํ ์ต์ ์ฌ๋ฌ ๊ฐ ๋๋ฆฌ๊ณ , wandb runs์์ ์ํ๋ options๋ค๋ง ๋์์ ํ ํํ๋ก ๋ณด๋๊ฒ ์ ์ผ ํธ๋ฆฌํ๋ฏ
๐ค ML & DL
2023.05.20
์๋น์ค ๊ฐ๋ฅํ AI๋ ์ด๋ค ๊ธฐ์ค์ผ๋ก ๊ฒฐ์ ๋๋์ง์ ๋ํ ์ง๋ฌธ์ ๋ํด ChatGPT๊ฐ ๋ต๋ณํ ๋ด์ฉ. ์ถฉ๋ถํ ๊ณ ๋ฏผํด๋ณผ๋งํ ๋ด์ฉ์ธ ๊ฒ ๊ฐ์ ๊ธฐ๋กํจ
- Define requirements: Clearly identify the specific tasks or problems the AI model needs to address. Determine the desired input-output behavior, performance metrics, scalability, and any other relevant criteria.
- Training and validation data: The data should cover various scenarios that the AI model will encounter in real-world usage.
- Model selection: Consider factors like the model's architecture, complexity, size, computational requirements, and availability of resources.
- Model evaluation: Common metrics include accuracy, precision, recall, F1 score, or domain-specific metrics relevant to the task.
- Testing and validation: Deploy the AI model in a controlled or limited production environment. Validate its performance against real-world data or simulated scenarios, including edge cases and corner cases.
- Iterative improvement: Continuously monitor and evaluate the AI model's performance in a live or simulated environment. Collect user feedback and address any issues or limitations through iterative updates, such as fine-tuning, retraining, or architecture modifications.
- Ethical considerations: Evaluate the AI model's compliance with ethical guidelines, privacy requirements, and legal regulations.
- Scalability and resource requirements: Assess the AI model's scalability and resource demands, such as computing power, memory, or network bandwidth.
- Robustness and reliability: Test the AI model's robustness by subjecting it to adversarial attacks, noisy or incomplete data, or other challenging conditions. Assess its reliability by measuring its performance over an extended period, considering factors like model drift or degradation.
- Cost considerations: Evaluate the total cost of deploying and maintaining the AI model, including infrastructure, licensing, data storage, and ongoing support. Consider the model's value proposition and its impact on productivity, efficiency, or revenue generation.
๐ค ML & DL
DINO์ DINO v2์ ๋ํด์ ๊ฐ๋จํ ์ ๋ฆฌํฉ๋๋ค.
- Self-supervised ViT์ ํน์ง: scene layout ๊ฒฝ๊ณ ํ์ ์ํ๋ฉฐ, feature๋ง ๊ฐ์ง๊ณ k-NN classifier ๋ง๋ค์ด๋ ์ฑ๋ฅ ์ข์
- ๋ค๋ง k-NN classifier ์ฑ๋ฅ ์ํด์๋, momentum encoder, multi-crop augmentation, small patches๊ฐ ์๊ตฌ๋๋ ๊ฒ ๋ฐ๊ฒฌ
- DINO: momentum encoder ๊ธฐ๋ฐ BYOL ๋ฐฉ์ ์ฐจ์ฉ. ์ฌ๊ธฐ์ loss ์์ ์กฐ๊ธ ์ฐจ์ด ๊ฐ์ง๊ณ , teacher-student ๊ตฌ์กฐ ๋์ผํจ
- DINO v2: Image level๋ก๋ ์๋ก ๋ค๋ฅธ ์ด๋ฏธ์ง ๊ตฌ๋ถ, patch level ๊ฐ์ ์ด๋ฏธ์ง ๋ด ์๋ก ๋ค๋ฅธ patch ๊ตฌ๋ถ. ์ด ์ธ์๋ ๋ง์ ์์ โํ๋ฆฌํฐ ์ข์โ ๋ฐ์ดํฐ์ ๋น ๋ฅด๊ณ ํจ์จ์ ์ธ ํ์ต ๋ฐฉ๋ฒ ์ ์
๐งฉ ML library
2023.08.12
-
Apache Arrow: ์ง๋ ฌํ์ ์ญ์ง๋ ฌํ์ ์ค๋ฒํค๋๊ฐ ๋๋ค๋ ๊ฒ์ ๋ฐ์ดํฐ ๋ค๋ฃฐ ๋ ์์ฃผ ๋ฐ์ํ๋ ๋ฌธ์ ์ ์. Apach Arrow๋ ์ง๋ ฌํ ๊ณผ์ ์ด ์๋ zero-copy read๊ฐ ๊ฐ๋ฅํ๋ฐ, ์ผ๋ฐ์ ์ธ ๋ฐฉ๋ฒ์ธ ๊ฐ์ฒด๋ฅผ ๊ฐ์ง๊ณ ์์ ํ๋ ๋ฐฉ์์ด ์๋ ์ง๋ ฌํ๋ ๋ฐ์ดํฐ ์์ฒด๋ฅผ ๊ฐ์ง๊ณ ์์ ํ๊ธฐ ๋๋ฌธ์ ์ด๊ฒ์ด ๊ฐ๋ฅ
- Main purpose: Language-independent open standards and libraries to accelerate and simplify in-memory computing
- Huggingface datasets w. arrow: ์์์ ์ธ๊ธํ ๊ฒ ์ฒ๋ผ Arrow๋ ๋ง์ ์์ ๋ฐ์ดํฐ์ ๋ํ ์ฒ๋ฆฌ์ ์ด๋์ ๋น ๋ฅด๊ฒ ๊ฐ๋ฅํ๊ฒ ํจ (Arrow format์ zero-copy read ๊ฐ๋ฅํ๊ธฐ์ ์ง๋ ฌํ ์ค๋ฒํค๋๋ฅผ ์์ ์ฃผ๊ธฐ ๋๋ฌธ). ๋ฐ๋ผ Huggingface datasets์ arrow ํ์ฉํจ. ๋ํ column-oriented์ด๊ธฐ ๋๋ฌธ์ querying์ด๋ slicing ๋ฑ ์ฒ๋ฆฌ ์๋ ๋น ๋ฆ
๐งฉ ML library
2024.05.30
๐ค ML & DL
2024.08.05
Attention
- Attention: Scaled dot-product attention mechanism์ ์์ ์๋์ ๊ฐ์ต๋๋ค. Query์ key ์ฌ์ด์ ์ ์ฌ๋๋ฅผ ๊ตฌํ๊ณ , ํด๋น ์ ์ฌ๋๋ฅผ key์ ๋งตํ๋์ด์๋ ๊ฐ value์ ๋ฐ์ํ๋ ๋ฐฉ์์ ๋๋ค. Self-attention์ด๋ผ๊ณ ํ๋ค๋ฉด, (1) ์ ๋ ฅ์ด Wq, Wk, Wv matrix๋ฅผ ๊ฐ๊ฐ ๊ฑฐ์ณ์ query, key, value embedding์ผ๋ก ๋ณํ๊ณ (2) ํด๋น query, key, value embedding ๊ฐ attention์ ์ํํ๊ฒ ๋ฉ๋๋ค.
- Multi-Head Attention (MHA): Attention์ ํ๋๊ฐ ์๋ ์ฌ๋ฌ ๊ฐ ์ฌ์ฉํจ์ผ๋ก์จ ์ ๋ ฅ ๋ฐ์ดํฐ์ ๋ค์ํ subspace์์์ ๋ฌธ๋งฅ ์ ๋ณด๋ฅผ ํฌ์ฐฉํ๊ณ ๋ณต์กํ ํจํด์ ๋ ์ ์ดํดํ ์ ์๋๋ก ๋์ต๋๋ค. ํ๋ฒ์ attention ์ฐ์ฐ์ ์ํด ๊ฐ๊ฐ ํ๋์ query, key, value head๊ฐ ํ์ํ๋ฏ๋ก, H๋ฒ์ ์ฐ์ฐ์ ์ํด์๋ ๊ฐ H๊ฐ์ query, key, value head๊ฐ ํ์ํฉ๋๋ค.
- Multi-Query Attention (MQA): MQA๋ key, value head๋ฅผ ์ค๋ก์ง ํ๋๋ง ๋๋ ๋ณํ์ ๋๋ค.
- Grouped-Query Attention (GQA): GQA๋ H๊ฐ์ query๋ฅผ G๊ฐ์ ๊ทธ๋ฃน์ผ๋ก ๋๋์ด ์ดํ ์ ์ฐ์ฐ์ ์ํํฉ๋๋ค. GQA-G๋ G group์ key, value head๋ฅผ ๊ฐ์ง๋๋ฐ, ๋ฐ๋ผ์ GQA-H๋ MHA์ ๋์ผํ๊ณ GQA-1์ MQA์ ๋์ผํ๊ฒ ๋ฉ๋๋ค. MHA์ ์ฒดํฌํฌ์ธํธ๋ฅผ GQA์ ์ฒดํฌํฌ์ธํธ๋ก ๋ณํํ๊ธฐ ์ํด์, ๊ฐ ๊ทธ๋ฃน์ ์ํ๋ ๊ธฐ์กด head๋ฅผ mean pooling ํ์ฌ ์๋ก์ด key, value head๋ฅผ ๋ง๋ญ๋๋ค. GQA๋ MQA๋งํผ ๋น ๋ฅด๋ฉด์๋ MHA ์ฑ๋ฅ์ ๊ทผ์ ํฉ๋๋ค.
Pre-Training
- Mixture of Experts (MoE): ์ฌ๋ฌ ์ ๋ฌธ๊ฐ ์๋ธ๋คํธ์ํฌ๊ฐ ๋ฐ์ดํฐ์ ๋ค๋ฅธ ์ธก๋ฉด์ ํนํ๋๋๋ก ํ์ตํฉ๋๋ค. ์ถ๋ก ์ค์๋ ์ด๋ฌํ ์ ๋ฌธ๊ฐ ์ค ์ผ๋ถ๋ง ํ์ฑํ๋์ด ๊ณ์ฐ ๋ถ๋ด์ ์ค์ด๋ฉด์๋ ๋์ ์ฑ๋ฅ์ ์ ์งํฉ๋๋ค.
- Mixture of Depth (MoD): ํ์ต ๋ฐ ์ถ๋ก ์ค ๋ชจ๋ธ์ ๊น์ด๋ฅผ ๋์ ์ผ๋ก ์กฐ์ ํ๋ ์ ๊ทผ ๋ฐฉ์์ ๋๋ค.
Instruction Tuning
- Multi-Turn Instructions: Multi-Turn Instructions๋ ์ฌ๋ฌ ๋ํ ํด์ ๊ฑธ์ณ ์๋ต์ ์ดํดํ๊ณ ์์ฑํ๋ ๋ชจ๋ธ์ ํ์ต์ํค๋ ๊ฒ์ ํฌํจํฉ๋๋ค. ์ด ํ๋ ๋ฐฉ๋ฒ์ ๋ชจ๋ธ์ด ํ์ฅ๋ ์ํธ์์ฉ ๊ณผ์ ์์ ๋ฌธ๋งฅ๊ณผ ์ผ๊ด์ฑ์ ์ ์งํ ์ ์๋ ๋ฅ๋ ฅ์ ํฅ์์์ผ ์ฑ๋ด๊ณผ ๊ฐ์ ํ๋ก๊ทธ๋จ์ ์ ์ฉํฉ๋๋ค.
- Instruction Following: Instruction Following์ ์ฃผ์ด์ง ์ง์ ์ฌํญ์ ์ดํดํ๊ณ ์คํํ๋ ๋ชจ๋ธ์ ํ์ต์ํค๋ ๊ณผ์ ์ ๋๋ค. ์ด ๊ธฐ์ ์ ๋ชจ๋ธ์ด ๋ณต์กํ ์ง์๋ฅผ ์ ํํ๊ฒ ๋ฐ๋ฅผ ์ ์๋ ๋ฅ๋ ฅ์ ํฅ์์ํค๋ ๋ฐ ์ค์ํ์ฌ, ์ ๋ฐํ๊ณ ์ ๋ขฐํ ์ ์๋ ์์ ์๋ฃ๋ฅผ ์๊ตฌํ๋ ์์ฉ ํ๋ก๊ทธ๋จ์์ ๋ ์ ์ฉํฉ๋๋ค.
Alignment
-
Reinforcement Learning from Human Feedback
- Initial Training of the Language Model (Pre-training): ๋จผ์ , LLM์ ์ผ๋ฐ์ ์ผ๋ก ๋๋์ ํ ์คํธ ๋ฐ์ดํฐ๋ก ์ฌ์ ํ์ต(pre-training)๋ฉ๋๋ค. ์ด ๋จ๊ณ์์๋ ์ธ์ด ๋ชจ๋ธ์ด ์ธ์ด์ ํต๊ณ์ ํจํด์ ํ์ตํ๊ณ , ๋ค์ํ ํ ์คํธ ์์ฑ ๋ฐ ์ดํด ๋ฅ๋ ฅ์ ๊ฐ์ถ๊ฒ ๋ฉ๋๋ค.
- Supervised Fine-tuning: LLM์ด ์ฌ์ ํ์ต๋ ํ, ์ฃผ๋ก ์ธ๊ฐ์ด ๋ ์ด๋ธ๋งํ ๋ฐ์ดํฐ์ ์ ์ฌ์ฉํ์ฌ ๋ชจ๋ธ์ ํน์ ์์ ์ ๋ง๊ฒ ๋ฏธ์ธ ์กฐ์ ํฉ๋๋ค. ์ด ๋จ๊ณ๋ ๋ชจ๋ธ์ด ํน์ ํ์์ ์ง๋ฌธ์ ๋๋ตํ๊ฑฐ๋ ํน์ ์คํ์ผ๋ก ๊ธ์ ์์ฑํ๋ ๋ฑ ํน์ ์์ ์ ๋ ์ ์ํํ๋๋ก ํฉ๋๋ค.
- Collecting Human Feedback: ๋ชจ๋ธ์ด ์ด๋ ์ ๋ ์ฑ๋ฅ์ ๊ฐ์ถ๊ฒ ๋๋ฉด, ์์ฑ๋ ํ ์คํธ์ ๋ํด ์ธ๊ฐ์ผ๋ก๋ถํฐ ํผ๋๋ฐฑ์ ์์งํฉ๋๋ค. ํผ๋๋ฐฑ์ ์ผ๋ฐ์ ์ผ๋ก ํ ์คํธ์ ํ์ง, ์ ํ์ฑ, ๊ด๋ จ์ฑ ๋ฑ์ ํ๊ฐํ๋ ํํ๋ก ์ ๊ณต๋ฉ๋๋ค. ์ด ๋ฐ์ดํฐ๋ฅผ ์ฌ์ฉํ์ฌ reward model์ ํ์ตํฉ๋๋ค.
- Training the Reward Model: ์์ง๋ ์ธ๊ฐ ํผ๋๋ฐฑ ๋ฐ์ดํฐ๋ฅผ ๊ธฐ๋ฐ์ผ๋ก reward model์ ํ์ตํฉ๋๋ค. ์ด ๋ชจ๋ธ์ ์ฃผ์ด์ง ํ ์คํธ์ ๋ํด ์ ์๋ฅผ ๋งค๊ธฐ๋ฉฐ, ํ ์คํธ์ ํ์ง์ด๋ ์ฌ์ฉ์ ์๋์์ ์ผ์น๋๋ฅผ ํ๊ฐํฉ๋๋ค.
- Reinforcement Learning (RL) Fine-tuning: ํ์ต๋ reward model์ ์ฌ์ฉํ์ฌ LLM์ ๊ฐํ ํ์ต(Reinforcement Learning) ๋ฐฉ์์ผ๋ก ๋ฏธ์ธ ์กฐ์ ํฉ๋๋ค. ์ด ๋จ๊ณ์์ ์ฃผ๋ก ์ฌ์ฉํ๋ ์๊ณ ๋ฆฌ์ฆ์ Proximal Policy Optimization (PPO)์ ๋๋ค. ๋ค์๊ณผ ๊ฐ์ ์ ์ฐจ๋ก ์งํ๋ฉ๋๋ค:
- Policy Generation: ํ์ฌ LLM์ ์ฌ์ฉํ์ฌ ํ ์คํธ๋ฅผ ์์ฑํฉ๋๋ค.
- Reward Evaluation: ์์ฑ๋ ํ ์คํธ๋ฅผ reward model์ ํตํด ํ๊ฐํ์ฌ ๋ณด์(reward)์ ๊ณ์ฐํฉ๋๋ค.
- Policy Update: ๋ณด์์ ์ต๋ํํ๋๋ก LLM์ ํ๋ผ๋ฏธํฐ๋ฅผ ์ ๋ฐ์ดํธํฉ๋๋ค. ์ด ๊ณผ์ ์์ PPO ์๊ณ ๋ฆฌ์ฆ์ ์ฌ์ฉํ์ฌ ์์ ์ ์ผ๋ก ์ ์ฑ ์ ์ต์ ํํฉ๋๋ค.
- Iterative Improvement: ๊ฐํ ํ์ต์ ํตํด ๋ชจ๋ธ์ด ์ง์์ ์ผ๋ก ๊ฐ์ ๋ฉ๋๋ค. ํ์ํ๋ฉด ๋ ๋ง์ ์ธ๊ฐ ํผ๋๋ฐฑ์ ์์งํ์ฌ reward model์ ์ ๋ฐ์ดํธํ๊ณ , ์ด๋ฅผ ๋ค์ LLM์ ๊ฐํ ํ์ต์ ๋ฐ์ํ์ฌ ๋ชจ๋ธ์ ๋ฐ๋ณต์ ์ผ๋ก ํฅ์์ํฌ ์ ์์ต๋๋ค.
- Direct Preference Optimization:
Decoding Strategies
- Greedy Search: Greedy search๋ ๋ชจ๋ธ์ด ๊ฐ ๋จ๊ณ์์ ๊ฐ์ฅ ๋์ ํ๋ฅ ์ ํ ํฐ์ ์ ํํ๋ ๋จ์ํ ๋์ฝ๋ฉ ์ ๋ต์ ๋๋ค. ๋น ๋ฅด๊ณ ์ง๊ด์ ์ด์ง๋ง ๋ฏธ๋์ ๊ฐ๋ฅ์ฑ์ ๊ณ ๋ คํ์ง ์์ ์ต์ ์ ๊ฒฐ๊ณผ๋ฅผ ๋์น ์ ์์ต๋๋ค.
- Beam Search: Beam search๋ ๊ฐ ๋จ๊ณ์์ ์ฌ๋ฌ ํ๋ณด ์ํ์ค(๋น)๋ฅผ ์ ์งํ๋ ๋ ์ ๊ตํ ๋์ฝ๋ฉ ์ ๋ต์ ๋๋ค. ์ฌ๋ฌ ๊ฒฝ๋ก๋ฅผ ๋์์ ํ์ํจ์ผ๋ก์จ ๊ทธ๋ฆฌ๋ ์์น๋ณด๋ค ๋ ์ต์ ์ ์๋ฃจ์ ์ ์ฐพ์ ๊ฐ๋ฅ์ฑ์ด ๋์์ง์ง๋ง, ๊ณ์ฐ ๋น์ฉ์ด ๋ ๋ง์ด ๋ญ๋๋ค.
- Top-k Sampling: Top-k ์ํ๋ง์ ๋ชจ๋ธ์ด ๋ค์ ํ ํฐ์ ์์ k๊ฐ์ ๊ฐ์ฅ ํ๋ฅ ์ด ๋์ ํ๋ณด ์ค์์ ์ ํํ๋ ํ๋ฅ ์ ๋์ฝ๋ฉ ์ ๋ต์ ๋๋ค. ์ด ๋ฐฉ๋ฒ์ ๋ค์์ฑ์ ๋์ ํ๊ณ ๋ฐ๋ณต์ ์ด๊ฑฐ๋ ๊ฒฐ์ ๋ก ์ ์ธ ์ถ๋ ฅ์ ์ค์ฌ, ์์ฑ๋ ํ ์คํธ์ ์์ฐ์ค๋ฌ์๊ณผ ๋ค์์ฑ์ ํฅ์์ํต๋๋ค.
- Top-p Sampling: Top-p ์ํ๋ง(๋ํด๋ฆฌ์ด์ค ์ํ๋ง)์ ๋์ ํ๋ฅ ์ด ํน์ ์๊ณ๊ฐ p๋ฅผ ์ด๊ณผํ๋ ๊ฐ์ฅ ์์ ํ๋ณด ์งํฉ์์ ๋ค์ ํ ํฐ์ ์ ํํฉ๋๋ค. ์ด ๋ฐฉ๋ฒ์ ์ํ๋ง ํ์ ๋์ ์กฐ์ ์ ๊ฐ๋ฅํ๊ฒ ํ์ฌ, ์์ฑ๋ ํ ์คํธ์ ๋ค์์ฑ๊ณผ ์ผ๊ด์ฑ ์ฌ์ด์ ๊ท ํ์ ๋ง์ถฅ๋๋ค.
Efficient Tuning
- Low-Rank Adaptation: pretrained model weight๋ฅผ ๋ชจ๋ freeze ํ ๋ค์, downstream task fine-tuning์ ์ํ rank decomposition matrice๋ฅผ ์ถ๊ฐํ์ฌ ํจ์จ์ fine-tuning์ ์ํํฉ๋๋ค.
References
-
Wikipedia contributors. (2021, April 12). Moment (mathematics). In Wikipedia, The Free Encyclopedia. Retrieved 12:08, May 24, 2021, from https://en.wikipedia.org/w/index.php?title=Moment_(mathematics)&oldid=1017468752
โฉ -
JinWon Lee - PR-317: MLP-Mixer: An all-MLP Architecture for Vision. https://www.youtube.com/watch?v=KQmZlxdnnuY
โฉ -
JoonYoung Yi - Slideshare, Dynamically Expandable Network (DEN). https://www.slideshare.net/ssuser62b35f/180808-dynamically-expandable-network
โฉ -
Wikipedia contributors. (2021, August 1). Signed distance function. In Wikipedia, The Free Encyclopedia. Retrieved 00:41, November 14, 2021, from https://en.wikipedia.org/w/index.php?title=Signed_distance_function&oldid=1036639454
โฉ -
Park, Jeong Joon, et al. "Deepsdf: Learning continuous signed distance functions for shape representation." Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2019.
โฉ -
1.3.6.1.What is a Probability Distribution., NIST/SEMATECH e-Handbook of Statistical Methods, http://www.itl.nist.gov/div898/handbook/, December 2, 2021.
โฉ -
Olivier Moindrot. "Triplet Loss and Online Triplet Mining in TensorFlow". https://omoindrot.github.io/triplet-loss, Mar 19, 2018.
โฉ -
Wikipedia contributors. (2022, April 27). MooreโPenrose inverse. In Wikipedia, The Free Encyclopedia. Retrieved 06:08, May 16, 2022, from https://en.wikipedia.org/w/index.php?title=Moore%E2%80%93Penrose_inverse&oldid=1085006448
โฉ -
https://github.com/onnx/onnx/blob/main/docs/Overview.md
โฉ -
Mermillod, Martial, Aurรฉlia Bugaiska, and Patrick Bonin. "The stability-plasticity dilemma: Investigating the continuum from catastrophic forgetting to age-limited learning effects." Frontiers in psychology 4 (2013): 504.
โฉ