π NLP: Natural Language Processing
μμ°μ΄λ₯Ό μ²λ¦¬νλ λΆμΌ, μ°λ¦¬μ λ§μ μ»΄ν¨ν°μκ² μ΄ν΄μν€κΈ° μν λΆμΌλ₯Ό μλ―Έν©λλ€. μμ°μ΄λ μ΄μμλ μΈμ΄μ΄λ©° κ·Έ μμλ 'λΆλλ¬μ'μ΄ μμ΅λλ€.
π 'λ¨μ΄μ μλ―Έ'λ₯Ό μ νμ νλ ννλ°©λ²
- μμλ¬μ€(Thesaurus, μ μμ΄ μ¬μ ) νμ©
- λ¨μ΄ λ€νΈμν¬(μ¬λμ μμΌλ‘ λ§λ μ μμ΄ μ¬μ )λ₯Ό μ΄μ©νλ λ°©λ²μ΄λ€. λ¨μ΄ μ¬μ΄μ 'μμμ νμ' νΉμ 'μ 체μ λΆλΆ' λ± λ μΈμΈν κ΄κ³κΉμ§ μ μν΄λλ€. ex. Car = auto, automobile, machine, motorcar
- λνμ μΈ μμλ¬μ€λ WordNet(NLTK λͺ¨λ)μ΄ μ‘΄μ¬νλ€.
- Cons: μ¬λμ΄ μμμ μΌλ‘ λ μ΄λΈλ§νλ λ²κ±°λ‘μ/μλ λ³νμ λμνκΈ° μ΄λ ΅λ€./λ¨μ΄μ λ―Έλ¬ν μ°¨μ΄λ₯Ό ννν μ μλ€.
- λ§λμΉ(Corpus) νμ©ν ν΅κ³ κΈ°λ° κΈ°λ²: λλμ ν μ€νΈ λ°μ΄ν°λ₯Ό νμ©νλ λ°©λ². μ¦, λ¬Έμ₯λ€μμ μλμΌλ‘ ν¨μ¨μ μΌλ‘ ν΅μ¬μ μΆμΆνλ λ°©μ
- μΆλ‘ κΈ°λ° κΈ°λ²
μ΄ μ€μμ ν΅κ³ κΈ°λ° κΈ°λ²κ³Ό μΆλ‘ κΈ°λ° κΈ°λ²μ΄ μ±κ³΅μ μΈ κΈ°λ²μ λλ€. μ΄ λμ λΆμ° κ°μ€μ λ°νμΌλ‘ λΆμ° ννμ νκ³ μ ν©λλ€.
- λΆμ° νν(Distributional representation): λ¨μ΄μ μλ―Έλ₯Ό μ ννκ² νμ ν μ μλ λ²‘ν° νν
- λΆν¬ κ°μ€(Distributional hypothesis, λ¨μ΄μ μλ―Έλ μ£Όλ³ λ¨μ΄μ μν΄ νμ±λλ€λ κ°μ€)
π λ§λμΉ(Corpus) νμ©ν ν΅κ³ κΈ°λ° κΈ°λ²
λλμ ν μ€νΈ λ°μ΄ν°λ₯Ό νμ©νλ λ°©λ². μ¦, λ¬Έμ₯λ€μμ μλμΌλ‘ ν¨μ¨μ μΌλ‘ ν΅μ¬μ μΆμΆνλ λ°©μ (λνμ μΈ λ°μ΄ν°μ : Penn Tree Bank)
- λΆν¬ κ°μ€μ λ°νμΌλ‘ λμλ°μ νλ ¬(Co-occurance matrix, λ¨μ΄μ λν΄ λμ λ°μνλ λ¨μ΄λ₯Ό νλ ¬λ‘ μ 리)μ ꡬμ±νμ¬ λ¨μ΄λ₯Ό 벑ν°λ‘ νννλ€.
- 벑ν°(λ¨μ΄) μ¬μ΄μ μ μ¬λ(ex. μ½μ¬μΈ μ μ¬λ)λ₯Ό κ΅¬ν΄ νλ ¬μ SVDλ₯Ό μ μ©νμ¬ λ°μ§λ²‘ν°(λ¨μ΄μ λΆμ° νν)μ μ»λ λ°©λ²μ΄ μ‘΄μ¬νλ€.
- μΆκ°. μ λ³ μνΈμ 보λ(Pointwise Mutual Information, PMI), μμ μνΈμ 보λ(Positive PMI, PPMI)
- Cons: λκ·λͺ¨ λ§λμΉλ₯Ό λ€λ£° λ νλ ¬μ κ³μ°νλ λ°©μμμ Computation complexityκ° μμ²λκ² λ°μνλ€.
π λνμ μΈ μΆλ‘ κΈ°λ° κΈ°λ², Word2Vec
λ§₯λ½μ μ λ ₯νλ©΄ λͺ¨λΈμ κ° λ¨μ΄μ μΆν νλ₯ μ μΆλ ₯νλ€.
- λ¨μ΄λ₯Ό κ³ μ κΈΈμ΄μ 벑ν°λ‘ λ³ννκΈ° μν΄ μν« λ²‘ν°λ‘ λ³ννλ€.
- μ κ²½λ§μ ν΅ν΄ λ¨μ΄λ₯Ό μ²λ¦¬νλ€.
π Word2vecμμ μ μνλ CBOW λͺ¨λΈ
λ§₯λ½μΌλ‘λΆν° νκΉμ μΆμΈ‘νλ μ©λμ μ κ²½λ§
- λ§₯λ½: μ£Όλ³ λ¨μ΄, νκΉ: μ€μ λ¨μ΄ --> λ§₯λ½μ μν« ννμΌλ‘ λ³ννμ¬ CBOW λͺ¨λΈμ΄ λ¨μ΄λ₯Ό μΆλ‘ νλ€.
- Loss function(NLL)
π Word2vecμμ μ μνλ skip-gram λͺ¨λΈ
CBOWμμ λ€λ£¨λ λ§₯λ½κ³Ό νκΉμ μμ μν¨ λͺ¨λΈλ‘ μ€μμ λ¨μ΄(νκΉ)μΌλ‘λΆν° μ£Όλ³μ μ¬λ¬ λ¨μ΄(λ§₯λ½)μ μΆμΈ‘νλ€.
- λ§₯λ½: μ£Όλ³ λ¨μ΄, νκΉ: μ€μ λ¨μ΄ --> λ§₯λ½μ μν« ννμΌλ‘ λ³ννμ¬ CBOW λͺ¨λΈμ΄ λ¨μ΄λ₯Ό μΆλ‘ νλ€.
- Loss function(NLL)
π RNN Models
- One-to-one
- One-to-many
- Many-to-one
- Many-to-many
'AI, Deep Learning Basics > NLP' μΉ΄ν κ³ λ¦¬μ λ€λ₯Έ κΈ
[CS182 Sergey Levine] Deep Learning - NLP Basics (0) | 2022.04.19 |
---|---|
[NLP] 4. Modern Recurrent Neural Networks: Seq2Seq (0) | 2022.02.12 |
[NLP] 3. Modern Recurrent Neural Networks: GRU, LSTM (0) | 2022.02.05 |
[NLP] 2. RNN Basics: Language Model (0) | 2022.02.01 |
[NLP] RNN μμ λ‘ μ΄ν΄λ³΄λ RNN λ§λ³΄κΈ° (0) | 2019.09.10 |