반응형 ML & DL73 [밑시딥2] CHAPTER 2 자연어와 단어의 분산 2.1 자연어 처리란 자연어: 한국어와 영어 등 우리가 평소에 쓰는 말 (부드러운 언어) 인공어: 프로그래밍 언어, 마크업 언어 등 (딱딱한 언어) 자연어 처리: ‘자연어를 처리하는 분야’ = 우리의 말을 컴퓨터에게 이해시키기 위한 기술 2.1.1 단어의 의미 단어는 의미를 가지는 말의 최소 단위이다. 따라서 자연어를 컴퓨터에게 이해시키는 첫 단계는 ‘단어의 의미’를 이해시키는 것이다. 세 가지 기법 시소러스를 활용한 기법: 시소러스(유의어 사전)을 이용 통계 기반 기법: 통계 정보로부터 단어를 표현 추론 기반 기법: 구체적으로는 word2vec (3장) 2.2 시소러스 이렇게 모든 단어에 대한 유의어 집합을 만든 다음, 단어들의 관계를 그래프로 표현하여 단어 사이의 연결을 정의한다. 이 ‘단어 네트워크.. 2023. 7. 5. [밑시딥2] CHAPTER 1 신경망 복습 1.1 수학과 파이썬 복습 1.1.1 벡터와 행렬 수학과 딥러닝 등 많은 분야에서 '열벡터' 방식을 선호하지만, 이 책에서는 구현 편의를 고려해 '행벡터'로 다룬다. 1.1.2 행렬의 원소별 연산 다차원 배열들에서 서로 대응하는 원소끼리 (각 원소가 독립적으로) 연산이 이뤄지는 것을 넘파이 배열의 '원소별 연산'이라고 한다. 1.1.3 브로드캐스트 1.1.4 벡터의 내적과 행렬의 곱 1.1.5 행렬 형상 확인 1.2 신경망의 추론 1.2.1 신경망 추론 전체 그림 1.2.2 계층으로 클래스화 및 순전파 구현 - 모든 계층은 forward()와 backward() 메서드를 가진다. - 모든 계층은 인스턴스 변수인 params 와 grads를 가진다. class Sigmoid: def __init__(sel.. 2023. 7. 3. [밑시딥1] CHAPTER 8 딥러닝 8.1 더 깊게 그동안 배운 기술을 집약하고 심층 신경망을 만들어서 MNIST데이터셋의 손글씨 숫자 인식에 도전해보자. 8.1.1 더 깊은 신경망으로 여기서 사용하는 합성곱 계층은 모두 3x3 크기의 작은 필터로, 층이 깊어지면서 채널 수가 더 늘어나는 것이 특징이다. 가중치 초깃값으로는 He 초깃값, 파라미터 갱신에는 Adam을 사용한다. 이 신경망의 정확도는 99.38%가 된다. 8.1.2 정확도를 더 높이려면 데이터 확장(data augmentation)은 입력 이미지를 알고리즘을 통해 인위적으로 확장하는 것이다. 위와 같은 변형 외에도 crip 이나 flip등이 있다. 밝기 변화, 확대, 축소도 효과적이다. 8.1.3 깊게 하는 이유 층을 깊게 할 때의 이점으로는 신경망의 파라미터 수가 줄어든다는.. 2023. 7. 3. [밑시딥1] CHAPTER 7 합성곱 신경망(CNN) CNN은 이미지 인식과 음성 인식 등 다양한 곳에서 사용되는데, 특히 이미지 인식 분야에서 딥러닝을 활용한 기법은 거의 다 CNN을 기초로 한다. 7.1 전체 구조 CNN에는 합성곱 계층(convolutional layer)과 풀링 계층(pooling layer)이 있다. 지금까지 본 신경망은 완전연결(fully-connected)이다. 이런 계층은 어파인 계층이라는 이름으로 구현했다. 위 완전연결 신경망은 Affine-ReLU 조합이 4개가 쌓였고, 마지막 5번째 층은 Affine계층에 이어 소프트맥스 계층에서 최종 결과(확률)를 출력한다. CNN에서는 합성곱 계층과 풀링 계층이 추가된다. CNN 계층은 'Conv-ReLU-(Pooling)' 흐름으로 연결된다(풀링 계층은 생략하기도 한다) 지금까지의 .. 2023. 6. 26. 이전 1 ··· 12 13 14 15 16 17 18 19 다음 반응형