(성익) Word2Vec에서 히든 레이어의 수는 정해져있는건가요? 좌표공간 차원수는 원-핫벡터 크기 아닌가요?
- (준호) hidden layer의 노드 수는 하이퍼파라미터라 관계없다. 그냥 feature의 차원 수
- (지원) 좌표 공간 차원수는 feature 수이고, 이건 원-핫벡터 사이즈랑 관계없음.
(성익) class와 label 차이?
- (준배) 클래스는 일종의 카테고리, label은 데이터에 대한 값
- (준호) 레이블링은 지도학습을 위한 ground truth를 지정해주는것이니까.. 데이터에 대한 classification 값이 label.
(성익) Word2Vec에서 Input vector와 output vector가 같다는게 무슨말인가요?
- (지원) Word embedding은 거리를 기준으로 관계도만 측정하는거기 때문에, Input vector만 사용하든 Output vector만 사용하든 상관없다.
(현우) 원-핫벡터에서 dimension이 뭔가요? 그냥 1차원 벡터아닌가요?
- (성익) 원-핫벡터는 컴퓨터가 알아듣도록 만드는 1차원 array일 뿐이고, 실제 의미는 공간좌표에서 해당 단어(점)의 위치.
- (준호) hidden layer에서 feature dimension과 같은 맥락.
- (지원) tensor에서의 괄호랑은 다른거죠?
- (성익) 저는 비슷하게 생각했는데, tensor도 결국 공간좌표상의 여러 점들을 모아놓은것 아닌가요?
- (준호) 원-핫 벡터의 차원이랑은 다른 느낌이긴 한거 같아요.
(성익) Loss Function, Cost Function, Objective Function 차이?
(성익) 역전파 과정 설명?