일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- Spatial GNN
- PSNR
- zachary’s karate club
- GNN
- SSIM
- ARIMA
- PyTorch
- 대칭키
- 생성 모델
- ChatGPT
- Google Cloud
- 사회 네트워크 분석
- 생성 모델 평가
- public key
- DeepLearing.AI
- mode collapse
- cross-entropy
- Inductive Learning
- Spectral GNN
- posterior collapse
- session 미종료
- Transductive Learning
- Grad-CAM
- prompt engineering
- 이상 탐지
- python3
- deepseek
- GCP
- Vertex AI
- kl divergence
- Today
- Total
목록2025/10 (4)
데이터 과학 노트
PyTorch 구현 시 꼭 알아야 할 필수 함수 정리PyTorch는 딥러닝 모델 구현에 강력하고 유연한 기능을 제공합니다.이 문서는 모델 구현 시 자주 사용하는 핵심 함수들을 주제별로 정리한 참고용 자료입니다.1. 텐서(Tensor) 생성 및 변형기본 생성torch.tensor(data) # 파이썬 리스트나 넘파이 배열로부터 텐서 생성torch.zeros(size) # 0으로 채운 텐서torch.ones(size) # 1로 채운 텐서torch.randn(size) # 정규분포로 초기화된 텐서torch.arange(start, end) # 일정 간격으로 생성된 텐서torch.linspace(start, end, steps)변형 및..
Zachary’s Karate Club - 사회 네트워크 분석의 고전1970년대 초 미국의 한 대학 가라테 동아리에서 벌어진 작은 갈등이 오늘날 사회 네트워크 분석(Social Network Analysis) 의 대표적인 데이터셋이 되었다이 사건은 인류학자 Wayne W. Zachary 가 기록한 “Zachary’s Karate Club” 으로 불린다1. 연구의 배경Zachary는 1970년부터 1972년까지 약 2년 동안 한 대학의 가라테 동아리를 관찰했다그는 구성원들 간의 개인적 상호작용(우정 관계, 동아리 외 만남 등) 을 체계적으로 기록하여 하나의 사회 네트워크 그래프 로 모델링했다 이 네트워크는 사람(노드) 과 관계(엣지) 로 구성되어 있으며누가 누구와 자주 어울렸는지를 시각적으로 표현한다2...
GNN에서 Spectral과 Spatial의 차이그래프 신경망(Graph Neural Network, GNN)은 그래프 구조 데이터를 처리하기 위한 모델이다.크게 두 가지 접근 방식이 있다. Spectral 기반과 Spatial 기반이다.두 방식은 그래프의 정보를 다루는 관점이 다르다.1. Spectral GNN핵심 아이디어그래프를 주파수(스펙트럼) 영역에서 바라본다.그래프의 구조를 표현하기 위해 그래프 라플라시안(Laplacian Matrix) 을 이용한다.라플라시안은 대략 다음과 같이 정의된다.L = D - A(D: 차수 행렬, A: 인접 행렬)Spectral GNN은 이 라플라시안을 고유분해하여 그래프 신호를 푸리에 변환(Fourier Transform) 하고그 위에서 필터링(Convolution)..
1. KL Divergence란?KL Divergence (Kullback–Leibler Divergence)는 두 확률분포 P와 Q 사이의 차이를 측정하는 지표입니다.DKL(P‖Q) = Σ P(x) · log(P(x) / Q(x))이 값은 항상 0 이상이며, P = Q일 때만 0이 됩니다.즉, 모델 Q가 실제 분포 P를 얼마나 잘 근사하는지를 나타냅니다.KL Divergence는 대칭적이지 않기 때문에 거리(distance)가 아닌 발산(divergence)이라고 부릅니다.DKL(P‖Q) ≠ DKL(Q‖P)2. Entropy와 Cross-Entropy두 확률분포 P, Q가 있을 때 다음을 정의합니다.EntropyH(P) = - Σ P(x) · log P(x)→ 분포 P가 가진 내재적 불확실성을 의미합니..