일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- session 미종료
- cross-entropy
- PyTorch
- SSIM
- ARIMA
- PSNR
- mode collapse
- 대칭키
- Inductive Learning
- python3
- GCP
- Spectral GNN
- Vertex AI
- GNN
- deepseek
- Transductive Learning
- 생성 모델
- Grad-CAM
- kl divergence
- prompt engineering
- zachary’s karate club
- Spatial GNN
- Google Cloud
- DeepLearing.AI
- 사회 네트워크 분석
- ChatGPT
- 이상 탐지
- public key
- posterior collapse
- 생성 모델 평가
- Today
- Total
목록Data Science (11)
데이터 과학 노트
Zachary’s Karate Club - 사회 네트워크 분석의 고전1970년대 초 미국의 한 대학 가라테 동아리에서 벌어진 작은 갈등이 오늘날 사회 네트워크 분석(Social Network Analysis) 의 대표적인 데이터셋이 되었다이 사건은 인류학자 Wayne W. Zachary 가 기록한 “Zachary’s Karate Club” 으로 불린다1. 연구의 배경Zachary는 1970년부터 1972년까지 약 2년 동안 한 대학의 가라테 동아리를 관찰했다그는 구성원들 간의 개인적 상호작용(우정 관계, 동아리 외 만남 등) 을 체계적으로 기록하여 하나의 사회 네트워크 그래프 로 모델링했다 이 네트워크는 사람(노드) 과 관계(엣지) 로 구성되어 있으며누가 누구와 자주 어울렸는지를 시각적으로 표현한다2...
GNN에서 Spectral과 Spatial의 차이그래프 신경망(Graph Neural Network, GNN)은 그래프 구조 데이터를 처리하기 위한 모델이다.크게 두 가지 접근 방식이 있다. Spectral 기반과 Spatial 기반이다.두 방식은 그래프의 정보를 다루는 관점이 다르다.1. Spectral GNN핵심 아이디어그래프를 주파수(스펙트럼) 영역에서 바라본다.그래프의 구조를 표현하기 위해 그래프 라플라시안(Laplacian Matrix) 을 이용한다.라플라시안은 대략 다음과 같이 정의된다.L = D - A(D: 차수 행렬, A: 인접 행렬)Spectral GNN은 이 라플라시안을 고유분해하여 그래프 신호를 푸리에 변환(Fourier Transform) 하고그 위에서 필터링(Convolution)..
1. KL Divergence란?KL Divergence (Kullback–Leibler Divergence)는 두 확률분포 P와 Q 사이의 차이를 측정하는 지표입니다.DKL(P‖Q) = Σ P(x) · log(P(x) / Q(x))이 값은 항상 0 이상이며, P = Q일 때만 0이 됩니다.즉, 모델 Q가 실제 분포 P를 얼마나 잘 근사하는지를 나타냅니다.KL Divergence는 대칭적이지 않기 때문에 거리(distance)가 아닌 발산(divergence)이라고 부릅니다.DKL(P‖Q) ≠ DKL(Q‖P)2. Entropy와 Cross-Entropy두 확률분포 P, Q가 있을 때 다음을 정의합니다.EntropyH(P) = - Σ P(x) · log P(x)→ 분포 P가 가진 내재적 불확실성을 의미합니..
Mode collapse와 posterior collapse는 모두 딥러닝 모델이 학습 과정에서 특정 모드에만 집중하는 현상을 말한다. 그러나 두 현상은 발생 원인과 결과가 다르다. Mode collapse는 주로 생성적 적대 신경망(Generative Adversarial Network, GAN)에서 발생하는 문제로, 생성자가 다양한 출력을 생성하는 대신 제한된 수의 특정한 출력만을 생성하는 현상이다. 생성자가 다양성을 표현하지 못하고 특정 패턴에 고정되는 문제다. Mode collapse의 발생 원인에는 데이터 분포의 불균형, 가중치 초기화 등의 원인이 있다. Posterior collapse 는 Variational Autoencoder (VAE) 에서 발생하는 문제다. 잠재 변수가 입력 데이터와 ..
본페로니 원리원리 소개본페로니 원리는 여러 개의 통계적 검정을 동시에 수행할 때 발생할 수 있는 거짓 양성(false positive, 제1종 오류)을 제어하는 기본적인 통계 원리입니다. 가설 검정 횟수가 많아지면 우연히 나오는 결과가 늘어나서 실제로 유의미한 결과가 아니더라도 잘못된 양성 결과가 나타나기 쉽습니다. 예를 들어 0.05 유의수준으로 20개의 검정을 동시에 수행하면 아무런 보정 없이도 약 64% 확률로 적어도 하나의 거짓 양성이 발생할 수 있습니다. 본페로니 원리는 이런 문제를 해결하기 위해 설계되었습니다.본페로니 원리의 직관적 개념은 “탐색 방법이 예상보다 훨씬 많은 결과를 반환한다면 그중 대부분은 통계적 착시일 것이다”라는 경고로 요약할 수 있습니다. 통계적 관점에서는 데이터가 완전히 ..

(deeplearning.ai) ChatGPT Prompt Engineering for Developers 강좌 정보 Instructors: Isa Fulford (@OpenAI), Andrew Ng (Stanford) 강좌 링크 (왼쪽) 주피터 노트북 / (오른쪽) 강좌 Introduction Two Types of Large Language Models (LLMs) Base LLM Predicts next word, based on text training data Instruction Tuned LLM Tries to follow instructions Fine-tune on instructions and good attempts at following those instructions RLHF: ..

Inductive Bias (Learning bias) 학습 시에 만나지 못한 상황에 대하여 더 좋은 예측을 하기 위해 사용하는 추가적인 가정 데이터를 일반화 할 수 있는 능력을 가진 기계 학습 알고리즘의 목표 함수를 학습하고 훈련하는 데이터를 넘어 일반화 하기 위한 가정 예시) MLP 에 위치, 공간 상의 가정이 추가되면 CNNThe inductive bias (also known as learning bias) of a learning algorithm is the set of assumptions that the learner uses to predict outputs of given inputs that it has not encountered. Inductive Bias 의 예시 Translat..
Gold label 정확하고 신뢰성이 높은 레이블로, 전문가나 사람이 직접 레이블을 지정 모델의 학습 + 성능을 평가하거나 벤치마킹할 때 사용 Silver label 덜 정확하거나 불확실성이 높은 레이블로, 자동화된 레이블링 시스템이나 보다 낮은 수준의 작업자 등이 지정 모델의 학습에 사용되지 않거나, 모델의 성능을 평가할 때 고려하지 않음 가능

PyTorch 2.0 torch.compile() 을 이용하여 연산 (operation) 단위를 전체 그래프로 묶어 더 빠르게 연산을 수행할 수 있다. 최적화 예시) 전체 그래프를 볼 수 있다면 다음 연산에서 output1 과 output2 를 concat 하는 연산이 있다면 concat 할 때 메모리 값을 옮기는 것이 아니라 처음에 output1 과 output2 를 만들때 concat 위치에 값을 쓴다. 전체 그래프를 볼 수 있다면 dependency 가 없는 값들을 funsion, 병렬 연산 등을 수행 할 수 있다. References https://discuss.pytorch.kr/t/pytorch-2-0/1252 https://youtu.be/bwjM20wR3dQ
가능도 (likelihood) 주어진 샘플 ($x$) 에 대한 모수 ($\theta$) 의 가능도 ($\mathcal{L}(\theta | x)$) 는 이 모수 ($\theta$) 를 따르는 분포 ($P_{\theta}(X)$) 가 주어진 관측값 ($x$) 에 대하여 부여하는 확률 정의 (위키) 확률 분포의 모수가, 어떤 확률변수의 표집값과 일관되는 정도를 나타내는 확률 확률 변수 $X$ 가 모수 $\theta$ 에 대한 확률 분포 $P_{\theta}(X)$ 를 가지며, $X$ 가 특정한 값 $x$ 으로 표집(sampling)되었을 경우, $\theta$ 의 가능도 함수 $\mathcal{L}(\theta | x)$ 는 $$ \mathcal{L}(\theta | x) = Pr(X=x | \theta)$$