| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | |||
| 5 | 6 | 7 | 8 | 9 | 10 | 11 |
| 12 | 13 | 14 | 15 | 16 | 17 | 18 |
| 19 | 20 | 21 | 22 | 23 | 24 | 25 |
| 26 | 27 | 28 | 29 | 30 | 31 |
- zachary’s karate club
- Google Cloud
- ChatGPT
- kl divergence
- session 미종료
- public key
- 사회 네트워크 분석
- posterior collapse
- Vertex AI
- PSNR
- GNN
- prompt engineering
- 이상 탐지
- cross-entropy
- Grad-CAM
- Spatial GNN
- mode collapse
- Transductive Learning
- 생성 모델 평가
- 생성 모델
- python3
- GCP
- deepseek
- 대칭키
- DeepLearing.AI
- Inductive Learning
- ARIMA
- Spectral GNN
- PyTorch
- SSIM
- Today
- Total
데이터 과학 노트
Bonferroni’s Principle (본페르니 원리) 본문
Bonferroni’s Principle (본페르니 원리)
Data Scientist Note 2023. 8. 29. 14:12본페로니 원리
원리 소개
본페로니 원리는 여러 개의 통계적 검정을 동시에 수행할 때 발생할 수 있는 거짓 양성(false positive, 제1종 오류)을 제어하는 기본적인 통계 원리입니다. 가설 검정 횟수가 많아지면 우연히 나오는 결과가 늘어나서 실제로 유의미한 결과가 아니더라도 잘못된 양성 결과가 나타나기 쉽습니다. 예를 들어 0.05 유의수준으로 20개의 검정을 동시에 수행하면 아무런 보정 없이도 약 64% 확률로 적어도 하나의 거짓 양성이 발생할 수 있습니다. 본페로니 원리는 이런 문제를 해결하기 위해 설계되었습니다.
본페로니 원리의 직관적 개념은 “탐색 방법이 예상보다 훨씬 많은 결과를 반환한다면 그중 대부분은 통계적 착시일 것이다”라는 경고로 요약할 수 있습니다. 통계적 관점에서는 데이터가 완전히 무작위일 때 특정 이벤트가 나타날 기대 횟수를 계산하고 이를 실제 찾고자 하는 사례 수와 비교합니다. 만약 무작위에서 발생할 것으로 기대되는 이벤트 수가 우리가 찾으려는 실제 사례 수보다 훨씬 크면 우리가 발견하는 거의 모든 결과는 우연히 나타난 것이라고 판단해야 합니다.
Bonferroni 보정은 이러한 개념을 실제 검정에 적용하는 대표적인 방법입니다. 전체 유의수준(α)을 검정 횟수(m)로 나누어 각 검정의 기준으로 삼습니다. 예를 들어 20개의 검정을 실시하고 전체 α=0.05를 설정하면 보정된 개별 검정 기준은 0.0025(=0.05/20)가 됩니다. 이렇게 각 검정의 임계값을 엄격하게 만들면 통계적 우연에 의해 발생한 결과를 유의하다고 잘못 판단할 가능성을 줄일 수 있습니다.
- 결과 신뢰성 유지: 여러 가설을 동시에 검정할 때 생길 수 있는 거짓 양성을 줄여 결과의 신뢰도를 높입니다.
- 간단한 계산: 원하는 전체 유의수준 α를 검정 횟수로 나누기만 하면 임계값이 정해지므로 적용이 쉽습니다.
- 보수적 특성: 임계값이 매우 엄격해져 거짓 양성은 줄지만 실제 효과를 놓칠 위험(제2종 오류)이 커집니다.
실제 사례
데이터 분석과 엔지니어링에서도 본페로니 원리는 중요하게 작용합니다. 특히 한꺼번에 여러 개의 가설 검정이나 이상 탐지를 할 때 유용합니다. 예를 들어 생명과학 연구나 A/B 테스트에서는 수십에서 수백 개의 가설을 동시에 검정하는 경우가 흔합니다. 이 경우 Bonferroni 보정을 적용하지 않으면 우연히 유의하게 보이는 결과가 많아져 실제로 유의미하지 않은 가설까지 채택할 위험이 커집니다. 따라서 Bonferroni 보정을 통해 전체 α를 검정 횟수(예: 20)로 나눈(α=0.05일 때 0.0025) 기준을 사용하면 작은 변동이 우연히 통계적 유의성을 만족하는 상황을 예방할 수 있습니다.
또한 데이터마이닝 분야에서도 본페로니 원리는 자주 언급됩니다. 예를 들어 데이터마이닝 교재 “Mining of Massive Datasets” 에서는 “테러리스트 탐지” 예시를 통해 이를 설명합니다.
국가 안보 기관이 수억 명의 사람 중에서 테러리스트를 찾는다고 가정합시다. 실제 테러리스트의 수는 극히 적지만, 탐지 알고리즘은 다양한 패턴(여행 기록, 이메일 단어, 금융 거래 등)을 분석해 수많은 ‘의심 사례’를 생성합니다.
이때 본페로니 원리에 따르면 “탐지 규칙이 너무 많아지면 대부분의 경고는 우연히 발생한 잘못된 양성 신호”일 가능성이 높습니다. 즉, 실제 테러리스트보다 ‘무고한 사람’을 오탐지할 확률이 훨씬 커진다는 뜻입니다.
따라서 현실적인 탐지 시스템은 무작위 상황에서도 거의 발생하지 않을 정도로 강한 신호만을 고려해야 합니다. 이를 통해 거짓 경보(false alarm)를 줄이고, 진짜 위험 징후에 집중할 수 있습니다.
결론
본페로니 원리는 다중 검정에서 거짓 양성의 개수를 통제하려는 상황에서 기본적으로 고려해야 할 기법입니다. 전체 유의수준을 검정 횟수로 나눈 엄격한 기준을 적용하면 거짓 양성 확률을 효과적으로 낮출 수 있습니다. 그러나 너무 보수적이어서 실제 의미 있는 신호를 놓칠 위험(제2종 오류)이 커질 수 있습니다. 따라서 실무에서는 거짓 양성을 거의 허용할 수 없는 경우 본페로니 보정을 사용하되, 필요에 따라 False Discovery Rate(FDR) 제어 등 다른 방법도 함께 검토하여 분석 목적에 맞는 절차를 선택하는 것이 좋습니다.
참고문헌
- Rajaraman, A., Ullman, J. D., & Leskovec, J. (2022). Mining of Massive Datasets (3rd ed.). Cambridge University Press.
- Miller, R. G. (1981). Simultaneous Statistical Inference. Springer.
- Abdi, H. (2007). The Bonferroni and Šidák Corrections for Multiple Comparisons. In Encyclopedia of Measurement and Statistics (SAGE Publications).
- Efron, B. (2010). Large-Scale Inference: Empirical Bayes Methods for Estimation, Testing, and Prediction. Cambridge University Press.