قانون بیز: از پیشدانستهها به نتیجهای تازه
ریشههای فکری: احتمال شرطی و پیشزمینهها
قبل از ورود به اصل قانون بیز، باید با دو مفهوم کلیدی آشنا شویم: احتمال شرطی و تقسیمبندی فضای نمونه. احتمال شرطی یعنی احتمال وقوع یک رویداد (مثل $B$) به شرط اینکه میدانیم رویداد دیگری (مثل $A$) اتفاق افتاده است. این مفهوم با نماد $P(B|A)$ نمایش داده میشود و از رابطهی $P(B|A) = \frac{P(A \cap B)}{P(A)}$ پیروی میکند.
فرض کنید یک کیف داریم شامل ۳ توپ قرمز و ۲ توپ آبی. اگر بدون نگاه کردن یک توپ برداریم، احتمال آبی بودن آن $\frac{2}{5}$ است. حالا اگر بعداً به ما بگویند توپ برداشتهشده آبی نیست، احتمال اینکه قرمز باشد چقدر میشود؟ این همان احتمال شرطی است. این ایده پایهای، هستهی اصلی قانون بیز را تشکیل میدهد: بهروزرسانی باورهای اولیه با دیدن شواهد جدید.
مفهوم دیگر، افراز یا تقسیمبندی فضای نمونه است. مجموعهای از رویدادها مانند $B_1, B_2, ..., B_n$ یک افراز از فضای نمونه میسازند اگر: اولاً این رویدادها دو به دو ناسازگار باشند (نمیتوانند همزمان اتفاق بیفتند) و ثانیاً اجتماع همهی آنها کل فضای نمونه را پوشش دهد. مثلاً در یک دانشگاه، دانشجویان یا کارشناسی هستند یا کارشناسی ارشد یا دکتری. این سه گروه یک افراز از جامعهی دانشجویان هستند.
گام اساسی: محاسبه مخرج با قانون احتمال کل
مخرج کسر در قانون بیز، یعنی $P(A)$، احتمال وقوع رویداد $A$ است. اما این احتمال را چگونه بهدست میآوریم؟ اینجا پای قانون احتمال کل به میان میآید. اگر مجموعه رویدادهای $B_1$ تا $B_n$ یک افراز از فضای نمونه باشند، احتمال کل رویداد $A$ از جمع احتمالهای شرطی $A$ نسبت به هر یک از اعضای افراز، وزندهیشده با احتمال همان عضو، بهدست میآید:
به این ترتیب، فرمول کامل قانون بیز روی یک افراز به شکل زیر درمیآید:
این فرمول دقیقاً همان چیزی است که در محاسبات عملی استفاده میشود. بیایید با یک مثال ساده، این مراحل را گامبهگام طی کنیم.
کاربرد عملی: تشخیص پزشکی و فیلتر هرزنامه
قانون بیز در دنیای واقعی کاربردهای فراوانی دارد. دو نمونهی بسیار معروف آن در تشخیص بیماریها و فیلتر کردن ایمیلهای هرزنامه است.
| حوزه کاربرد | رویدادها و افراز | شواهد ($A$) | هدف قانون بیز |
|---|---|---|---|
| تشخیص پزشکی | $B_1$: فرد بیمار است $B_2$: فرد سالم است |
نتیجه مثبت یک آزمایش | محاسبه $P(بیمار|مثبت)$ با در نظر گرفتن شیوع بیماری و دقت آزمایش |
| فیلتر هرزنامه | $B_1$: ایمیل هرز است $B_2$: ایمیل عادی است |
وجود کلماتی مثل "قرعهکشی" یا "برنده" | محاسبه $P(هرز|کلمات)$ بر اساس فراوانی کلمات در ایمیلهای هرز و عادی |
در تشخیص پزشکی، فرض کنید بیماریای در ۰.۱٪ جمعیت شایع است ($P(B_1)=0.001$). آزمایشی برای آن وجود دارد که اگر فرد بیمار باشد، در ۹۹٪ موارد مثبت است ($P(A|B_1)=0.99$) و اگر فرد سالم باشد، در ۲٪ موارد اشتباهاً مثبت میشود ($P(A|B_2)=0.02$). حالا اگر یک نفر آزمایش بدهد و نتیجه مثبت باشد، احتمال اینکه واقعاً بیمار باشد چقدر است؟ با قانون بیز: $P(B_1|A) = \frac{0.001 \times 0.99}{0.001 \times 0.99 + 0.999 \times 0.02} \approx \frac{0.00099}{0.00099 + 0.01998} = \frac{0.00099}{0.02097} \approx 0.047$. یعنی فقط حدود ۴.۷٪! این نتیجه شاید عجیب به نظر برسد، اما نشان میدهد که در بیماریهای نادر، حتی یک آزمایش نسبتاً دقیق هم میتواند نتایج مثبت کاذب زیادی داشته باشد.
چالشهای مفهومی
پاورقی
2 افراز (Partition): مجموعهای از رویدادهای ناسازگار که اجتماع آنها کل فضای نمونه را میپوشاند.
3 احتمال پیشین (Prior Probability): باور اولیه درباره احتمال یک فرضیه قبل از دیدن شواهد جدید.
4 احتمال پسین (Posterior Probability): احتمال بهروزرسانیشده یک فرضیه پس از در نظر گرفتن شواهد جدید.
5 درستنمایی (Likelihood): احتمال مشاهده شواهد خاص، در صورتی که یک فرضیه معین درست باشد.
6 قانون احتمال کل (Law of Total Probability): روشی برای محاسبه احتمال یک رویداد با استفاده از احتمالهای شرطی آن بر روی اعضای یک افراز.