پیش و پس از مشاهده: سفری در بهروزرسانی احتمالها
۱. احتمال پیشین: دنیای باورهای اولیه
احتمال پیشین، همان طور که از نامش پیداست، به احتمالی گفته میشود که پیش از مشاهدهی یک رویداد یا دریافت دادهی جدید به یک پیشامد نسبت میدهیم. این احتمال میتواند بر اساس دانش قبلی، تجربیات گذشته، یا حتی یک حدس منطقی و اولیه شکل بگیرد. به عبارت دیگر، احتمال پیشین، نقطهی شروع ما در مسیر کشف حقیقت است.
فرض کنید یک کیسه داریم شامل تعدادی توپ رنگی. اگر ندانیم محتویات کیسه چیست، ممکن است احتمال قرمز بودن توپ بعدی را به طور مساوی بین همهی رنگها تقسیم کنیم. اما اگر بدانیم کیسه بیشتر شامل توپهای آبی است، احتمال پیشین برای آبی بودن را بیشتر در نظر میگیریم. مثال دیگر، پیشبینی وضعیت آبوهواست: اگر در شهری زندگی کنید که اکثر روزهای سال آفتابی است، احتمال پیشین برای یک روز آفتابی (بدون نگاه به آسمان) بسیار بالاست.
۲. احتمال پسین: بهروزرسانی باورها با شواهد جدید
احتمال پسین، احتمالی است که پس از مشاهدهی یک رویداد یا دریافت اطلاعات جدید محاسبه میشود. این احتمال، نسخهی بهروز شدهی احتمال پیشین است که با در نظر گرفتن شواهد تازه به دست آمده است. در واقع، احتمال پسین، ترکیبی از باور قبلی ما (احتمال پیشین) و اطلاعات جدید است.
برای روشن شدن موضوع، به مثال کیسهی توپها برگردیم. اگر احتمال پیشین ما برای قرمز بودن توپ ۲۰٪ باشد، اما پس از چند بار بیرون کشیدن، متوجه شویم که توپهای قرمز بیشتری نسبت به انتظارمان دیدهایم، احتمال پسین برای قرمز بودن توپ بعدی افزایش مییابد. در مثال پزشکی، اگر آزمایش بیمار مثبت شود، پزشک احتمال پسین ابتلا به بیماری را (که اکنون ترکیبی از احتمال پیشین و دقت آزمایش است) محاسبه میکند. این احتمال به مراتب بیشتر از احتمال پیشین خواهد بود.
۳. قانون بیز: پل ارتباطی بین پیشین و پسین
قانون بیز4 قلب فرآیند بهروزرسانی احتمالها است. این قانون به ما میگوید که چگونه باید احتمال یک پیشامد (مانند A) را پس از مشاهدهی شواهد جدید (مانند B) محاسبه کنیم. فرمول سادهی این قانون به صورت زیر است:
$P(A|B) = \frac{P(B|A) \cdot P(A)}{P(B)}$در این فرمول:
- $P(A|B)$ احتمال پسین است (احتمال A به شرط وقوع B).
- $P(A)$ احتمال پیشین است (احتمال A قبل از مشاهدهی B).
- $P(B|A)$ احتمال مشاهدهی شواهد B در صورتی که A درست باشد (درستنمایی5).
- $P(B)$ احتمال کل مشاهدهی شواهد B است.
به این ترتیب، قانون بیز به طور سیستماتیک نشان میدهد که چگونه یک شاهد جدید (B) باور اولیهی ما (P(A)) را به باور بهروز شده (P(A|B)) تبدیل میکند.
۴. کاربرد عملی: تشخیص یک بیماری نادر
یکی از بهترین مثالها برای درک تفاوت احتمال پیشین و پسین، تستهای پزشکی است. فرض کنید یک بیماری نادر فقط ۱٪ از جمعیت را مبتلا میکند. تستی برای تشخیص این بیماری وجود دارد که دقت آن ۹۹٪ است، یعنی:
- اگر فردی بیمار باشد، تست با احتمال ۹۹٪ مثبت میشود (حساسیت).
- اگر فردی سالم باشد، تست با احتمال ۹۹٪ منفی میشود (ویژگی).
حال فردی را در نظر بگیرید که آزمایش میدهد و نتیجهی تست او مثبت است. احتمال اینکه این فرد واقعاً بیمار باشد چقدر است؟ پاسخ این سؤال همان احتمال پسین است.
احتمال پیشین بیماری P(بیماری) = 0.01 است. برای محاسبهی احتمال پسین P(بیماری|مثبت) از قانون بیز استفاده میکنیم:
$P(\text{بیماری}|\text{مثبت}) = \frac{P(\text{مثبت}|\text{بیماری}) \cdot P(\text{بیماری})}{P(\text{مثبت})}$احتمال $P(\text{مثبت})$ را میتوان به این صورت محاسبه کرد:
$P(\text{مثبت}) = P(\text{مثبت}|\text{بیماری}) \cdot P(\text{بیماری}) + P(\text{مثبت}|\text{سالم}) \cdot P(\text{سالم}) = (0.99 \times 0.01) + (0.01 \times 0.99) = 0.0198$بنابراین:
$P(\text{بیماری}|\text{مثبت}) = \frac{0.99 \times 0.01}{0.0198} = \frac{0.0099}{0.0198} = 0.5$نتیجهی شگفتانگیز این است که با وجود دقت بالای تست، احتمال پسین ابتلا به بیماری فقط ۵۰٪ است! این مثال نشان میدهد که چگونه نادیده گرفتن احتمال پیشین (شیوع کم بیماری) میتواند منجر به تفسیر اشتباه از نتایج آزمایش شود.
| ویژگی | احتمال پیشین | احتمال پسین |
|---|---|---|
| زمان ارزیابی | پیش از مشاهدهی داده | پس از مشاهدهی داده |
| منبع | دانش قبلی، تجربه، حدس | ترکیب احتمال پیشین و شواهد جدید |
| نماد (در قانون بیز) | P(A) | P(A|B) |
| مثال پزشکی | ۱٪ (شیوع بیماری) | ۵۰٪ (احتمال بیماری پس از مثبت شدن تست) |
۵. چالشهای مفهومی
پاسخ: خیر. در نظریهی احتمال، اگر احتمال پیشین یک پیشامد دقیقاً صفر باشد (یعنی ما کاملاً مطمئن باشیم که آن پیشامد رخ نمیدهد)، هیچ شاهد جدیدی، حتی قویترین شواهد، نمیتواند احتمال پسین را به مقداری بیشتر از صفر برساند. این نکته اهمیت انعطافپذیری باورهای اولیه را نشان میدهد.
پاسخ: این پدیده به دلیل پایین بودن احتمال پیشین (شیوع کم بیماری) رخ میدهد. تعداد افراد سالمی که تست آنها به اشتباه مثبت شده (نتیجهی مثبت کاذب) در مقایسه با تعداد افراد واقعاً بیماری که تستشان مثبت شده، بسیار زیاد است. به عبارت دیگر، مثبت بودن تست، اطلاعات مفیدی میدهد، اما به دلیل نادر بودن بیماری، این اطلاعات برای غلبه بر عدم قطعیت اولیه کافی نیست.
پاسخ: خیر. احتمال پسین همواره به سمت شواهد جدید متمایل میشود، اما میزان این تمایل به قدرت شواهد بستگی دارد. اگر شواهد بسیار قوی باشند (مثلاً P(B|A) بسیار بزرگ یا بسیار کوچک باشد)، احتمال پسین میتواند بسیار متفاوت از احتمال پیشین باشد. در مقابل، شواهد ضعیف تأثیر چندانی بر بهروزرسانی باور اولیه ندارند.
مفاهیم احتمال پیشین و پسین، چارچوبی قدرتمند برای درک چگونگی یادگیری از تجربه و دادهها ارائه میدهند. احتمال پیشین، باور اولیهی ما را شکل میدهد و احتمال پسین، باور بهروز شدهی ما پس از مواجهه با شواهد جدید است. قانون بیز به عنوان پلی ریاضی، این دو را به هم متصل میکند و به ما نشان میدهد که چگونه میتوانیم در دنیایی پر از عدم قطعیت، تصمیمات هوشمندانهتری بگیریم. از تشخیص بیماری تا پیشبینی آبوهوا و حتی قضاوتهای روزمره، این دو مفهوم نقشی اساسی در فرآیند استدلال و تصمیمگیری ما ایفا میکنند.
پاورقی
2 احتمال پسین (Posterior Probability): احتمالی که پس از در نظر گرفتن شواهد جدید و بهروزرسانی باور اولیه به دست میآید.
3 قانون بیز (Bayes' Theorem): قضیهای ریاضی که نحوهی بهروزرسانی احتمال یک فرضیه را در مواجهه با شواهد جدید توصیف میکند.
4 قانون بیز (Bayes' Rule): همان قانون بیز است که گاهی به عنوان یک اصل برای استدلال استقرایی استفاده میشود.
5 درستنمایی (Likelihood): احتمال مشاهدهی شواهد جدید به شرط درست بودن یک فرضیه خاص.