گاما رو نصب کن!

{{ number }}
اعلان ها
اعلان جدیدی وجود ندارد!
کاربر جدید

جستجو

پربازدیدها: #{{ tag.title }}

میتونی لایو بذاری!

احتمال پیش و پس از مشاهده

بروزرسانی شده در: 11:47 1404/12/6 مشاهده: 7     دسته بندی: کپسول آموزشی

پیش و پس از مشاهده: سفری در به‌روزرسانی احتمال‌ها

یادگیری چگونه با دیدن شواهد، باورهای ما را درباره‌ی پیشامدهای آینده تغییر می‌دهد.
احتمال پیشین1 و احتمال پسین2 دو مفهوم بنیادی در نظریه‌ی احتمال هستند که نحوه‌ی به‌روزرسانی باورها را در مواجهه با اطلاعات جدید توضیح می‌دهند. در این مقاله، با زبانی ساده و مثال‌های ملموس، تفاوت این دو نوع احتمال، کاربرد قانون بیز3 در به‌روزرسانی آن‌ها، و تأثیر شواهد جدید در تصمیم‌گیری‌های روزمره و علمی را بررسی می‌کنیم.

۱. احتمال پیشین: دنیای باورهای اولیه

احتمال پیشین، همان طور که از نامش پیداست، به احتمالی گفته می‌شود که پیش از مشاهده‌ی یک رویداد یا دریافت داده‌ی جدید به یک پیشامد نسبت می‌دهیم. این احتمال می‌تواند بر اساس دانش قبلی، تجربیات گذشته، یا حتی یک حدس منطقی و اولیه شکل بگیرد. به عبارت دیگر، احتمال پیشین، نقطه‌ی شروع ما در مسیر کشف حقیقت است.

فرض کنید یک کیسه داریم شامل تعدادی توپ رنگی. اگر ندانیم محتویات کیسه چیست، ممکن است احتمال قرمز بودن توپ بعدی را به طور مساوی بین همه‌ی رنگ‌ها تقسیم کنیم. اما اگر بدانیم کیسه بیشتر شامل توپ‌های آبی است، احتمال پیشین برای آبی بودن را بیشتر در نظر می‌گیریم. مثال دیگر، پیش‌بینی وضعیت آب‌وهواست: اگر در شهری زندگی کنید که اکثر روزهای سال آفتابی است، احتمال پیشین برای یک روز آفتابی (بدون نگاه به آسمان) بسیار بالاست.

مثال عینی: پزشک قبل از انجام آزمایش، بر اساس سن و سبک زندگی بیمار، احتمال ابتلا به یک بیماری خاص را تخمین می‌زند. این تخمین اولیه، یک احتمال پیشین است. برای یک فرد جوان و سالم، احتمال پیشین ابتلا به دیابت نوع دو بسیار پایین است.

۲. احتمال پسین: به‌روزرسانی باورها با شواهد جدید

احتمال پسین، احتمالی است که پس از مشاهده‌ی یک رویداد یا دریافت اطلاعات جدید محاسبه می‌شود. این احتمال، نسخه‌ی به‌روز شده‌ی احتمال پیشین است که با در نظر گرفتن شواهد تازه به دست آمده است. در واقع، احتمال پسین، ترکیبی از باور قبلی ما (احتمال پیشین) و اطلاعات جدید است.

برای روشن شدن موضوع، به مثال کیسه‌ی توپ‌ها برگردیم. اگر احتمال پیشین ما برای قرمز بودن توپ ۲۰٪ باشد، اما پس از چند بار بیرون کشیدن، متوجه شویم که توپ‌های قرمز بیشتری نسبت به انتظارمان دیده‌ایم، احتمال پسین برای قرمز بودن توپ بعدی افزایش می‌یابد. در مثال پزشکی، اگر آزمایش بیمار مثبت شود، پزشک احتمال پسین ابتلا به بیماری را (که اکنون ترکیبی از احتمال پیشین و دقت آزمایش است) محاسبه می‌کند. این احتمال به مراتب بیشتر از احتمال پیشین خواهد بود.

نکته‌ی کاربردی: احتمال پسین هرگز به طور مستقیم از مشاهده به دست نمی‌آید، بلکه با استفاده از یک قانون ریاضی به نام قانون بیز محاسبه می‌شود که رابطه‌ی بین احتمال پیشین، شواهد جدید و احتمال پسین را مشخص می‌کند.

۳. قانون بیز: پل ارتباطی بین پیشین و پسین

قانون بیز4 قلب فرآیند به‌روزرسانی احتمال‌ها است. این قانون به ما می‌گوید که چگونه باید احتمال یک پیشامد (مانند A) را پس از مشاهده‌ی شواهد جدید (مانند B) محاسبه کنیم. فرمول ساده‌ی این قانون به صورت زیر است:

$P(A|B) = \frac{P(B|A) \cdot P(A)}{P(B)}$

در این فرمول:

  • $P(A|B)$ احتمال پسین است (احتمال A به شرط وقوع B).
  • $P(A)$ احتمال پیشین است (احتمال A قبل از مشاهده‌ی B).
  • $P(B|A)$ احتمال مشاهده‌ی شواهد B در صورتی که A درست باشد (درست‌نمایی5).
  • $P(B)$ احتمال کل مشاهده‌ی شواهد B است.

به این ترتیب، قانون بیز به طور سیستماتیک نشان می‌دهد که چگونه یک شاهد جدید (B) باور اولیه‌ی ما (P(A)) را به باور به‌روز شده (P(A|B)) تبدیل می‌کند.

۴. کاربرد عملی: تشخیص یک بیماری نادر

یکی از بهترین مثال‌ها برای درک تفاوت احتمال پیشین و پسین، تست‌های پزشکی است. فرض کنید یک بیماری نادر فقط ۱٪ از جمعیت را مبتلا می‌کند. تستی برای تشخیص این بیماری وجود دارد که دقت آن ۹۹٪ است، یعنی:

  • اگر فردی بیمار باشد، تست با احتمال ۹۹٪ مثبت می‌شود (حساسیت).
  • اگر فردی سالم باشد، تست با احتمال ۹۹٪ منفی می‌شود (ویژگی).

حال فردی را در نظر بگیرید که آزمایش می‌دهد و نتیجه‌ی تست او مثبت است. احتمال اینکه این فرد واقعاً بیمار باشد چقدر است؟ پاسخ این سؤال همان احتمال پسین است.

احتمال پیشین بیماری P(بیماری) = 0.01 است. برای محاسبه‌ی احتمال پسین P(بیماری|مثبت) از قانون بیز استفاده می‌کنیم:

$P(\text{بیماری}|\text{مثبت}) = \frac{P(\text{مثبت}|\text{بیماری}) \cdot P(\text{بیماری})}{P(\text{مثبت})}$

احتمال $P(\text{مثبت})$ را می‌توان به این صورت محاسبه کرد:

$P(\text{مثبت}) = P(\text{مثبت}|\text{بیماری}) \cdot P(\text{بیماری}) + P(\text{مثبت}|\text{سالم}) \cdot P(\text{سالم}) = (0.99 \times 0.01) + (0.01 \times 0.99) = 0.0198$

بنابراین:

$P(\text{بیماری}|\text{مثبت}) = \frac{0.99 \times 0.01}{0.0198} = \frac{0.0099}{0.0198} = 0.5$

نتیجه‌ی شگفت‌انگیز این است که با وجود دقت بالای تست، احتمال پسین ابتلا به بیماری فقط ۵۰٪ است! این مثال نشان می‌دهد که چگونه نادیده گرفتن احتمال پیشین (شیوع کم بیماری) می‌تواند منجر به تفسیر اشتباه از نتایج آزمایش شود.

ویژگی احتمال پیشین احتمال پسین
زمان ارزیابی پیش از مشاهده‌ی داده پس از مشاهده‌ی داده
منبع دانش قبلی، تجربه، حدس ترکیب احتمال پیشین و شواهد جدید
نماد (در قانون بیز) P(A) P(A|B)
مثال پزشکی ۱٪ (شیوع بیماری) ۵۰٪ (احتمال بیماری پس از مثبت شدن تست)

۵. چالش‌های مفهومی

❓ اگر احتمال پیشین من صفر باشد، آیا مشاهده‌ی شواهد جدید می‌تواند آن را تغییر دهد؟
پاسخ: خیر. در نظریه‌ی احتمال، اگر احتمال پیشین یک پیشامد دقیقاً صفر باشد (یعنی ما کاملاً مطمئن باشیم که آن پیشامد رخ نمی‌دهد)، هیچ شاهد جدیدی، حتی قوی‌ترین شواهد، نمی‌تواند احتمال پسین را به مقداری بیشتر از صفر برساند. این نکته اهمیت انعطاف‌پذیری باورهای اولیه را نشان می‌دهد.
❓ چرا در مثال بیماری نادر، با وجود تست دقیق، احتمال پسین تنها ۵۰٪ شد؟
پاسخ: این پدیده به دلیل پایین بودن احتمال پیشین (شیوع کم بیماری) رخ می‌دهد. تعداد افراد سالمی که تست آن‌ها به اشتباه مثبت شده (نتیجه‌ی مثبت کاذب) در مقایسه با تعداد افراد واقعاً بیماری که تستشان مثبت شده، بسیار زیاد است. به عبارت دیگر، مثبت بودن تست، اطلاعات مفیدی می‌دهد، اما به دلیل نادر بودن بیماری، این اطلاعات برای غلبه بر عدم قطعیت اولیه کافی نیست.
❓ آیا احتمال پسین همیشه به احتمال پیشین نزدیک‌تر است؟
پاسخ: خیر. احتمال پسین همواره به سمت شواهد جدید متمایل می‌شود، اما میزان این تمایل به قدرت شواهد بستگی دارد. اگر شواهد بسیار قوی باشند (مثلاً P(B|A) بسیار بزرگ یا بسیار کوچک باشد)، احتمال پسین می‌تواند بسیار متفاوت از احتمال پیشین باشد. در مقابل، شواهد ضعیف تأثیر چندانی بر به‌روزرسانی باور اولیه ندارند.
جمع‌بندی
مفاهیم احتمال پیشین و پسین، چارچوبی قدرتمند برای درک چگونگی یادگیری از تجربه و داده‌ها ارائه می‌دهند. احتمال پیشین، باور اولیه‌ی ما را شکل می‌دهد و احتمال پسین، باور به‌روز شده‌ی ما پس از مواجهه با شواهد جدید است. قانون بیز به عنوان پلی ریاضی، این دو را به هم متصل می‌کند و به ما نشان می‌دهد که چگونه می‌توانیم در دنیایی پر از عدم قطعیت، تصمیمات هوشمندانه‌تری بگیریم. از تشخیص بیماری تا پیش‌بینی آب‌وهوا و حتی قضاوت‌های روزمره، این دو مفهوم نقشی اساسی در فرآیند استدلال و تصمیم‌گیری ما ایفا می‌کنند.

پاورقی

1 احتمال پیشین (Prior Probability): احتمالی که قبل از در نظر گرفتن شواهد جدید به یک پیشامد نسبت داده می‌شود.
2 احتمال پسین (Posterior Probability): احتمالی که پس از در نظر گرفتن شواهد جدید و به‌روزرسانی باور اولیه به دست می‌آید.
3 قانون بیز (Bayes' Theorem): قضیه‌ای ریاضی که نحوه‌ی به‌روزرسانی احتمال یک فرضیه را در مواجهه با شواهد جدید توصیف می‌کند.
4 قانون بیز (Bayes' Rule): همان قانون بیز است که گاهی به عنوان یک اصل برای استدلال استقرایی استفاده می‌شود.
5 درست‌نمایی (Likelihood): احتمال مشاهده‌ی شواهد جدید به شرط درست بودن یک فرضیه خاص.