לדלג לתוכן

דיברגנץ קולבק-לייבלר

מתוך ויקיפדיה, האנציקלופדיה החופשית

בסטטיסטיקה מתמטית ובתורת האינפורמציה דיברגנץ קולבק-לייבלר (KL) (נקרא גם אנטרופיה יחסית[1]), מסומן , הוא סוג של מרחק סטטיסטי בין התפלגויות: מדד לאופן שבו התפלגות הסתברות אחת P שונה מהתפלגות הסתברות שנייה Q.[2]

מתמטית

.

ניתן לפרש את דיברגנץ קולבק-לייבלר של P מ- Q כהפתעה הצפויה משימוש בהתפלגות Q במקום ב P כאשר ההתפלגות בפועל היא P. למרות שמדובר במדד לשונות של שתי ההתפלגויות, ובמובן מסוים הוא לפיכך "מרחק", דיברגנץ קולבק-לייבלר אינו מטרי. בפרט, הוא אינו סימטרי בשתי ההתפלגויות, ואינו מקיים את אי השוויון המשולש.

הערך של דיברגנץ קולבק-לייבלר הוא תמיד מספר ממשי אי-שלילי, עם ערך 0 אם ורק אם שתי ההתפלגויות המדוברות זהות. יש לו יישומים מגוונים, הן תאורטיים כגון אפיון מערכות מידע, אקראיות של סדרות זמן רציפות ורווח מידע(אנ') בעת השוואת מודלים סטטיסטיים של הסקת מסקנות, והן מעשיים, כגון סטטיסטיקה יישומית, מכניקת נוזלים, מדעי המוח, ביואינפורמטיקה ולמידת מכונה.

עבור התפלגויות הסתברות בדידות P ו- Q המוגדרות על אותו מרחב מדגם, דיברגנץ קולבק-לייבלר מ- Q ל- P מוגדר כ[3]

,

או לחלופין

.

במילים אחרות, זוהי התוחלת של הפרש הלוגריתמים בין ההסתברויות P ו- Q, כאשר התוחלת נלקחת באמצעות ההסתברויות P.

דיברגנץ קולבק-לייבלר מוגדר בדרך זו רק אם לכל , גורר . אחרת, הוא מוגדר כ [1]. אבל דיברגנץ קולבק-לייבלר יכול לקבל את הערך גם אם בכל התומך של ,[4][5] בתנאי שאינסופי. הערות דומות חלות גם על התפלגויות רציפות.

בְּכָל נקודה שבההוא אפס, התרומה של האיבר המתאים בסכום מתאפסת מכיוון ש

.

עבור התפלגויות P ו- Q של משתנה אקראי רציף, דיברגנץ קולבק-לייבלר מוגדר כאינטגרל[6]

כאשר p ו- q מציינים את צפיפות ההסתברות של P ו- Q.

קולבק נותן את הדוגמה הבאה: יהיו P ו- Q ההתפלגויות המוצגות בטבלה ובאיור להלן. P, ההתפלגות בצד שמאל של האיור, היא התפלגות בינומית עם ו . Q ההתפלגות בצד ימין של האיור, היא התפלגות אחידה בדידה עם שלוש התוצאות האפשריות, 0, 1, 2 (כלומר ), כל אחת בהסתברות .

שתי התפלגויות להמחשת דיברגנץ קולבק-לייבלר (אנטרופיה יחסית)
x 0 1 2
Distribution
Distribution
  • הערך של דיברגנץ קולבק-לייבלר הוא אי-שלילית. תוצאה המכונה גם אי-שוויון גיבס. אם ורק אם כהתפלגויות.
  • חסם תחתון מדויק יותר לערך של דיברגנץ קולבק-לייבלר[7]

  • במקרה הכללי אין חסם עליון לערך של דיברגנץ קולבק-לייבלר.
  • דיברגנץ קולבק-לייבלר נשאר מוגדר היטב עבור התפלגויות רציפות, ובנוסף הוא אינו משתנה תחת טרנספורמציות פרמטרים. לדוגמה, אם מתבצעת טרנספורמציה ממשתנה למשתנה אזי ובאותו אופן כאשר האו הערך המוחלט של הנגזרת, או באופן כללי יותר היעקוביאן. ניתן לכתוב את דיברגנץ קולבק-לייבלק:
  • דיברגנץ קולבק-לייבלר הוא אדיטיבי להתפלגויות בלתי תלויות, בדיוק כמו האנטרופיה של שאנון. כלומר אם ו בלתי תלויות, ונסמן ובאותו אופן עבור ההתפלגויות הבלתי תלויות ו אזי
  • ניתן לפתח את (i.e. ) כטור טיילור סביב נקודת המינימום (כלומר )

התפלגויות רב-נורמליות

[עריכת קוד מקור | עריכה]

נניח שתי התפלגות רב-נורמלית עם תוחלות ועם מטריצות קווריאנס (לא סינגולריות) . אם לשתי ההתפלגויות יש אותו ממד, k, אז דיברגנץ קולבק-לייבלר בין ההתפלגויות הוא:[8]

באיבר האחרון יש להשתמש בלוגריתם בבסיס הטבעי מכיוון שכל האיברים מלבד האחרון הם לוגריתמים טבעיים של ביטויים שהם גורמים של פונקציית הצפיפות או שנוצרים באופן טבעי בדרך אחרת. כדי כדי שהדיברגנץ יבטא יחידות של סיביות יש לחלק את הביטוי לעיל ב .

במימוש נומרי, רצוי לבטא את התוצאה במונחים של פירוק שולסקי כך ש ו . ואז עם פתרונות M ו- y למערכות הליניאריות המשולשות , ו נקבל

אאאאא אנטרופיה משותפת ודיברכנץ קולבק-לייבלר אאאאא מקרה מיוחד, וכמות נפוצה בהסקת וריאציה, היא האנטרופיה היחסית בין נורמה רב משתנים אלכסונית, לבין התפלגות נורמלית סטנדרטית (עם ממוצע אפס ושונות אחת):

עבור שתי התפלגות נורמלית במשתנה אחד, p ו- q האמור לעיל מפשט ל- [9]

במקרה של התפלגויות נורמליות עם אותה תוחלת, נסמן , וניתן לפשט את הביטוי לעיל[10]:

התפלגויות אחידות

[עריכת קוד מקור | עריכה]

תהיינה שתי התפלגויות אחידות, עם תומך סגור המוכל בתומך ( ). אזי:

קשר לגדלים אחרים בתורת האינפורמציה

[עריכת קוד מקור | עריכה]

גדלים אחרים בתורת האינפורמציה קשורים לדיברגנץ קולבק-לייבלר

אינפורמציה הדדית

[עריכת קוד מקור | עריכה]
ערך מורחב – אינפורמציה הדדית

ניתן לבטא את האינפורמציה הדדית במונחי דיברגנץ קולבק-לייבלר

האינפורמציה ההדדית היא המספר הצפוי של סיביות נוספות שיש להעביר לזיהוי X ו- Y אם הם מקודדים רק באמצעות ההתפלגות השולית שלהם במקום ההתפלגות המשותפת. באותו אופן, אם ההסתברות המשותפת ידועה, זהו תוחלת מספר הסיביות הנוספות שיש לשלוח בממוצע כדי לזהות את Y אם הערך של X אינו ידוע.

אנטרופיה של שאנון

[עריכת קוד מקור | עריכה]
ערך מורחב – אנטרופיה (סטטיסטיקה)

אם בוחרים עבור בהתפלגות בדידה של N איברים ( ) ניתן לכתוב את האנטרופיה של P

זהו מספר הסיביות שיהיה צורך לשדר כדי לזהות את X מתוך N אפשרויות סבירות באותה מידה, בהפחתת האנטרופיה היחסית של ההתפלגות האחידה על המשתנים המקריים של X, , מההתפלגות האמיתית - כלומר פחות המספר הצפוי של סיביות שנשמרו, שהיה צריך להישלח אם הערך של X היה מקודד לפי ההתפלגות האחידה ולא את ההתפלגות האמיתית . הגדרה זו של אנטרופיה שאנון מהווה את הבסיס להכללה האלטרנטיבית של אדווין תומפסון ג'יינס להתפלגות רציפות, הצפיפות המגבילה של נקודות בדידות (בניגוד לאנטרופיה הדיפרנציאלית הרגילה), המגדירה את האנטרופיה הרציפה

שהוא שווה ערך ל:

אנטרופיה מותנית

[עריכת קוד מקור | עריכה]
ערך מורחב – אנטרופיה מותנית
ניתן לנסח את האנטרופיה המותנית באמצעות דיברגנץ קולבק-לייבלר

זהו מספר הסיביות שיש להעביר כדי לזהות את X מתוך N אפשרויות סבירות באותה מידה, בהפחתת האנטרופיה היחסית של התפלגות המכפלה מההתפלגות המשותפת האמיתית - כלומר פחות המספר הצפוי של ביטים שנשמרו שהיה צריך להישלח אם הערך של X היה מקודד לפי ההתפלגות האחידה במקום ההתפלגות המותנית של X בהינתן Y.

קישורים חיצוניים

[עריכת קוד מקור | עריכה]

הערות שוליים

[עריכת קוד מקור | עריכה]
  1. ^ 1 2 Csiszar, I (בפברואר 1975). "I-Divergence Geometry of Probability Distributions and Minimization Problems". Ann. Probab. 3 (1): 146–158. doi:10.1214/aop/1176996454. {{cite journal}}: (עזרה)
  2. ^ Kullback, S.; Leibler, R.A. (1951). "On information and sufficiency". Annals of Mathematical Statistics. 22 (1): 79–86. doi:10.1214/aoms/1177729694. JSTOR 2236703. MR 0039968.
  3. ^ MacKay, David J.C. (2003). Information Theory, Inference, and Learning Algorithms (1st ed.). Cambridge University Press. p. 34. ISBN 9780521642989 – via Google Books.
  4. ^ "What's the maximum value of Kullback-Leibler (KL) divergence?". Statistics Stack Exchange (stats.stackexchange.com). Cross validated.
  5. ^ "In what situations is the integral equal to infinity?". Mathematics Stack Exchange (math.stackexchange.com).
  6. ^ Bishop, Christopher M. Pattern recognition and machine learning. p. 55. OCLC 1334664824.
  7. ^ PANTELIMON G. POPESCU, SEVER S. DRAGOMIR, EMIL I. SLUS¸ANSCHI, OCTAVIAN N. STAN˘ AS¸IL ˘ A, BOUNDS FOR KULLBACK-LEIBLER DIVERGENCE, Electronic Journal of Differential Equations 2016, 2016, עמ' 6–1
  8. ^ Duchi J. "Derivations for Linear Algebra and Optimization" (PDF). p. 13.
  9. ^ Belov, Dmitry I.; Armstrong, Ronald D. (2011-04-15). "Distributions of the Kullback-Leibler divergence with applications". British Journal of Mathematical and Statistical Psychology. 64 (2): 291–309. doi:10.1348/000711010x522227. ISSN 0007-1102. PMID 21492134.
  10. ^ Buchner, Johannes (2022-04-29). An intuition for physicists: information gain from experiments. OCLC 1363563215.