שְׁאֵלָה:
איך להבין ש- MLE של שונות מוטה בהתפלגות גאוסית?
ningyuwhut
2015-02-07 10:17:37 UTC
view on stackexchange narkive permalink

PRML illustration of how bias arises in using maximum likelihood to determine the variance of a Gaussian

אני קורא PRML ולא מבין את התמונה. אתה יכול בבקשה לתת כמה רמזים להבנת התמונה ומדוע MLE השונות בהתפלגות גאוסית מוטה?

נוסחה 1.55: $$ \ mu_ {MLE} = \ frac {1} {N} \ sum_ {n = 1} ^ N x_n $$ נוסחה 1.56 $$ \ sigma_ {MLE} ^ 2 = \ frac {1} {N} \ sum_ {n = 1} ^ {N} (x_n- \ mu_ {MLE} ) ^ 2 $$

אנא הוסף את התג ללימוד עצמי.
מדוע עבור כל גרף, רק נקודת נתונים כחולה אחת נראית לי?btw, בזמן שניסיתי לערוך הצפה של שני מנויים בפוסט זה, המערכת דורשת "לפחות 6 תווים" ... מביך.
מה אתה באמת רוצה להבין, את התמונה או מדוע אומדן השונות של MLE מוטה?הראשון מאוד מבלבל אבל אני יכול להסביר את האחרון.
כן, מצאתי שבגרסה החדשה יש לכל גרף שני נתונים כחולים, ה- PDF שלי ישן
@TrynnaDoStat סליחה על שאלתי אינה ברורה.מה שאני רוצה לדעת הוא מדוע הערכת השונות של MLE מוטה.ואיך זה בא לידי ביטוי בגרף זה
יכול להיות שימושי לדעת ש (1) גרפים אלה מוגזמים באופן גס ו (2) האיור לא ממש מעביר את המתרחש, משום שהוא מראה מתאים לשלוש דוגמאות קטנות בלבד.בפרט, "הערכה נמוכה באופן שיטתי" אינה נכונה: בדוגמאות רבות השונות תהיה * על * הערכה.הטיה (של אומדן) היא מאפיין של התפלגות הדגימה, ולא של מדגם מסוים.
תוכל גם להפנות לאתר זה [1]: לחץ [כאן] (http://dawenl.github.io/files/mle_biased.pdf "טקסט זה מופיע כשאתה מעביר את העכבר")![בלוג]: http://dawenl.github.io/files/mle_biased.pdf "לחץ כאן לפרטים"
למען האמת, אני לא בטוח אם ניתן לומר שהתשובה המדויקת של TrynnaDoStat לעיל היא אינטואיטיבית. אני מוצא [פוסט זה] (https://stats.stackexchange.com/questions/88800/intuitive-reasoning-behind-biased-maximum-likeli- estimators?newreg=5f36116a83a845e7b638a28784f2ca4d) אינטואיטיבי יותר.
אחד תשובה:
TrynnaDoStat
2015-02-07 22:06:24 UTC
view on stackexchange narkive permalink

אינטואיציה

ההטיה "באה" (בכלל לא מונח טכני) מהעובדה ש- $ E [\ bar {x} ^ 2] $ מוטה עבור $ \ mu ^ 2 $. השאלה הטבעית היא, "ובכן, מה האינטואיציה מדוע $ E [\ bar {x} ^ 2] $ מוטה עבור $ \ mu ^ 2 $"? האינטואיציה היא שבמשמעות מדגם שאינו בריבוע, לפעמים אנו מפספסים את הערך האמיתי $ \ mu $ על ידי אומדן יתר ולעיתים על ידי הערכת חסר. אבל, בלי לריבוע, הנטייה להעריך יתר על המידה ולהעריך יתר על המידה תבטל זו את זו. עם זאת, כאשר אנו מרובעים $ \ bar {x} $ גם הנטייה להערכת אומדן חסר (להחמיץ את הערך האמיתי של $ \ mu $ במספר שלילי) נהיית בריבוע וכך הופכת לחיובית. לפיכך, זה כבר לא מבטל ויש נטייה קלה להעריך יתר.

אם האינטואיציה מאחורי מדוע $ x ^ 2 $ מוטה עבור $ \ mu ^ 2 $ עדיין לא ברורה, נסה להבין את האינטואיציה שמאחורי אי השוויון של ג'נסן (הסבר אינטואיטיבי טוב כאן) ולהחיל אותה על $ E [x ^ 2] $.

בוא נוכיח ש- MLE השונות עבור מדגם iid מוטה. ואז נאמת אנליטית את האינטואיציה שלנו.

הוכחה

תן $ \ hat {\ sigma} ^ 2 = \ frac {1} {N} \ sum_ {n = 1} ^ N (x_n - \ bar {x}) ^ 2 $.

אנו רוצים להראות $ E [\ hat {\ sigma} ^ 2] \ neq \ sigma ^ 2 $.

$$ E [\ hat {\ sigma} ^ 2] = E [\ frac {1} {N} \ sum_ {n = 1} ^ N (x_n - \ bar {x} ) ^ 2] = \ frac {1} {N} E [\ sum_ {n = 1} ^ N (x_n ^ 2 - 2x_n \ bar {x} + \ bar {x} ^ 2)] = \ frac {1 } {N} E [\ sum_ {n = 1} ^ N x_n ^ 2 - \ sum_ {n = 1} ^ N 2x_n \ bar {x} + \ sum_ {n = 1} ^ N \ bar {x} ^ 2] $$

באמצעות העובדה ש $ \ sum_ {n = 1} ^ N x_n = N \ bar {x} $ ו- $ \ sum_ {n = 1} ^ N \ bar {x} ^ 2 = N \ bar {x} ^ 2 $,

$$ \ frac {1} {N} E [\ sum_ {n = 1} ^ N x_n ^ 2 - \ sum_ {n = 1} ^ N 2x_n \ bar {x} + \ sum_ {n = 1} ^ N \ bar {x} ^ 2] = \ frac {1} {N} E [\ sum_ {n = 1} ^ N x_n ^ 2 - 2N \ bar {x} ^ 2 + N \ bar {x} ^ 2] = \ frac {1} {N} E [\ sum_ {n = 1} ^ N x_n ^ 2 - N \ bar {x} ^ 2] = \ frac {1} {N} E [\ sum_ {n = 1} ^ N x_n ^ 2] - E [\ bar {x} ^ 2] = \ frac {1} {N} \ sum_ { n = 1} ^ NE [x_n ^ 2] - E [\ bar {x} ^ 2] \\ = E [x_n ^ 2] - E [\ bar {x} ^ 2] $$

כאשר השלב האחרון שבא בעקבותיו בגלל ש- $ E [x_n ^ 2] $ שווה על פני $ n $ בשל היותה מאותה התפלגות.

כעת, זכור את הגדרת השונות שאומרת $ \ sigma ^ 2_x = E [x ^ 2] - E [x] ^ 2 $. מכאן, אנו מקבלים את הדברים הבאים

$$ E [x_n ^ 2] - E [\ bar {x} ^ 2] = \ sigma ^ 2_x + E [x_n] ^ 2 - \ sigma ^ 2_ \ בר {x} - E [x_n] ^ 2 = \ sigma ^ 2_x - \ sigma ^ 2_ \ bar {x} = \ sigma ^ 2_x - Var (\ bar {x}) = \ sigma ^ 2_x - Var (\ frac {1} {N} \ sum_ {n = 1} ^ Nx_n) = \ sigma ^ 2_x - \ bigg (\ frac {1} {N} \ bigg) ^ 2Var (\ sum_ {n = 1} ^ Nx_n) $$

שים לב שריבוענו כראוי את $ \ frac {1} {N} $ הקבוע כאשר מוציאים אותו מ- $ Var () $. שים לב לכך במיוחד!

$$ \ sigma ^ 2_x - \ bigg (\ frac {1} {N} \ bigg) ^ 2Var (\ sum_ {n = 1 } ^ Nx_n) = \ sigma ^ 2_x - \ bigg (\ frac {1} {N} \ bigg) ^ 2N \ sigma ^ 2_x = \ sigma ^ 2_x - \ frac {1} {N} \ sigma ^ 2_x = \ frac {N-1} {N} \ sigma ^ 2_x $$

שהוא, כמובן, לא שווה ל- $ \ sigma_x ^ 2 $.

אמת אנליטית האינטואיציה שלנו

אנו יכולים לאמת מעט את האינטואיציה על ידי הנחה שאנו יודעים את הערך של $ \ mu $ ולחבר אותה להוכחה לעיל. מכיוון שאנו מכירים כעת $ \ mu $, אין לנו עוד צורך לאמוד $ \ mu ^ 2 $ ולכן אנו לעולם לא מעריכים אותו יתר על המידה ב- $ E [\ bar {x} ^ 2] $. בואו נראה שזה "מסיר" את ההטיה ב- $ \ hat {\ sigma} ^ 2 $.

תנו ל- $ \ hat {\ sigma} _ \ mu ^ 2 = \ frac {1} {N} \ sum_ {n = 1} ^ N (x_n - \ mu) ^ 2 $.

מההוכחה לעיל, בוא נאסוף מ- $ E [x_n ^ 2] - E [\ bar {x} ^ 2] $ מחליף את $ \ bar {x} $ לערך האמיתי $ \ mu $.

$$ E [x_n ^ 2] - E [\ mu ^ 2] = E [x_n ^ 2 ] - \ mu ^ 2 = \ sigma ^ 2_x + E [x_n] ^ 2 - \ mu ^ 2 = \ sigma ^ 2_x $$

שזה לא משוחד!

+1 אולי כדאי לציין שההפגנה שלך לא מחייבת כי $ X $ תהיה חלוקה גאוסית.(עם זאת, עבור התפלגויות אחרות, ייתכן ששונות המדגם איננה ה- MLE עבור פרמטר השונות).
תודה על ההסבר שלך.אני צריך קצת זמן כדי להבין את זה. חוץ מזה, מצאתי שגיאה כלשהי במשוואות. האם אתה יכול לאמת את זה?תודה!
@ whuber - לא בטוח מדוע אמרת ".. להפגנה אין צורך ש- X $ $ יקבלו תפוצה גאוסית.".לא היינו מדברים על פתרון שונות של ML עבור כל התפלגות, למשל חלוקה בינומית.אז במשתמע אנו מניחים שהתפלגות X כוללת שונות כאחד הפרמטרים.


שאלה ותשובה זו תורגמה אוטומטית מהשפה האנגלית.התוכן המקורי זמין ב- stackexchange, ואנו מודים לו על רישיון cc by-sa 3.0 עליו הוא מופץ.
Loading...