שְׁאֵלָה:
כיצד לדמיין מה עושה ניתוח המתאם הקנוני (בהשוואה למה שעושה ניתוח המרכיבים העיקרי)?
figure
2013-07-27 01:28:16 UTC
view on stackexchange narkive permalink

ניתוח מתאם קנוני (CCA) הוא טכניקה הקשורה לניתוח רכיבים עיקריים (PCA). אמנם קל ללמד PCA או רגרסיה לינארית באמצעות עלילת פיזור (ראו כמה אלפי דוגמאות בחיפוש תמונות בגוגל), אך לא ראיתי דוגמה דו-ממדית אינטואיטיבית דומה עבור CCA. כיצד להסביר חזותית מה עושה CCA לינארי?

באיזה אופן CCA מכליל את ה- PCA? לא הייתי אומר שזו הכללה שלה. PCA עובד עם קבוצה אחת של משתנים, CCA עובד עם שניים (או יותר, יישומים מודרניים) וזהו ההבדל העיקרי.
ובכן, בקפדנות _ קשורה_ עשויה להיות בחירה טובה יותר של מילה. בכל מקרה, PCA פועל על מטריצת משתנות, ו- CCA על מטריצה ​​בין-משתנית. אם יש לך רק מערך נתונים אחד, חישוב ההשתתפויות שלו מול עצמו בסופו של דבר חזר למקרה הפשוט יותר (PCA).
ובכן, כן, "קשור" עדיף. CCA לוקח בחשבון הן את הבין-משתנות והן את השונות.
יש שהציעו לדמיין קשרים קנוניים באמצעות הליוגרפים. כדאי לקרוא את העיתון http://ti.arc.nasa.gov/m/profile/adegani/Composite_Heliographs.pdf
ארבע תשובות:
ttnphns
2013-07-28 18:53:46 UTC
view on stackexchange narkive permalink

ובכן, אני חושב שממש קשה להציג הסבר ויזואלי ל ניתוח מתאם קנוני (CCA) מול ניתוח רכיבים עיקריים (PCA) או רגרסיה לינארית . שני האחרונים מוסברים לעיתים קרובות ומושווים באמצעות פיזור נתונים דו-ממדי או תלת-ממדי, אך אני בספק אם זה אפשרי באמצעות CCA. להלן ציירתי תמונות שעשויות להסביר את המהות ואת ההבדלים בשלושת ההליכים, אך גם בתמונות אלה - המהוות ייצוגים וקטוריים ב"מרחב הנושא "- יש בעיות בלכידת CCA בצורה מספקת. (לאלגברה / אלגוריתם של ניתוח מתאם קנוני חפש כאן.)

ציור אנשים כנקודות במרחב שבו הצירים הם משתנים, פיזור רגיל, הוא מרחב משתנה . אם תצייר את הדרך ההפוכה - משתנים כנקודות ויחידים כצירים - זה יהיה מרחב נושא . ציור הצירים הרבים למעשה מיותר מכיוון שלמרחב יש מספר ממדים לא מיותרים השווים למספר המשתנים הלא קולינריים. נקודות משתנות קשורות למוצרי וקטור המוצא, החצים, המשתרעים על מרחב הנושא; אז הנה אנחנו ( ראה גם). במרחב נושא, אם התרכזו משתנים, הקוסינוס של הזווית בין הווקטורים שלהם הוא מתאם פירסון ביניהם, ואורכי הווקטורים בריבוע הם ה שונות . בתמונות למטה מרוכזים המשתנים המוצגים (אין צורך בקבוע).

רכיבים עיקריים

enter image description here

משתנים $ X_1 $ ו- $ X_2 $ מתואמים באופן חיובי: יש להם זווית חדה ביניהם. המרכיבים העיקריים $ P_1 $ ו- $ P_2 $ שוכנים באותו שטח "מישור X" המשתרע על ידי השניים משתנים. הרכיבים הם גם משתנים, רק אורתוגונליים הדדיים (לא מתואמים). הכיוון של $ P_1 $ הוא כזה שמקסם את סכום שני העומסים בריבוע של רכיב זה; ו $ P_2 $ , הרכיב הנותר, עובר אורטוגונלית ל $ P_1 $ במישור X. האורכים בריבוע מכל ארבעת הווקטורים הם השונות שלהם (השונות של רכיב היא הסכום הנ"ל של העומסים בריבוע שלו). עומסי רכיבים הם הקואורדינטות של המשתנים על הרכיבים - $ a $ מוצגים בתמונה השמאלית. כל משתנה הוא השילוב הליניארי נטול השגיאות של שני המרכיבים, כאשר העומסים המקבילים הם מקדמי הרגרסיה. ו להיפך כל רכיב הוא השילוב הליניארי נטול השגיאות של שני המשתנים; מקדמי הרגרסיה בשילוב זה ניתנים על ידי קואורדינטות הטיה של הרכיבים אל המשתנים - $ b $ מוצגים בתמונה הנכונה. גודל מקדם הרגרסיה בפועל יהיה $ b $ חלקי תוצר האורכים (סטיות התקן) של הרכיב החזוי ומשתנה החיזוי, למשל. $ b_ {12} / (| P_1 | * | X_2 |) $ . [הערת שוליים: ערכי הרכיבים המופיעים לעיל שני שילובים לינאריים הם ערכים סטנדרטיים, st. dev. = 1. זאת מכיוון שהמידע על השונות שלהם נלכד על ידי ה עומסים . כדי לדבר במונחים של ערכי רכיבים לא סטנדרטיים, $ a $ בתמונה לעיל צריכים להיות ערכי ווקטורים עצמיים, שאר הנימוקים. להיות זהה.]

רגרסיה מרובה

enter image description here

בעוד שב- PCA הכל טמון במישור X, ברגרסיה מרובה מופיע משתנה תלוי $ Y $ שלרוב אינו שייך למישור X, שטח המנבאים $ X_1 $ , $ X_2 $ . אבל $ Y $ מוקרן בניצב על מישור X, וההקרנה $ Y '$ , ה $ Y $ הגוון, הוא החיזוי על ידי או שילוב לינארי של שני $ X $ . בתמונה, אורך הריבוע של $ e $ הוא שונות השגיאה. הקוסינוס שבין $ Y $ ו- $ Y '$ הוא מקדם המתאם המרובה. כמו שהיה עם PCA, מקדמי הרגרסיה ניתנים על ידי הקואורדינטות המוטות של החיזוי ( $ Y '$ ) על המשתנים - $ b $ . גודל מקדם הרגרסיה בפועל יהיה $ b $ חלקי האורך (סטיית התקן) של משתנה החיזוי, למשל. $ b_ {2} / | X_2 | $ .

מתאם קנוני

ב- PCA, קבוצה של משתנים מנבאת את עצמם: הם מדגמנים רכיבים עיקריים אשר בתורם מדגמים את המשתנים, אתה לא משאיר את שטח המנבאים (אם אתה משתמש בכל הרכיבים) החיזוי הוא ללא שגיאות . ברגרסיה מרובה, קבוצת משתנים מנבאת משתנה חיצוני אחד ולכן קיימת שגיאת ניבוי כלשהי. ב- CCA, המצב דומה למצב ברגרסיה, אך (1) המשתנים הזרים הם מרובים, ויוצרים מערך משלהם; (2) שתי הסטים מנבאים זה את זה בו זמנית (מכאן מתאם ולא רגרסיה); (3) מה שהם חוזים זה בזה הוא דווקא תמצית, משתנה סמוי, מאשר הניבוי הנצפה של רגרסיה ( ראה גם).

enter image description here

בואו נשתמש בקבוצת המשתנים השנייה $ Y_1 $ ו- $ Y_2 $ כדי לתאם קנונית עם שלנו ערכת $ X $ . יש לנו רווחים - כאן, מישורים - X ו- Y. יש להודיע ​​שכדי שהמצב יהיה לא פרטי - כמו זה היה למעלה עם רגרסיה שם $ Y $ מחוץ למישור X - על המישורים X ו- Y להצטלב רק בנקודה אחת, המקור. למרבה הצער אי אפשר לצייר על נייר מכיוון שמצגת 4D היא הכרחית. בכל מקרה, החץ האפור מציין ששני המקורות הם נקודה אחת והיחיד המשותף לשני המטוסים. אם זה נלקח, שאר התמונה דומה למה שהיה עם רגרסיה. $ V_x $ ו- $ V_y $ הם צמד המשתנים הקנוניים. כל משתנה קנוני הוא השילוב הליניארי של המשתנים המתאימים, כמו ש $ Y '$ היה. $ Y '$ הייתה ההקרנה האורתוגונאלית של $ Y $ למישור X. כאן $ V_x $ היא השלכה של $ V_y $ במישור X ובו זמנית $ V_y $ היא הקרנה של $ V_x $ במישור Y, אך הם לא תחזיות אורתוגונליות. במקום זאת הם נמצאים (חולצו) כדי למזער את הזווית $ \ phi $ בין אותם . קוסינוס של זווית זו הוא המתאם הקנוני. מכיוון שהתחזיות אינן צריכות להיות אורתוגונליות, אורכים (ומכאן שונות) של המשתנים הקנוניים אינם נקבעים אוטומטית על ידי האלגוריתם המתאים והם כפופים למוסכמות / אילוצים אשר עשויים להיות שונים ביישומים שונים. מספר זוגות המשתנים הקנוניים (ומכאן מספר המתאמים הקנוניים) הוא מינימלי (מספר $ X $ s, מספר $ Y $ s). וכאן מגיע הזמן שבו CCA דומה ל- PCA. ב- PCA, אתה גולש על רכיבים עיקריים אורתוגונליים הדדית (כאילו) רקורסיבית עד ש הכל המיצוי הרב-משתני מוצה. באופן דומה, ב- CCA מופקים זוגות אורטוגונליים הדדיים של משתנים בקורלציה מקסימאלית עד שכל השונות ה רב-משתנית שניתן לחזות במרחב הקטן יותר (ערכה פחותה) מוגמרת. בדוגמה שלנו עם $ X_1 $ $ X_2 $ לעומת $ Y_1 $ $ Y_2 $ נשאר הצמד הקנוני השני והחלש יותר $ V_ {x (2)} $ (מאונך ל $ V_x $ ) ו- $ V_ {y (2)} $ (מאונך ל $ V_y $ ).

להבדל בין CCA ל- PCA + רגרסיה ראה גם ביצוע CCA לעומת בניית משתנה תלוי עם PCA ואז ביצוע רגרסיה.

מה היתרון של מתאם קנוני על קשרים בודדים של פירסון של זוגות משתנים משתי המערכות? (התשובה שלי היא בתגובות).

+1 (מלפני ימים). אני ממש מקווה שתסיים עם יותר מ -6 הצבעות לכך; זוהי סקירה נהדרת של אופן הפעולה של CCA.
זה עוזר לי מאוד בהבנת CCA.
@ttnphns, מעולה. למרות שלא הבנתי הכל, זה ללא ספק ההסבר הטוב ביותר ל- CCA שנתקלתי בו. ואני חושב שזה באמת חשוב לקבל תמונה חזותית של המתרחש, מכיוון שאני יודע שאזכור משהו אם אוכל לדמיין את זה, בניגוד להתפתל בין משפטים שונים.
האם יש לך פרשנות גיאומטרית כיצד לבנות וקטור PC1 $ P_1 $ על הדמות הראשונה שלך בהינתן שני וקטורים $ X_1 $ ו- $ X_2 $?אתה מסביר איך למצוא את הכיוון שלו ואני יודע למצוא את אורכו, אבל אני לא יכול לחשוב על שום פרשנות גיאומטרית או אפילו על אינטואיציה של פעולה זו.
@amoeba, מצטער: אני מתקשה לפרש את בקשתך.התמונות התבססו על דוגמה אמיתית כלשהי אך צוירו בעבודת יד: האורכים והזוויות עליה משוערים, מותאמים לפי העין.התמונות רק מראות מה קורה ב"מרחב הנושא "המופחת כאשר אתה מבצע את הניתוחים לפי חישובים רגילים (אלגברה מטריצה).
(המשך.) באופן ספציפי עבור PCA, שני הווקטורים והזווית בין אותם מגדירים את מטריצת השונות.אתה מפרק אותו בעצמך ומחשב את העומסים - הקואורדינטות $ a $ s (התמונה השמאלית היא רק עלילת הטעינה).התמונה הנכונה מתייחסת ל [מקדמי ניקוד הרכיבים] (http://stats.stackexchange.com/q/126885/3277).אין ספק שזה כל כך ברור למומחה כמוך.האם התגובה שלך ביקשה אחר smth שונה?
מצטער על שלא ברור.בואו נגיד שיש לנו מערך נתונים דו-ממדי, ויש מטריצה של משתנה 2x2 ושני הווקטורים ה"משתנים "המקבילים $ X_1 $ ו- $ X_2 $ שמונחים על מישור.כמובן שנוכל לחשב את וקטור העמסת PC1 $ P_1 $ דרך PCA, זה ברור.אני תוהה אם יש פרשנות גיאומטרית כלשהי למה צריך לעשות עם $ X_1 $ ו- $ X_2 $ על מנת לקבל $ P_1 $ ... כאילו אם נצייר שני וקטורים על לוח ואז נשרטט אולי כמה קווים ו אליפסותואז $ P_1 $ עולה.
לכן, אתם שואלים לגבי כלים גיאומטריים לפתרון כיוון הווקטור $ P_1 $ כך שהוא ימקסם את ההקרנות בריבוע $ a $ s משני המשתנים עליו (Smth של [זה] (http: //stats.stackexchange.com / a / 123567/3277) שיח בסגנון?).מעולם לא חשבתי על זה: פשוט לא צריך.אם אתה מוצא את מה שאתה רוצה אנא יידע אותי.
כן ... אבל אני לא צריך כלי גיאומטרי "יעיל";רק איזו אינטואיציה גיאומטרית תספיק.פרסמתי את שאלתי (עם כמה מחשבות מקדימות) כאן: http://stats.stackexchange.com/questions/181155.
מה הפירוש של "סכום שני העומסים בריבוע של רכיב זה"?האם אתה יכול לתת ייצוג מתמטי (נוסחה)?
@user3813057, `סכום העומסים בריבוע 'של יחסי ציבור.רכיב הוא סכום העמודות של הריבועים במטריקס העומסים ושווה לערכו העצמי שלו, כלומר לשונות הרכיב.זה היסודות של PCA.בתמונה הראשונה, העמסות (`a`s) הן הקואורדינטות, ההשלכות של משתני X על ה- PR.רכיב P1 (וכמו כן על הרכיב השני P2).
Gottfried Helms
2015-07-14 12:31:46 UTC
view on stackexchange narkive permalink

מבחינתי היה מאוד מועיל לקרוא בספרו של ס 'מולאיק "יסודות הפקטור אנליזה" (1972), שישנה שיטה גרידא של סיבובים של מטריצה ​​של עומסי גורמים כדי להגיע למתאם קנוני, ולכן יכולתי לאתר אותו בהרכב מושגים שכבר הבנתי עד כה מניתוח רכיבים עיקריים וניתוח גורמים.

אולי אתה מעוניין בדוגמה זו (שבניתי מחדש מיישום / דיון ראשון של שנת 1998 בערך לפני כמה ימים כדי לבדוק ולבדוק מחדש את השיטה כנגד החישוב על ידי SPSS) . ראה כאן. אני משתמש במטריצה ​​/ כלים pca בתוך- [R] וב- Matmate בשביל זה, אבל אני חושב שאפשר לשחזר אותו ב R code בלי יותר מדי מאמץ.

idnavid
2018-05-21 08:27:51 UTC
view on stackexchange narkive permalink

תשובה זו אינה מספקת עזרה חזותית להבנת CCA, אולם פרשנות גיאומטרית טובה ל- CCA מוצגת ב פרק 12 של אנדרסון 1958 [1]. עיקרו של הדברים הוא כדלקמן:

שקול $ N $ נקודות נתונים $ x_1, x_2, ..., x_N $ , הכל של ממד $ p $ . תן ל $ X $ להיות $ p \ times N $ מטריצה ​​המכילה $ x_i $ . אחת הדרכים להסתכל על הנתונים היא לפרש את $ X $ כאוסף של $ p $ נקודות נתונים ב $ (N-1) $ - שטח משנה ממדי $ ^ * $ . במקרה זה, אם נפריד בין $ p_1 $ נקודות הנתונים הראשונות מ- $ p_2 $ נקודות הנתונים שנותרו , CCA מנסה למצוא שילוב לינארי של $ x_1, ..., x_ {p_1} $ וקטורים המקביל (כמה שיותר מקביל) לשילוב הליניארי של שאר ה $ p_2 $ וקטורים $ x_ {p_1 + 1}, ..., x_p $ .

נקודת מבט זו מעניינת אותי מהסיבות הבאות:

  • הוא מספק פרשנות גיאומטרית מעניינת לגבי ערכי המשתנים הקנוניים של CCA.
  • מקדמי המתאם מקושרים לזווית בין שתי התחזיות CCA.
  • היחס בין $ \ frac {p_1} {N} $ ו- $ \ frac {p_2} {N} $ יכול להיות קשור ישירות ליכולתו של CCA למצוא נקודות נתונים בקורלציה מקסימאלית. לכן הקשר בין התאמת יתר לפתרונות CCA ברור. $ \ rightarrow $ רמז: נקודות הנתונים מסוגלות להקיף את $ (N-1) $ - שטח ממדי, כאשר $ N $ קטן מדי (מקרה גרוע לדוגמא).

כאן הוספתי דוגמה עם קוד כלשהו שבו ניתן לשנות $ p_1 $ ו- $ p_2 $ ותראה מתי הם גבוהים מדי, תחזיות CCA נופלות זו על זו.

* שים לב שמרחב המשנה הוא $ (N-1) $ -dimensional ולא $ N $ -Dimensional, בגלל אילוצי הריכוז (כלומר, $ \ text {mean} (x_i) = 0 $ ).

[1] אנדרסון, T. W. מבוא לניתוח סטטיסטי רב משתני. כרך א ' 2. ניו יורק: וויילי, 1958.

האם אתה יכול להוסיף תמונות מאותו ספר כדי להמחיש את התשובה?
למרבה הצער, בספר אין תמונות לפרק זה (למעשה אני לא חושב שיש דמויות בספר כולו).
@ttnphns ביליתי זמן מה לפני כן והרכבתי דוגמה קטנה להמחשת נקודה זו.תודה על ההצעה!
S Chapman
2014-05-20 21:00:22 UTC
view on stackexchange narkive permalink

הדרך הטובה ביותר ללמד סטטיסטיקה היא באמצעות נתונים. טכניקות סטטיסטיות רב-משתנות מורכבות לעיתים קרובות מאוד עם מטריצות שאינן אינטואיטיביות. הייתי מסביר CCA באמצעות Excel. צור שתי דוגמאות, הוסף משתנים חדשים (עמודות בעצם) והראה את החישוב. ומבחינת בניית המטריצה ​​של CCA, הדרך הטובה ביותר היא ללמד עם מקרה דו-משתני תחילה ואז להרחיב אותו.



שאלה ותשובה זו תורגמה אוטומטית מהשפה האנגלית.התוכן המקורי זמין ב- stackexchange, ואנו מודים לו על רישיון cc by-sa 3.0 עליו הוא מופץ.
Loading...