שְׁאֵלָה:
מבחינה מעשית, איך אנשים מטפלים ב- ANOVA כאשר הנתונים לא ממש עונים על ההנחות?
Jas Max
2014-05-09 23:59:17 UTC
view on stackexchange narkive permalink

זו לא שאלה סטטיסטית למהדרין - אני יכול לקרוא את כל ספרי הלימוד על הנחות ANOVA - אני מנסה להבין כיצד אנליסטים עובדים בפועל מטפלים בנתונים שלא ממש עונים על ההנחות. עברתי על שאלות רבות באתר זה וחיפשתי תשובות ואני ממשיך למצוא פוסטים לגבי מתי לא להשתמש ב- ANOVA (בהקשר מתמטי מופשט, אידיאלי) או איך לעשות חלק מהדברים שאני מתאר להלן ב- R. I אני באמת מנסה להבין אילו החלטות אנשים באמת מקבלים ולמה.

אני מבצע ניתוח על נתונים מקובצים מעצים (עצים בפועל, ולא עצים סטטיסטיים) בארבע קבוצות. יש לי נתונים של כ- 35 מאפיינים עבור כל עץ ואני עובר על כל מאפיין כדי לקבוע אם הקבוצות נבדלות משמעותית ביחס לתכונה זו. עם זאת, בכמה מקרים, הנחות ANOVA מופרות מעט מכיוון שהשונות אינן שוות (על פי מבחן של Levene, תוך שימוש באלפא = .05).

כפי שאני רואה זאת, האפשרויות שלי הן: 1. כוח להפוך את הנתונים ולראות אם זה משנה את ה- Levene p-val. 2. השתמש במבחן לא פרמטרי כמו וילקוקסון (אם כן, איזה?). 3. תעשו איזשהו תיקון לתוצאת ANOVA, כמו בונפרוני (אני לא ממש בטוח אם קיים משהו כזה?). ניסיתי את שתי האפשרויות הראשונות וקיבלתי תוצאות מעט שונות - בחלק מהמקרים גישה אחת משמעותית והשנייה לא. אני חושש ליפול למלכודת הדייג p-value, ואני מחפש עצות שיעזרו לי להצדיק באיזו גישה להשתמש.

קראתי גם כמה דברים המצביעים על כך שהטרוסדקסטיות אינה לא באמת כל כך בעיה עבור ANOVA אלא אם כן האמצעים והשונות מתואמים (כלומר שניהם גדלים יחד), אז אולי אני יכול פשוט להתעלם מהתוצאה של הלבן אלא אם כן אני רואה דפוס כזה? אם כן, האם יש מבחן לכך?

לסיום, עלי להוסיף שאני מבצע את הניתוח הזה לפרסום בכתב עת שנבדק על ידי עמיתים, כך שגישה שאקבע עליה צריכה לעבור גיוס עם סוקרים. לכן, אם מישהו יכול לספק קישורים לדוגמאות דומות שפורסמו שיהיו נהדרות.

בין אם אתה משתמש ב- `R` ובין אם לא, זה עשוי להועיל לך לקרוא את תשובתי כאן: [אלטרנטיבות ל- ANOVA חד כיווני עבור נתונים הטרוסקדסטיים] (http://stats.stackexchange.com/a/91881/7290), הדן חלק מהנושאים הללו.
ארבע תשובות:
Glen_b
2014-05-10 03:49:27 UTC
view on stackexchange narkive permalink

אני מנסה להבין כיצד אנליסטים עובדים בפועל מטפלים בנתונים שלא ממש עונים על ההנחות.

זה תלוי בצרכים שלי, אילו הנחות מופרות, באיזה אופן, כמה גרוע, עד כמה זה משפיע על ההיסק ולפעמים בגודל המדגם.

אני מבצע ניתוח על נתונים מקובצים מעצים בארבע קבוצות. יש לי נתונים של כ- 35 מאפיינים עבור כל עץ ואני עובר על כל מאפיין כדי לקבוע אם הקבוצות שונות באופן משמעותי על תכונה זו. עם זאת, בכמה מקרים, הנחות ANOVA מופרות מעט מכיוון שהשונות אינן שוות (על פי מבחן של Levene, תוך שימוש באלפא = .05).

1) אם מדגם הגדלים שווים, אין לך הרבה בעיה. ANOVA חזקה למדי (ברמה) לשונות שונה אם ה- n זהה.

2) בדיקות שוויון השונות לפני ההחלטה אם להניח שהיא מומלצת כנגד מספר לימודים. אם יש לך ספק אמיתי שהם יהיו קרובים לשווה, עדיף פשוט להניח שהם לא שווים.

כמה אזכורים:

צימרמן, D.W. (2004),
"הערה לבדיקות ראשוניות של שוויון שונות."
Br. ג'יי מתמטיקה. סטאט. פסיכולוג. , מאי ; 57 (נק '1): 173-81.
http://www.ncbi.nlm.nih.gov/pubmed/15171807

הנריק נותן שלוש הפניות כאן

3) גודל האפקט הוא החשוב, ולא אם המדגם שלך גדול מספיק כדי לומר לך שהם שונים באופן משמעותי. כך שבדגימות גדולות, הבדל קטן בשונות יראה כמשמעותי ביותר במבחנה של לבן, אך למעשה אין לו שום השפעה בהשפעתו. אם הדגימות גדולות וגודל האפקט - יחס השונות או ההבדלים בשונות - קרוב למדי למה שהם אמורים להיות, אז ערך ה- p אין כל משמעות. (מצד שני, בדגימות קטנות, ערך p גדול ונחמד הוא לא נוח. כך או כך הבדיקה לא עונה על השאלה הנכונה.)

שים לב שיש התאמה מסוג Welch-Satterthwaite. לאומדן שגיאת התקן השיורית ו- df ב- ANOVA, בדיוק כמו שיש במבחני t מדוגמיים.

  1. השתמש במבחן לא פרמטרי כמו Wilcoxon (אם כן, איזה?) .

אם אתה מעוניין בחלופות לשינוי מיקום, אתה עדיין מניח התפשטות מתמדת. אם אתה מעוניין בחלופות כלליות הרבה יותר, אולי תשקול זאת; מדגם ה- k המקביל למבחן Wilcoxon הוא מבחן Kruskal-Wallis.

בצע איזשהו תיקון לתוצאת ANOVA

ראה את ההצעה שלי לעיל לשקול את Welch-Satterthwaite, זה 'סוג של תיקון'.

(לחלופין, אתה יכול ללהק את ה- ANOVA שלך כסט של מבחני t מסוג Welch זוגיים, ובמקרה כזה סביר להניח שתרצה להסתכל על Bonferroni או משהו דומה)

קראתי גם כמה דברים המצביעים על כך שהטרוסדקסטיות אינה באמת כל כך בעיה עבור ANOVA אלא אם כן האמצעים והשונות מתואמים (כלומר שניהם גדלים ביחד)

תצטרך לצטט משהו כזה. לאחר שבדקתי מספר מצבים עם מבחני t, אני לא חושב שזה נכון בבירור, ולכן הייתי רוצה לראות מדוע הם חושבים כך; אולי המצב מוגבל בצורה כלשהי. זה יהיה נחמד אם זה היה המקרה, כיוון שלעתים קרובות מודלים לינאריים כלליים יכולים לעזור במצב זה.

לבסוף, עלי להוסיף שאני מבצע את הניתוח הזה לפרסום בעמית כתב העת נבדק, כך שכל גישה שאני מתבסס עליה צריכה לעבור לגייס עם סוקרים.

קשה מאוד לחזות מה עשוי לספק את מבקריך. רובנו לא עובדים עם עצים.

Karl Ove Hufthammer
2014-06-15 16:58:17 UTC
view on stackexchange narkive permalink

למעשה לא קשה מאוד להתמודד עם הטרוססקסטיות במודלים לינאריים פשוטים (למשל, מודלים חד-כיווניים או דמויי ANOVA).

קשיחות של ANOVA h1 ראשית, כפי שאחרים מציינים, ANOVA חזקה להפליא לסטיות מההנחה של שונות שונה, במיוחד אם יש לך נתונים מאוזנים בערך (מספר שווה תצפיות בכל קבוצה). מבחנים מקדימים בשונות שווה, לעומת זאת, הם לא (אם כי המבחן של לבנה הוא הרבה יותר טוב מ F מבחן המקובל בספרי הלימוד). כפי שניסח זאת ג'ורג 'בוקס:

לערוך את המבחן המקדים על השונות זה כמו לשים לים בסירת משוטים כדי לברר אם התנאים רגועים מספיק כדי שתוחם אוקיינוס ​​יעזוב את הנמל!

למרות ש- ANOVA מאוד חזקה, מכיוון שקל מאוד לקחת בחשבון את ההטרוסדקטיות, אין שום סיבה שלא לעשות זאת.

מבחנים לא פרמטריים

אם אתה באמת מעוניין ב הבדלים באמצעים , המבחנים הלא פרמטריים (למשל, מבחן קרוסקאל – וואליס) ממש אינם מועילים. הם כן בודקים הבדלים בין קבוצות, אך הם לא באופן כללי בודקים הבדלים באמצעים.

נתונים לדוגמא

בואו ניצור דוגמה פשוטה לנתונים שבהם אחד הייתי רוצה להשתמש ב- ANOVA, אך כאשר הנחת השונות השווה אינה נכונה.

  set.seed (1232) pop = data.frame (group = c ("A", "B", "C"), mean = c (1,2,5), sd = c (1,3,4)) d = do.call (rbind, rep (list (pop), 13)) d $ x = rnorm (nrow (d), d $ mean, d $ sd)  קוד> 

יש לנו שלוש קבוצות, עם הבדלים (ברורים) הן באמצעים והן בשונות:

  תרשים רצועה (x ~ group, data = d)  

Stripchart showing example data.

ANOVA

באופן לא מפתיע, ANOVA רגיל מטפל בזה די טוב:

  > mod.aov = aov (x ~ group, data = d) סיכום > (mod.aov) Df Sum Sq ממוצע Sq F ערך Pr (>F) קבוצה 2 199.4 99.69 13.01 5.6e-05 ***
שאריות 36 275.9 7.66 --- סיניף. קודים: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 '' 1  

אז באילו קבוצות נבדלות? בואו נשתמש בשיטת HSD של Tukey:

  > TukeyHSD (mod.aov) Tukey השוואות מרובות של אמצעים 95% רמת ביטחון משפחתית Fit: aov (נוסחה = x ~ קבוצה, נתונים = ד) קבוצת $ diff lwr upr p adjB-A 1.736692 -0.9173128 4.390698 0.2589215CA 5.422838 2.7688327 8.076843 0.0000447CB 3.686146 1.0321403 6.340151 0.0046867  

עם ערך P של 0.26, אנו יכולים לא טוענים להבדל (באמצעים) בין קבוצה A ו- B. וגם אם לא ניקח בחשבון שעשינו שלוש השוואות, לא היינו מקבלים נמוך P / em> -value ( P = 0.12):

  > summary.lm (mod.aov) [...] מקדמים: אומדן Std. שגיאה t ערך Pr (> | t |) (יירוט) 0.5098 0.7678 0.664 0.511 groupB 1.7367 1.0858 1.599 0.118 groupC 5.4228 1.0858 4.994 0.0000153 *** --- Signif. קודים: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 '' 1 שגיאת תקן שיורית: 2.768 על 36 דרגות חופש  

מדוע זה? בהתבסס על העלילה, יש הבדל די ברור. הסיבה היא ש- ANOVA מניחה שונות שווה בכל קבוצה, ומעריכה סטיית תקן משותפת של 2.77 (מוצגת כ'שגיאת תקן שיורית 'בטבלה summary.lm , או שתוכל להשיג אותה על ידי נטילת שורש ריבועי של הריבוע הממוצע השיורי (7.66) בטבלת ANOVA. תוצאות משמעותיות, כלומר יש לנו מבחן עם עוצמה נמוכה (מדי).

'ANOVA' עם שונות לא שווה

אז איך להתאים מודל מתאים, כזה שלוקח בחשבון ההבדלים בשונות? זה קל ב- R:

  > oneway.test (x ~ group, data = d, var.equal = FALSE)
ניתוח חד כיווני של אמצעי נתונים (לא בהנחה שוני זהה): x ו- groupF = 12.7127, num df = 2.000, denom df = 19.055, p-value = 0.0003107  

אז אם אתה רוצה להפעיל 'ANOVA' חד כיווני פשוט ב- R מבלי להניח שונות זהה, השתמש בפונקציה זו. זה בעצם הרחבה של (Welch) t.test () לשתי דגימות עם שונות לא שווה.

למרבה הצער, זה לא עובד עם TukeyHSD () (או ברוב הפונקציות האחרות בהן אתה משתמש באובייקטים aov ), כך שגם אם אנחנו די בטוחים ש ישנם הבדלי קבוצות, איננו יודעים איפה ש הם נמצאים.

דוגמנות ההטרוסקסטיות

הפיתרון הטוב ביותר הוא לדגמן במפורש את השונות. וזה קל מאוד ב- R:

  ספריית > (nlme) > mod.gls = gls (x ~ group, data = d, weights = varIdent (form = ~ 1 | group)) > אנובה (mod.gls) מכנה. DF: 36 numDF F-value p-value (Intercept) 1 16.57316 0.0002group 2 13.15743 0.0001  

עדיין הבדלים משמעותיים, כמובן. אבל עכשיו ההבדלים בין קבוצה A ו- B הפכו גם הם משמעותיים סטטית ( P = 0.025):

  סיכום > (mod.gls) ריבועים קטנים ביותר כללים שמתאימים ל- REML דגם: קבוצה x ~ [...] פונקציית שונות: מבנה: סטיות תקן שונות לשכבה פורמולה: ~ 1 | הערכות פרמטרים בקבוצה: ABC 1.000000 2.444532 3.913382 מקדמים: ערך STD. שגיאה t- ערך p- ערך (יירוט) 0.509768 0.2816667 1.809829 0.0787groupB 1.736692 0.7439273 2.334492 0.0253groupC 5.422838 1.1376880 4.766542 0.000064 שגיאה: 1.0: שגיאה: 1.0 סך הכל; 36 שיורית  

אז שימוש במודל מתאים עוזר! שים לב גם שאנו מקבלים הערכות של סטיות התקן (היחסיות). סטיית התקן המשוערת לקבוצה A נמצאת בתחתית התוצאות 1.02. סטיית התקן המשוערת של קבוצה B היא פי 2.44 מזה, או 2.48, וסטיית התקן המשוערת של קבוצה C היא באופן דומה 3.97 (סוג מרווחי (mod.gls) כדי לקבל רווחי ביטחון עבור סטיות התקן היחסיות של קבוצות B ו- C).

תיקון לבדיקות מרובות

עם זאת, עלינו לתקן לבדיקות מרובות. זה קל באמצעות ספריית 'multcomp'. למרבה הצער, אין לו תמיכה מובנית באובייקטים של 'gls', לכן נצטרך להוסיף כמה פונקציות עוזר קודם:

  model.matrix.gls <- function (object, ...) model.matrix (terms (object), data = getData (object), ...) model.frame.gls <- function (object, ...) model.frame (formula (object), data = getData (object), ...) terms.gls <- function (object, ...) terms (model.frame (object), ...)  

עכשיו בוא נגיע עבודה:

  ספריית > (multcomp) > mod.gls.mc = glht (mod.gls, linfct = mcp (group = "Tukey")) סיכום > (mod.gls.mc) [...] השערות לינאריות: אומדן סט. שגיאת z ערך Pr (> | z |) B - A == 0 1.7367 0.7439 2.334 0.0480 * C - A == 0 5.4228 1.1377 4.767 <0.001 *** C - B == 0 3.6861 1.2996 2.836 0.0118 *  

עדיין הבדל מובהק סטטיסטית בין קבוצה A לקבוצה B! ואנחנו יכולים אפילו להשיג מרווחי ביטחון (סימולטניים) להבדלים בין אמצעי קבוצתי:

  > confint (mod.gls.mc) [...] השערות ליניאריות: הערכת lwr upr B- = 0 1.73669 0.01014 3.46324C - A == 0 5.42284 2.78242 8.06325C - B == 0 3.68615 0.66984 6.70245  

בעזרת מודל נכון (כאן בדיוק), אנו יכולים לסמוך על תוצאות אלו!

שים לב כי לדוגמא פשוטה זו, הנתונים עבור קבוצה C לא ממש מוסיפים שום מידע על ההבדלים בין קבוצה A ו- B, מכיוון שאנו מדגמנים אמצעים נפרדים וסטיות תקן עבור כל קבוצה. היינו יכולים להשתמש רק ב t מבחנים שתוקנו לזוגות לצורך השוואה מרובה:

  > pairwise.t.test (d $ x, d $ group, pool.sd = FALSE) השוואות זוגיות באמצעות בדיקות t עם נתוני SD שאינם מאוגדים: d $ x ו- d $ group ABB 0.03301 - C 0.00098 0.02032P שיטת התאמת ערך: holm 

עם זאת, למודלים מסובכים יותר למשל, מודלים דו-כיווניים, או מודלים לינאריים עם הרבה מנבאים, המשתמשים ב- GLS (ריבועים קטנים ביותר כללים) ומודלים במפורש את פונקציות השונות הוא הפיתרון הטוב ביותר.

ופונקציית השונות לא צריכה להיות פשוט שונה קבוע בכל קבוצה; אנחנו יכולים להטיל עליו מבנה. לדוגמא, אנו יכולים לדגם את השונות ככוח של ה ממוצע של כל קבוצה (ובכך רק צריך לאמוד פרמטר אחד , המעריך), או אולי כ לוגריתם של אחד המנבאים במודל. כל זה קל מאוד עם GLS (ו- gls () ב- R).

ריבועים לפחות כללים היא IMHO טכניקת דוגמנות סטטיסטית מאוד לא מנוצלת. במקום לדאוג לסטיות מהנחות המודל, מודל אותן סטיות!

תודה לך על התשובה!אני לא מבין לגבי התוצאה מ- oneway.test () ו- gls () עבור שונות לא שווה ANOVA (Welch ANOVA).ערך p של oneway.test () הוא ערך p = 0.0003107.אבל ערך p מ- gls (קבוצה x ~, נתונים = d, משקולות = varIdent (טופס = ~ 1 | קבוצה)) הוא 0.0001.מדוע שני התוצאות הללו שונות?
יש חשש גובר מתיקונים לבדיקות מרובות, אני חושב שדיווח על ערכי p לא מתוקנים יחד עם מספר ההשוואות שעשית שקוף יותר.במיוחד משום שאולי אינך מעוניין בכל השוואה זוגית כאשר אתה בודק אותם ב- R, לכן התיקון יבוצע על ידי התחשבות בהשוואות שאינן מעניינות.
Alexis
2014-05-10 00:40:41 UTC
view on stackexchange narkive permalink
  1. אכן עשויה להיות טרנספורמציה מסוימת של הנתונים שלך שמייצרת התפלגות נורמלית מקובלת. כמובן שעכשיו ההסקה שלך נוגעת לנתונים שהופכו, ולא לנתונים שלא הומרו.

  2. בהנחה שאתה מדבר על ANOVA בכביש המהיר, Kruskal-Wallis מבחן הוא אנלוגי לא פרמטרי מתאים ל- ANOVA הכביש המהיר. המבחן של דאן (לא מבחן סכום דרגות זן הגינה) הוא אולי המבחן הלא פרמטרי הנפוץ ביותר המתאים ל פוסט הוק השוואות מרובות זוגית, אם כי ישנן בדיקות אחרות כגון מבחן קונובר-אימן (בהחלט חזק יותר ממבחן דאן לאחר דחיית קרוסקאל-וואליס), ומבחן דוואס-סטיל-קריכטלו-פליגנר.

  3. הליכי השוואה מרובים (בין אם שיעור שגיאות משפחתי או מגוון שיעור גילוי כוזב , לא באמת קשור ישירות להנחות הבדיקה הספציפיות שלך (למשל , נורמליות הנתונים), אלא הם קשורים למשמעות של $ \ alpha $ (נכונות לדחות שווא את השערת האפס) בהתחשב בכך שאתה מבצע מספר בדיקות.

  4. ol >

    ה- ANOVA מבוסס על יחס בין קבוצה ובין שונות קבוצה. אני לא לגמרי בטוח למה אתה מתכוון בהטרוסדקסטיות בהקשר זה, אבל אם אתה מתכוון לשונות לא שוויונית בין קבוצות, זה נראה לי שובר ביסודו את ההיגיון של השערת האפס של המבחן.

    Google Scholar פשוט שאילתת "המבחן של דאן" יחד עם מונח כללי מהדיסציפלינה שלך צריכה להחזיר שפע של דוגמאות שפורסמו.


    הפניות

    קונובר, WJ ואימאן, RL (1979). על הליכי השוואה מרובה. דוח טכני LA-7677-MS, המעבדה המדעית לוס אלמוס.

    Crichtlow, D. E. and Fligner, M. A. (1991). על השוואות מרובות ללא הפצה בניתוח שונות בכיוון אחד. תקשורת בסטטיסטיקה - תיאוריה ושיטות , 20 (1): 127.

    Dunn, O. J. (1964). השוואות מרובות באמצעות סכומי דירוג. טכנומטרי , 6 (3): 241–252.

אוקי, תודה על התשובה הזו, אבל לא ברור לי לגמרי מה אתה אומר. באשר ל'הטרוסדקסטיות 'חשבתי שאני משתמש במילה במובן הרגיל: "אוסף של משתנים אקראיים הוא הטרוסקדסטי אם יש תת אוכלוסיות שיש בהן שונות שונה מאחרות. כאן ניתן לכמת את" השונות "על ידי השונות או כל מדד אחר לפיזור סטטיסטי. "- ויקיפדיה. בנתונים שלי השונות של קבוצות המשנה אינן שוות (על פי המבחן של לוויין) ולכן תיארתי אותן כהטרוסקסטיות. האם זה לא נכון?
מה שאני באמת מנסה לדון בו הוא הפער בין הסטטיסטיקה של ספרי הלימוד לעולם האמיתי. כל ספר לימוד אומר ש"הבדלים חייבים להיות שווים ל- ANOVA "אך כמובן שהם אף פעם לא. אז האם אנו מפסיקים באופן שרירותי בנקודה מסוימת ועוברים למבחן אחר - אם כן, באיזו נקודה? בתחום שלי (ביולוגיה של צמחים) רוב האנשים פשוט משתמשים בכל מבחן שהם הוכשרו לשימוש בלי הרבה מחשבה. אני לא ממש מרוצה מזה. אשמח לכל הצעה לספרים / אתרים שדנים בשימוש 'מעשי' בסטטיסטיקה - כלומר. באיזה בדיקה להשתמש מתי ומדוע. תודה על ההצעה של הדאן, זה עוזר.
אה, ההנחה של שינויים שווים היא * האוכלוסייה * השונות ולא השונות * המדגם *. אתה יכול להסיק ששוני האוכלוסייה שווה ... באמצעות מבחן גלגל העין, או על ידי מבחן סטטיסטי אחר, למשל,
איך יודעים משהו על שונות האוכלוסייה אם לא על ידי הערכת השונות המדגם? אני מפרש את מבחן ה- p-val של לבנה כ"הנחה שהשונות באוכלוסייה זהה, מה הסיכויים שהשונות המדגמית שלך תהיה שונה כל כך. " אם אני מקבל ערך נמוך אני דוחה את ההשערה כי שונות האוכלוסייה שווה ואינה יכולה להשתמש ב- ANOVA. קרוסקאל-וואלאס נראית כאלטרנטיבה טובה, אך האם עדיף על פני שינוי נתונים כדי לעמוד בהנחות ANOVA ואם כן מדוע?
כמו כן, האם המבחן של לבנה, עמ '<.05, הוא המבחן והניתוק המתאימים להחלטה זו? מה לגבי זה של אובראיין, ברטלט ... תוצאות הבדיקה האלה יכולות להיות שונות באופן מהותי ואני לא באמת יודע להשתמש בה - אז אני הולך עם לבנה כי זה נראה הכי שמרני. אבל אולי זה עודף יתר על המידה - אולי בגלל שאני מהיר מדי לנטוש את ANOVA, אני עובר למבחן שמפחית שלא לצורך את הכוח הסטטיסטי של הניתוח שלי.
כדי להיות פדנטיים, אנחנו * לא * יודעים כלום על שונות האוכלוסייה, אלא רק * מסיקים *. כמו שכתבתי. אני חושב שההסקה שלך על המבחן של לבנה היא איתנה. אין לי תשובה לגבי העדפת טרנספורמציה. $ \ alpha $ היא החלטת החוקר, אולי הודיעה על פי הנחיות מערכת או מממן. עד כמה אתה מודאג מכוח שאתה מקבל את גודל המדגם שלך ואת גודל גודל האפקט שאתה רלוונטי?
אני בכלל לא ממש מודאג מגודל ההשפעה, כל הבדל סטטיסטי מובהק הוא בסדר. הפרטים ארוכים מכדי להיכנס אליהם, אך הנתונים / הניסוי מתוארים טוב יותר כאן: http://stats.stackexchange.com/questions/96154/when-to-remove-replace-outliers-for-different-types-of -ניתוח המוטיבציה המיידית שלי היא להימנע ממבקר שאומר "השתמשת במבחן הלא נכון" אבל המטרה האמיתית שלי היא להבין באיזה מבחן להשתמש מתי ומדוע. ספרי לימוד סטטיסטיים מדברים על הדברים האלה במונחים אידיאליים / מופשטים ורוב המדענים שאני שואל פשוט משתמשים במבחנים שלמדו בבית הספר היסודי, ולא יודעים למה.
מדוע "כל הבדל סטטיסטי משמעותי הוא בסדר?"
מכיוון שכדי להיות בוטה, זה לא הניסוי או מערכת הלימוד שלי ואני לא צריך לכתוב את כתב היד. אני לא ממש מכיר את המינים הנחקרים, ולכן אין לי מושג חזק איזה גודל אפקט יהיה מעניין או חשוב. אני פשוט מנסה לקבוע אם ההבדל הוא משמעותי. המטרה שלי היא רק למצוא ולהשתמש במבחנים הטובים ביותר שיספקו את התוצאות החזקות ביותר - ואז החוקר יכול להחליט אם ההבדל אכן חשוב ולכתוב את הנייר. אני פשוט לא רוצה לעשות שימוש לרעה במבחן, או לא להשתמש במבחן טוב שלא הייתי מודע אליו.
Angus P
2014-05-10 19:24:19 UTC
view on stackexchange narkive permalink

זה נשמע לי כאילו אתה עושה עבודת רגליים ומנסה כמיטב יכולתך אבל חושש שהמאמצים שלך לא יהיו טובים מספיק כדי להעביר את המאמר שלך על פני הסוקרים. מאוד בעיה בעולם האמיתי. אני חושב שכל החוקרים נאבקים בניתוחים שנראים גבוליים או אפילו מפרים הנחות יסוד מדי פעם. אחרי הכל יש מיליוני מאמרים המעריכים למשל. השפעות הטיפול בשלוש קבוצות עכברים קטנות עם משהו כמו 6 - 7 עכברים בכל קבוצה. איך לדעת אם הנחות Anova מתקיימות במאמר כזה!

סקרתי מספר רב של מאמרים במיוחד בתחום הפתופיזיולוגיה הלב וכלי הדם ולמעשה אף פעם לא מרגיש בטוח ב 100% אם אוכל לסמוך על הנתונים או לא במאמר שקראתי. אבל מבחינתי בתור סוקר, אני דווקא נוטה לחשוב שנושאים יכולים להתעורר ב אז רמות רבות במדע שככל הנראה אין טעם לחפור עמוק מדי בסטטיסטיקה - אחרי הכל, כל מערך הנתונים יכול להיות מפוברק ולעולם בעוד מיליון שנה לא אוכל לספר. בהתאם, תמיד יהיה אלמנט של אמון בתחום העבודה הזה, שאסור לחוקרים להתעלל בו לעולם.

ההצעה הכי אמיתית שהייתי נותן היא שאתה צריך לחשוב על הכל בזהירות רבה לפניך. הגש וודא כי תוכל לענות בכנות על כל שאלות שנשאלו על ידי הסוקרים. כל עוד עשית כמיטב יכולתך, הכוונות שלך כנות ואתה ישן טוב בלילה אני חושב שאתה צריך להיות בסדר.

אני לא בטוח שאני מסכים שלא אוכל לזהות המצאות: הבחנתי בכאלה בעבר.


שאלה ותשובה זו תורגמה אוטומטית מהשפה האנגלית.התוכן המקורי זמין ב- stackexchange, ואנו מודים לו על רישיון cc by-sa 3.0 עליו הוא מופץ.
Loading...