Consenti una correzione: penso che la tua affermazione "dice che si dovrebbe sinceramente provare a confutare le ipotesi - e sono abbastanza certo che non intendeva l'ipotesi nulla formulata da Fisher ma piuttosto l'ipotesi che è di importanza critica per noi "non è proprio corretto. In realtà, questo è esattamente il modo in cui Fisher avrebbe descritto "ipotesi nulla". Per Fisher, esiste un solo tipo di ipotesi: l'ipotesi da testare, ovvero l'ipotesi nulla. La distinzione tra ipotesi nulla e alternativa, introdotta da Neyman e Pearson, non è mai stata accettata da Fisher (anche l'affermazione di Conifold "Invece di testare direttamente l'ipotesi effettiva Fisher ha suggerito di testare la sua 'negazione', l'ipotesi nulla, se viene fuori l'ipotesi nulla improbabile dopo il test, la nostra ipotesi effettiva "sopravvissuta al test" "non descrive correttamente l'approccio di Fisher)
Se leggi attentamente Fisher, la versione comunemente usata di" ipotesi nulla "(zero, nessun effetto, "solo variazione casuale" e simili) non è ciò a cui Fisher si riferiva. Il significato centrale di un test per la significatività statistica è la sua capacità di creare risultati che possono essere, secondo Fisher ("The Design of Experiments", 2a ed., 1937), divisi in due classi con interpretazioni differenti:
"quelli che mostrano una discrepanza significativa rispetto a una certa ipotesi; […] E […] risultati che non mostrano discrepanze significative rispetto a questa ipotesi. Questa ipotesi […] è ancora una volta caratteristica di ogni sperimentazione. […] [Possiamo] parlare di questa ipotesi come di "ipotesi nulla", e va notato che [essa] non è mai dimostrata o stabilita, ma è forse smentita, nel corso della sperimentazione. [...] Se si affermasse che il soggetto non avrebbe mai sbagliato nei suoi giudizi, dovremmo ancora avere un'ipotesi esatta, ed è facile vedere che questa ipotesi potrebbe essere smentita da un singolo fallimento, ma non potrebbe mai essere dimostrata da qualsiasi quantità finita di sperimentazione. È evidente che l'ipotesi nulla deve essere esatta, cioè priva di vaghezza e ambiguità, perché deve fornire la base del "problema della distribuzione", di cui il test di significatività è la soluzione . Un'ipotesi nulla può, infatti, contenere elementi arbitrari, e nei casi più complicati spesso lo fa ". (pagg. 18-20; enfasi aggiunta)
Si noti che l'unica caratteristica distintiva di una 'ipotesi nulla', così come è caratterizzata da Fisher, è la sua capacità di suddividere i risultati di un esperimento in due classi che si escludono a vicenda (casi di supporto e casi contraddittori), e di farlo , deve essere esatto. È tutto. Non si presume che un'ipotesi nulla debba dichiarare l'assenza di qualsiasi effetto, come sostengono la maggior parte delle risorse statistiche - siti web, articoli e libri di testo. È anche importante che, come già accennato, nell'approccio di Fisher non vi sia alcuna ipotesi "alternativa", che viene spesso equiparata alla "ipotesi di ricerca" da sostenere rifiutando il nulla. Nell'approccio di Fisher, l '"ipotesi nulla" è l'ipotesi che il ricercatore vuole verificare. Può affermare l'assenza di un effetto o la sua esistenza e, finché è esatto, può essere testato. Tuttavia, per testare in modo appropriato un'ipotesi nulla non nulla, i test normalmente applicati (ad es.Test t) devono essere sostituiti da versioni che riflettono l'effetto (dimensione). Nel caso del test t, qualsiasi effetto potrebbe essere testato utilizzando una particolare versione non centrale di questo test (che utilizza la stessa distribuzione utilizzata per i calcoli di potenza nell'approccio Neyman-Pearson). Una p significativa indicherebbe - come al solito - che i dati ovviamente non corrispondono alla previsione basata sull'ipotesi nulla (la nostra ipotesi di ricerca!), Che sarebbe comunemente considerata come rifiuto del nulla. Interpretato in questo modo, almeno la maggior parte (se non tutti) dei difetti di solito discussi di "NHST" scompaiono. Inoltre, questa interpretazione del test di significatività sembra una versione statistica del principio di falsificazione di Popper, o almeno come un argomento statistico strettamente correlato ad esso.
La confusione di molti utenti di metodi statistici (che ha anche guidato la discussione - ancora in corso - su NHST, "test di significatività dell'ipotesi nulla" nelle "scienze" morbide o - meglio - deboli [come la psicologia]) è probabilmente a causa della confusione di due approcci distinti per verificare le ipotesi - il test di significatività di Fisher da un lato e la teoria della decisione statistica di Neyman-Pearson dall'altro - in un "ibrido incoerente che ogni statistico decente rifiuterebbe" (Gigerenzer, 1993). Uno studio prototipico, almeno in psicologia, funziona in questo modo: il ricercatore presume, chiamiamolo A, che ci sia qualche effetto. Assume una dimensione dell'effetto media (d di Cohen = 0,5; teoria povera, probabilmente, ma comunque ...) e calcola la dimensione del campione affinché questo effetto ipotizzato sia indicato in modo sensibile, diciamo con Potenza = 0,8 (questo è un tipo di Neyman-Pearson). Quindi raccoglie i dati, esegue un test t o F standard (centrale), impostando un'ipotesi nulla di "nessun effetto" e se p <0.05, rifiuta il valore nullo (che è ok; questo è Fisher, ma non verifica l'ipotesi effettiva) e accetta A ( che non va bene , poiché qualsiasi dimensione dell'effetto diversa da null ottiene supporto dal rifiuto il nulla, a meno che non si possano escludere tutte le altre alternative). Quest'ultima conclusione non è né Fisher, né Neyman-Pearson, semplicemente non è corretta.
Per riassumere, penso che l'abstract a cui ti riferisci sia piuttosto uno dei rari casi in cui l'essenza di ipotesi di verifica (in un modo che sarebbe stato accettato da Fisher) sono state estratte più o meno correttamente. Tuttavia, c'è una certa inesattezza in astratto, poiché presuppone che il nulla e l'ipotesi di ricerca siano cose diverse. Ma in realtà, per entrambi, Popper e Fisher, è l'ipotesi della ricerca che deve essere testata e, se necessario, respinta. Che in realtà è l'ipotesi nulla di Fisher.
Per quanto riguarda la tua terza domanda:
In "Logik der Forschung" Popper a volte si riferisce al concetto di probabilità di Fisher, ma non al test di significatività (o alla teoria di Neyman-Pearson). In "Statistical Inference and Analysis - Selected Correspondence of R.A. Fisher" di Bennett (1990), Popper non è elencato come corrispondente.