<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>0874-2049</journal-id>
<journal-title><![CDATA[Psicologia]]></journal-title>
<abbrev-journal-title><![CDATA[Psicologia]]></abbrev-journal-title>
<issn>0874-2049</issn>
<publisher>
<publisher-name><![CDATA[Associação Portuguesa de Psicologia (APP)Edições Colibri]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S0874-20491996000100014</article-id>
<article-id pub-id-type="doi">10.17575/rpsicol.v11i1.599</article-id>
<title-group>
<article-title xml:lang="pt"><![CDATA[Que confiança podemos ter nas conclusões estatísticas que apresentamos ?]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Azevedo]]></surname>
<given-names><![CDATA[Manuela]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Garcia-Marques]]></surname>
<given-names><![CDATA[Teresa]]></given-names>
</name>
<xref ref-type="aff" rid="A02"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Instituto Português de Investigação Marítima  ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
</aff>
<aff id="A02">
<institution><![CDATA[,Instituto Superior de Psicologia Aplicada  ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>01</month>
<year>1996</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>01</month>
<year>1996</year>
</pub-date>
<volume>11</volume>
<numero>1</numero>
<fpage>151</fpage>
<lpage>168</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://scielo.pt/scielo.php?script=sci_arttext&amp;pid=S0874-20491996000100014&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.pt/scielo.php?script=sci_abstract&amp;pid=S0874-20491996000100014&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.pt/scielo.php?script=sci_pdf&amp;pid=S0874-20491996000100014&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="pt"><p><![CDATA[Os testes estatísticos são um instrumento utilizado em investigação com vista a decidir/concluir sobre a presença/ausência de um efeito. Este artigo aborda a questão da potência dos testes estatísticos nas suas implicações para a validade das conclusões da análise de uma investigação. São também discutidos os dois tipos de erros associados à abordagem inferencial e as suas relações com a hipótese que rege a investigação (se coincidente com a hipótese nula, Ho, ou não). Paralelamente são discutidos assuntos como significância estatística, significância pragmática e representatividade.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[Statistical analysis in research allow us to decide about the presence or absence of an effect in our data. How confident are we about this decision? The power of the statistical tests, the relation between Type I and Type II errors with the acceptance of Ho, statistical significance, pragmatic significance and representativity are covered in this article.]]></p></abstract>
</article-meta>
</front><body><![CDATA[ <p><font face="Verdana" size="4"><b>Que confian&#231;a podemos ter nas conclus&#245;es estat&#237;sticas que apresentamos ?</b></font></p>      <p>&nbsp;</p>      <p><font face="Verdana" size="2"><b>Manuela Azevedo<sup>*</sup>, Teresa Garcia-Marques<sup>**</sup></b></font></p>      <p><font face="Verdana" size="2"><sup>*</sup>Instituto Portugu&#234;s de Investiga&#231;&#227;o Mar&#237;tima</font></p>      <p><font face="Verdana" size="2"><sup>**</sup>Instituto Superior de Psicologia Aplicada</font></p>      <p>&nbsp;</p> <hr size="1" noshade>      <p><font face="Verdana" size="2"><b>RESUMO</b></font></p>      <p><font face="Verdana" size="2">Os testes estat&#237;sticos s&#227;o um instrumento utilizado em investiga&#231;&#227;o com vista a decidir/concluir sobre a presen&#231;a/aus&#234;ncia de um efeito. Este artigo aborda a quest&#227;o da pot&#234;ncia dos testes estat&#237;sticos nas suas implica&#231;&#245;es para a validade das conclus&#245;es da an&#225;lise de uma investiga&#231;&#227;o. S&#227;o tamb&#233;m discutidos os dois tipos de erros associados &#224; abordagem inferencial e as suas rela&#231;&#245;es com a hip&#243;tese que rege a investiga&#231;&#227;o (se coincidente com a hip&#243;tese nula, Ho, ou n&#227;o). Paralelamente s&#227;o discutidos assuntos como signific&#226;ncia estat&#237;stica, signific&#226;ncia pragm&#225;tica e representatividade.</font></p>  <hr size="1" noshade>      <p><font face="Verdana" size="2"><b>ABSTRACT</b></font></p>      <p><font face="Verdana" size="2">Statistical analysis in research allow us to decide about the presence or absence of an effect in our data. How confident are we about this decision? The power of the statistical tests, the relation between Type I and Type II errors with the acceptance of Ho, statistical significance, pragmatic significance and representativity are covered in this article.</font></p>  <hr size="1" noshade>     ]]></body>
<body><![CDATA[<p>&nbsp;</p>      <p><font face="Verdana" size="2">Um projecto de investiga&#231;&#227;o visa a recolha de dados informativos sobre a realidade em estudo. O modo como se recolhem esses dados &#233; determinante da sua informatividade, fornecendo crit&#233;rios de avalia&#231;&#227;o do projecto que se associam &#224; validade das conclus&#245;es que este proporciona, usualmente (na tradi&#231;&#227;o de Campbell, 1957) distinguidos em crit&#233;rios de validade interna, externa e de validade das suas operacionaliza&#231;&#245;es (validade de construto). Estes crit&#233;rios, felizmente, tendem a estar presentes na concep&#231;&#227;o da maioria dos nossos projectos de estudo. No entanto, frequentemente tendemos a negligenciar um outro crit&#233;rio que define igualmente a validade das conclus&#245;es dos nossos estudos: a sua validade estat&#237;stica ou validade relativa &#224; conclus&#227;o da exist&#234;ncia de uma covaria&#231;&#227;o nos nossos dados (Cook &amp; Campbell, 1979). Esta validade associa-se a um conjunto de quest&#245;es das quais destacamos: (1) a adequa&#231;&#227;o das t&#233;cnicas estat&#237;sticas utilizadas para inferir a exist&#234;ncia de covaria&#231;&#227;o (utiliza&#231;&#227;o do modelo estat&#237;stico apropriado &#224; natureza dos nossos dados - validade dos seus pressupostos); (2) a sensibilidade do nosso estudo e das t&#233;cnicas estat&#237;sticas para a detec&#231;&#227;o de covaria&#231;&#227;o; (3) a probabilidade, associada ao procedimento estat&#237;stico, de se inferir erradamente a presen&#231;a de covaria&#231;&#227;o. A preocupa&#231;&#227;o dos investigadores, regra geral, recai quase unicamente sobre esta &#250;ltima quest&#227;o (embora nem sempre de uma forma exaustiva, ver Garcia-Marques &amp; Azevedo, 1994). A adequa&#231;&#227;o do procedimento estat&#237;stico &#233; quase sempre tratada de uma forma muito superficial - a que atende meramente &#224; escala de medida das vari&#225;veis em estudo - embora se observe por vezes preocupa&#231;&#227;o em testar os pressupostos subjacentes &#224; constru&#231;&#227;o do teste a realizar. A segunda das quest&#245;es levantadas relaciona-se com a pot&#234;ncia dos testes realizados para concluir pela presen&#231;a ou aus&#234;ncia de uma rela&#231;&#227;o entre as vari&#225;veis em estudo, e sobre ela se centrar&#225; este artigo.</font></p>      <p><font face="Verdana" size="2">Ao apresentar e discutir a quest&#227;o da pot&#234;ncia de teste, abordaremos as estrat&#233;gias &#224; disposi&#231;&#227;o do investigador, que procuram garantir um justo julgamento da sua(s) hip&#243;tese(s). Paralelamente, discutiremos a tend&#234;ncia errada de se interpretar um resultado n&#227;o significativo (p&gt; n&#237;vel de signific&#226;ncia estabelecido) como sin&#243;nimo de aceita&#231;&#227;o da hip&#243;tese nula e evidenciaremos a necessidade do investigador n&#227;o se preocupar com os erros de Tipo I, em detrimento dos erros de Tipo II, quando postula a hip&#243;tese nula como verdadeira.</font></p>      <p><font face="Verdana" size="2">Em 1962, Jacob Cohen estimula a discuss&#227;o das quest&#245;es relativas &#224; pot&#234;ncia dos testes estat&#237;sticos, ao publicar uma an&#225;lise da pot&#234;ncia dos testes associados a um conjunto de artigos de investiga&#231;&#227;o em Psicologia. Os seus argumentos ganharam peso ao demonstrarem que algumas conclus&#245;es de estudos no campo da Psicologia haviam sido erradamente induzidas, em consequ&#234;ncia da fraca pot&#234;ncia dos testes estat&#237;sticos realizados<a href="#1"><sup>1</sup></a><a name="top1"></a>. A realidade, em 1962, era a de que, em m&#233;dia, para efeitos de magnitude moderada, os testes estat&#237;sticos tinham uma pot&#234;ncia de 48% (pelo que a probabilidade destes testes detectarem um efeito, que se sabe verdadeiro, era id&#234;ntica &#224; probabilidade associada ao acaso). Ap&#243;s 24 anos, uma an&#225;lise semelhante &#224; de Cohen &#233; levada a cabo por Sedlmeier e Gigerenzer (1989), e os resultados n&#227;o foram melhores, sendo aquela m&#233;dia de 50%. Desta forma, os efeitos significativos apontados naqueles estudos teriam, em m&#233;dia, 50% de hip&#243;teses de serem detectados por outros investigadores que pretendessem replicar as experi&#234;ncias. Nenhuma an&#225;lise semelhante foi realizada sobre os estudos portugueses do campo da Psicologia, pelo que, numa perspectiva optimista, os testes ter&#227;o, quando muito, uma pot&#234;ncia semelhante &#224;s an&#225;lises referidas. Que confian&#231;a podemos ter, ent&#227;o, nas conclus&#245;es estat&#237;sticas que apresentamos, se trabalhamos com instrumentos de t&#227;o fraca pot&#234;ncia? A situa&#231;&#227;o &#233; deveras preocupante? Que medidas podemos tomar com vista a mudar a situa&#231;&#227;o?</font></p>      <p><font face="Verdana" size="2">A situa&#231;&#227;o &#233; apenas parcialmente preocupante, visto que, embora n&#227;o possamos ter confian&#231;a em conclus&#245;es que p&#245;em em causa a presen&#231;a de covaria&#231;&#227;o, ela n&#227;o afecta a validade das infer&#234;ncias que lhe d&#227;o suporte. A conclus&#227;o sobre a presen&#231;a de um efeito apenas pode estar errada se esse efeito n&#227;o existir na popula&#231;&#227;o e este erro &#233; independente da pot&#234;ncia de um teste para detectar a sua presen&#231;a. Por outro lado, a gravidade da situa&#231;&#227;o pode ser atenuada por algumas iniciativas por parte do investigador, como veremos neste artigo.</font></p>      <p><font face="Verdana" size="2"><i>Alguns conceitos b&#225;sicos.</i></font></p>      <p><font face="Verdana" size="2">Com vista a tornar expl&#237;cita a no&#231;&#227;o de pot&#234;ncia de teste, recordemos alguns conceitos b&#225;sicos que lhe est&#227;o associados.</font></p>      <p><font face="Verdana" size="2">N&#227;o &#233; de certo estranha ao leitor a <a href="#t1">Tabela 1</a>, onde se ilustra o tipo de erros pass&#237;veis de serem cometidos quando se tomam decis&#245;es sobre a validade da hip&#243;tese especificada pela hip&#243;tese nula (Ho), associada a um dado teste estat&#237;stico . O <i>erro Tipo I</i> ocorre quando rejeitamos Ho, sendo esta verdadeira. A probabilidade de cometer este tipo de erro define o <i>n&#237;vel de signific&#226;ncia</i> de uma conclus&#227;o, que &#233; especificado <i>apriori</i> pelo investigador. Por outro lado, se Ho for falsa e a tomarmos como verdadeira, i.e., n&#227;o a rejeitarmos, cometeremos um <i>erro Tipo II.</i> As probabilidades de obten&#231;&#227;o destas conclus&#245;es falsas s&#227;o os riscos de 1<sup>a</sup> e de 2<sup>a</sup> esp&#233;cie, tamb&#233;m designados por a e &#946;, respectivamente (ver <a href="#t1">tab. 1</a>).</font></p>      <p>&nbsp;</p> <a name="t1"> <img src="/img/revistas/psi/v11n1/11n1a14t1.jpg">     
<p>&nbsp;</p> </a>      ]]></body>
<body><![CDATA[<p><font face="Verdana" size="2">A decis&#227;o estat&#237;stica ser&#225; correcta quando: (i) se rejeitar Ho, sendo Ho falsa ou (ii) n&#227;o se rejeitar Ho, sendo Ho verdadeira. Deste modo, 1-&#913; define o <i>coeficiente de confian&#231;a</i> do teste realizado (a probabilidade de n&#227;o se estar a cometer, por acaso, um erro de Tipo I) e 1-6, sendo a probabilidade de n&#227;o estarmos a cometer, por acaso, um erro de Tipo II, define a <i>pot&#234;ncia</i> do teste. A rela&#231;&#227;o entre a probabilidade de rejei&#231;&#227;o e o grau de falsidade da Ho constitui a <i>fun&#231;&#227;o pot&#234;ncia</i> de teste.</font></p>      <p><font face="Verdana" size="2">Pretendendo reduzir a probabilidade de retirar conclus&#245;es erradas do seu estudo, o investigador s&#243; considera um efeito como presente, caso a probabilidade de o observar, por mero acaso, seja realmente muito pequena. Estando directamente sobre o seu controlo o estabelecimento do n&#237;vel de signific&#226;ncia, o investigador estabelece um reduzido risco de erro Tipo I ao definir, regra geral, &#945;=5% ou 1%. O controlo do erro Tipo II e da pot&#234;ncia do teste, n&#227;o &#233; de modo algum t&#227;o directo. A pot&#234;ncia de um teste &#233; fun&#231;&#227;o da magnitude do efeito sob an&#225;lise, do n&#237;vel de signific&#226;ncia escolhido pelo investigador para a an&#225;lise dos seus dados, e da precis&#227;o/fidelidade dos dados recolhidos. Esta precis&#227;o reporta-se directamente ao termo de erro da mensura&#231;&#227;o do efeito a estudar, definido pela raz&#227;o de S<sup>2</sup>/n (erro padr&#227;o: em que S<sup>2</sup> representa a vari&#226;ncia emp&#237;rica e n a dimens&#227;o da amostra). A pot&#234;ncia de um teste relaciona-se, ainda, com a especificidade do teste estat&#237;stico a levar a cabo (Cohen, 1988). Atendamos separadamente a cada um dos tr&#234;s par&#226;metros que definem a pot&#234;ncia de um teste estat&#237;stico (Cohen, 1988): (i) o n&#237;vel de signific&#226;ncia, a, (ii) a magnitude do efeito, <i>ME</i>, e (iii) a dimens&#227;o da amostra, <i>n</i>, relativa &#224; variabilidade observada nos dados, <i>s</i><sup>2</sup>.</font></p>      <p><font face="Verdana" size="2">N&#237;vel de Signific&#226;ncia, &#945;.</font></p>      <p><font face="Verdana" size="2">A pot&#234;ncia de um teste est&#225; positivamente relacionada com alfa, dado esta probabilidade determinar directamente a &#225;rea da distribui&#231;&#227;o de amostragem que define o erro Tipo II.</font></p>      <p><font face="Verdana" size="2">A pr&#225;tica vulgar de seleccionar nos testes de hip&#243;teses um pequeno, seguindo o racioc&#237;nio de que &#171;quanto mais pequeno, melhor&#187;, resulta, regra geral, em valores de pot&#234;ncia (1-&#946;) relativamente pequenos e, portanto, em elevada probabilidade de cometer um erro Tipo II (&#946;). Vejamos o caso em que o investigador, ao seleccionar um &#945;=0.001, obt&#233;m uma pot&#234;ncia de teste de 10% (i.e.,1-&#946;=0.1). Note-se que, neste caso, a probabilidade de cometer pelo menos um erro Tipo II &#233; de 90%, pois &#946;=0.9, pelo que seria sensato proceder a uma revis&#227;o do plano experimental, incluindo a revis&#227;o do n&#237;vel de a de modo a aumentar a pot&#234;ncia do teste. Mas, caso o investigador queira prosseguir com as an&#225;lises, ent&#227;o deve ter consci&#234;ncia do ratio <sup>erro Tipo II</sup>/<sub>erro do Tipo I</sub> que vem a ser neste caso &#946;/&#945; = 0.9/0.001 (um ratio 900:1), ou seja, implicitamente o investigador acredita que rejeitar erradamente Ho &#233; 900 vezes mais &#171;s&#233;rio&#187; do que n&#227;o rejeitar Ho erradamente (Cohen, 1988).</font></p>      <p><font face="Verdana" size="2">Magnitude do Efeito, <i>ME</i>.</font></p>      <p><font face="Verdana" size="2">O fen&#243;meno ou efeito que se pretende estudar traduz-se em aus&#234;ncia de covaria&#231;&#227;o nos dados observados (se a hip&#243;tese nula for verdadeira) ou em presen&#231;a dessa covaria&#231;&#227;o (se a hip&#243;tese nula for falsa). No entanto, a realidade n&#227;o assume o mesmo car&#225;cter dicot&#243;mico de presen&#231;a e aus&#234;ncia, pelo que se o efeito estiver presente na popula&#231;&#227;o que se pretende estudar, ele pode manifestar-se com diferentes magnitudes. Ora, um teste pode ser suficientemente potente para detectar um efeito de elevada magnitude e n&#227;o detectar um efeito de magnitude mais reduzida. Efeitos de elevada magnitude traduzem-se em distribui&#231;&#245;es de amostragem com m&#233;dias bastante distanciadas da m&#233;dia da distribui&#231;&#227;o associada ao efeito nulo, pelo que a probabilidade de erro Tipo II &#233; reduzida proporcionalmente ao aumento dessa dist&#226;ncia.</font></p>      <p><font face="Verdana" size="2">Tomemos o exemplo hipot&#233;tico em que conhec&#237;amos a percentagem correcta de indiv&#237;duos do sexo masculino de uma dada popula&#231;&#227;o, e que esta era de 52%. Um investigador que n&#227;o partilhasse do nosso conhecimento, realiza um estudo com o objectivo de determinar a composi&#231;&#227;o sexual daquela popula&#231;&#227;o. Recolhe uma amostra que lhe permita testar Ho:%M=%F <i>vs</i> Hl: %M&#8800;%F. Ao estabelecer aquela hip&#243;tese nula, o investigador implicitamente est&#225; a &#171;dizer&#187; que a magnitude do efeito da vari&#225;vel sexo &#233; zero. Mas, &#224; luz do que sabemos, a magnitude do efeito &#233; de dois pontos percentuais (medida como a percentagem de afastamento da percentagem definida em Ho), pelo que Ho deveria ser rejeitada. Mas Ho pode, no entanto, n&#227;o ser rejeitada apenas por falta de sensibilidade do instrumento estat&#237;stico utilizado. A probabilidade de interpretar um efeito de magnitude elevada como ausente, ser&#225; tanto maior quanto menor for a pot&#234;ncia de teste. Qualquer que seja a escala de medida em que se defina a magnitude do efeito (<i>ME</i>), este pode ser tratado como um par&#226;metro que assume o valor zero quando Ho &#233; verdadeira e qualquer outro valor diferente de zero quando Ho &#233; falsa. Deste modo, a <i>ME</i> mede a discrep&#226;ncia entre a hip&#243;tese nula, Ho, e a hip&#243;tese alternativa, Hl, (Cohen, 1992).</font></p>      <p><font face="Verdana" size="2">Dimens&#227;o da Amostra (<i>n</i>) e Variabilidade Observada (<i>s</i><sup>2</sup>).</font></p>      <p><font face="Verdana" size="2">A dimens&#227;o da(s) amostra(s), n, est&#225; estreitamente relacionada com a precis&#227;o a obter na estima&#231;&#227;o de par&#226;metros da popula&#231;&#227;o de dimens&#227;o N, sendo determinante da magnitude do erro padr&#227;o (<i>s</i><sup>2</sup>/<i>n</i>) associado a essa estima&#231;&#227;o. No caso extremo em que <i>n</i>=N, os par&#226;metros da popula&#231;&#227;o s&#227;o estimados com um coeficiente de confian&#231;a de 100%, pelo que n&#227;o existe um problema de estima&#231;&#227;o propriamente dito, visto se reduzir a zero a probabilidade de cometer erros de infer&#234;ncia. Tal, no entanto, pressup&#245;e uma total precis&#227;o do instrumento de medida usado (aus&#234;ncia do <i>erro aleat&#243;rio de medi&#231;&#227;o</i> )e o controlo de qualquer outra fonte de variabilidade associada &#224; recolha dos dados. O planeamento cuidadoso da experi&#234;ncia, com vista &#224; elimina&#231;&#227;o de fontes de variabilidade irrelevantes para a avalia&#231;&#227;o do fen&#243;meno em estudo, reduzindo <i>s</i><sup>2</sup> e, portanto, o erro padr&#227;o aumenta a pot&#234;ncia do(s) teste(s).</font></p>      ]]></body>
<body><![CDATA[<p><font face="Verdana" size="2">Na pr&#225;tica, o investigador raramente trabalha com a popula&#231;&#227;o que pretende estudar, mas com uma amostra reduzida de elementos dessa popula&#231;&#227;o, pelo que a dimens&#227;o dessa amostra &#233; determinante da precis&#227;o associada aos seus dados. A rela&#231;&#227;o de <i>n</i> com a pot&#234;ncia de teste &#233; intuitiva: quanto maior a precis&#227;o dos resultados obtidos com a amostra, maior a probabilidade de detectar o fen&#243;meno ou efeito explicitado em Hl.</font></p>       <p><font face="Verdana" size="2">O Modelo Estat&#237;stico e a Pot&#234;ncia do Teste Associado.</font></p>      <p><font face="Verdana" size="2">Dentro das t&#233;cnicas estat&#237;sticas criadas com vista &#224; detec&#231;&#227;o de covaria&#231;&#227;o, existem umas mais potentes que outras. Em particular, a abordagem param&#233;trica apresenta-se mais sens&#237;vel &#224; detec&#231;&#227;o de efeitos do que a n&#227;o-param&#233;trica, regra geral mais conservadora. A pot&#234;ncia de teste &#233; igualmente afectada pelo grau de ajustamento dos dados aos pressupostos do teste estat&#237;stico a realizar (Peterman, 1990).</font></p>      <p><font face="Verdana" size="2">A direc&#231;&#227;o da regi&#227;o de rejei&#231;&#227;o de um teste, que define um teste como uni- ou bilateral, tamb&#233;m interfere na pot&#234;ncia do teste. Quando Ho pode ser rejeitada em ambas as direc&#231;&#245;es (teste bilateral), o teste resultante tem menor pot&#234;ncia que um teste unilateral com o mesmo a, desde que o resultado obtido com aquela amostra v&#225; na direc&#231;&#227;o prevista (Cohen, 1988). Assim, o teste de Ho relativamente &#224; hip&#243;tese alternativa <i>m<sub>A</sub></i> &#62; <i>m<sub>B</sub></i> a um n&#237;vel de alfa de 5%, ter&#225; uma pot&#234;ncia equivalente ao teste bilateral com &#945;= 1 %. Isto, caso seja realmente maior que <i>m<sub>B</sub></i> pois se <i>m<sub>A</sub></i> &#60; <i>m<sub>B</sub></i>, o teste n&#227;o tem pot&#234;ncia, uma vez que esta afirma&#231;&#227;o n&#227;o &#233; contemplada na hip&#243;tese alternativa, logo inadmiss&#237;vel. Deste modo, estudos que definam claramente as suas hip&#243;teses experimentais, podem e devem definir as hip&#243;teses alternativas dos seus testes como unilaterais, deixando a hip&#243;tese de efeito n&#227;o direccionado apenas a casos espec&#237;ficos como, por exemplo, o caso dos estudos explorat&#243;rios.</font></p>      <p><font face="Verdana" size="2"><i>Estima&#231;&#227;o de par&#226;metros associados &#224; pot&#234;ncia de teste.</i></font></p>      <p><font face="Verdana" size="2">As express&#245;es que permitem determinar a pot&#234;ncia de um teste englobam os par&#226;metros j&#225; referidos, mas s&#227;o espec&#237;ficas ao m&#233;todo estat&#237;stico particular que vai ser utilizado (teste-t, ANOVA, etc.). Essas express&#245;es podem ser resolvidas relativamente a qualquer um daqueles par&#226;metros, desde que se estabele&#231;am os restantes como fixos <i>a priori.</i> Podemos assim, (1) determinar qual a pot&#234;ncia de um teste associado a um dado &#945; , <i>n</i> e <i>ME</i>, (2) determinar a dimens&#227;o da amostra associada a uma dada pot&#234;ncia de teste, com a e <i>ME</i> pr&#233;-determinados, (3) determinar a magnitude de efeito, pass&#237;vel de ser detectada por um teste, com uma determinada pot&#234;ncia, com uma amostra de dimens&#227;o <i>n</i> e um dado &#913;, e, por &#250;ltimo, (4) determinar que risco de erro Tipo I poder&#237;amos cometer, caso pretend&#234;ssemos uma pot&#234;ncia de teste v, com aquele <i>n</i> e para aquela <i>ME</i>. Jacob Cohen (1988), pretendendo facilitar todo este tipo de an&#225;lises, concebe tabelas dos seus valores relativas a algumas das situa&#231;&#245;es mais vulgares na investiga&#231;&#227;o em Psicologia. Requerendo do utilizador poucos conhecimentos matem&#225;ticos para a an&#225;lise da pot&#234;ncia de teste, Cohen oferece igualmente um conjunto de exemplos ilustrativos que esclarecem d&#250;vidas eventuais. A sua extens&#227;o e profundidade &#233;, no entanto, muitas vezes dissuasora de uma leitura atenta, por um leitor menos entusiasta com a preocupa&#231;&#227;o com a pot&#234;ncia dos seus testes. Para estes recomendamos o trabalho de Kraemer &amp; Thiemann (1987), que publica uma tabela &#250;nica para a estima&#231;&#227;o de valores dos par&#226;metros, associados a diferentes pot&#234;ncias de teste de diferentes testes estat&#237;sticos, e que as autoras designaram de <i>Master Table.</i> Para o leitor ainda menos motivado para o assunto, Cohen (1992) escreve um artigo apresentando uma simples regra de algibeira para o c&#225;lculo da dimens&#227;o da amostra, necess&#225;ria a uma determinada pot&#234;ncia de teste para o recurso a an&#225;lises estat&#237;sticas mais comuns.</font></p>       <p><font face="Verdana" size="2">Infelizmente, os programas estat&#237;sticos mais comumente utilizados em investiga&#231;&#227;o<a href="#2"><sup>2</sup></a><a name="top2"></a>, carecem de algoritmos que permitam a estima&#231;&#227;o de par&#226;metros associados a diferentes pot&#234;ncias de teste. Em Goldstein (1989) pode ler-se uma revis&#227;o comparativa dos programas dispon&#237;veis para computadores MS/PCDOS, elaborados para a determina&#231;&#227;o da dimens&#227;o da amostra e da pot&#234;ncia de teste.</font></p>      <p><font face="Verdana" size="2">Em termos pr&#225;ticos, n&#227;o se encontra directamente sob o controlo do investigador o estabelecimento quer da magnitude do efeito (que define o objecto de estudo do investigador) quer do erro aleat&#243;rio de mensura&#231;&#227;o desse efeito (que apenas pode ser considerado como reduzido ao m&#225;ximo, por um cuidadoso planeamento do estudo que reduza as fontes de variabilidade estranhas que se lhes associem). Al&#233;m disso, enquanto os restantes par&#226;metros associados &#224; pot&#234;ncia de teste se apresentam numa escala absoluta pr&#233;-estabelecida, a magnitude de efeito traduz-se em escalas arbritr&#225;rias. H&#225;, assim, necessidade de uniformizar as unidades a atribuir &#224; <i>ME</i>, de modo a consultar qualquer das tabelas de pot&#234;ncia de teste ou mesmo os gr&#225;ficos de Pearson e Hartley (1951), que surgiram como a primeira estrat&#233;gia de c&#225;lculo. Os &#237;ndices usados combinam o efeito e a sua variabilidade, e dependem do tipo de an&#225;lise estat&#237;stica que se pretende realizar. Reportando o leitor a alguma das obras acima referidas, ilustraremos apenas alguns dos casos, nomeadamente i) o da compara&#231;&#227;o das m&#233;dias de duas popula&#231;&#245;es (teste-&#237; para amostras n&#227;o emparelhadas), ii) uma an&#225;lise de vari&#226;ncia simples com <i>k</i> n&#237;veis ou grupos e iii) o teste de compara&#231;&#227;o de coeficientes de correla&#231;&#227;o. Em todos estes casos, considera-se que n&#227;o houve viola&#231;&#227;o dos pressupostos inerentes aos m&#233;todos estat&#237;sticos em quest&#227;o e usa-se a nota&#231;&#227;o de Cohen (1988) para os respectivos &#237;ndices de magnitude de efeito.</font></p>      <p><font face="Verdana" size="2">i) Considere-se o teste-&#237; de compara&#231;&#227;o das m&#233;dias de duas amostras independentes, sob a hip&#243;tese de que a diferen&#231;a das m&#233;dias das respectivas popula&#231;&#245;es &#233; zero. Assim, seja:</font></p>      <p><font face="Verdana" size="2">Ho:m<sub>A</sub>=m<sub>B</sub> <i>vs</i> H1:m<sub>A</sub>&#8800;m<sub>B</sub></font></p>      ]]></body>
<body><![CDATA[<p><font face="Verdana" size="2">nA=nB</font></p>      <p><font face="Verdana" size="2">&#963;<sup>2</sup><sub>A</sub> = &#963;<sup>2</sup><sub>B</sub> = &#963;<sup>2</sup></font></p>      <p><font face="Verdana" size="2">O &#237;ndice <i>d</i>, da magnitude de efeito associado a esta an&#225;lise, &#233; dado pela diferen&#231;a absoluta das m&#233;dias das popula&#231;&#245;es padronizada pelo desvio padr&#227;o das popula&#231;&#245;es, G (por sua vez estimado pelo desvio padr&#227;o emp&#237;rico):</font></p>      <p>&nbsp;</p> <a name="e1"> <img src="/img/revistas/psi/v11n1/11n1a14e1.jpg">     
<p>&nbsp;</p>      <p><font face="Verdana" size="2">Se o teste &#233; unilateral, aquela diferen&#231;a deixa de ser absoluta para tomar valores positivos ou negativos consoante o sentido da diferen&#231;a especificado na hip&#243;tese unilateral.</font></p>      <p><font face="Verdana" size="2">Para se ter uma ideia da ordem de grandeza dos n&#237;veis de <i>d</i>, Cohen prop&#245;e uma escala funcional para este &#237;ndice dada por</font></p>        <p><font face="Verdana" size="2">d = 0.2 se o efeito &#233; pequeno</font></p>      <p><font face="Verdana" size="2">d = 0.5 se o efeito &#233; m&#233;dio</font></p>      <p><font face="Verdana" size="2">d = 0.8 se o efeito &#233; grande</font></p>      ]]></body>
<body><![CDATA[<p><font face="Verdana" size="2">ii) No caso da ANOVA, com um factor (modelo de efeitos fixos) se Ho &#233; verdadeira, tanto a m&#233;dia da diferen&#231;a quadr&#225;tica entre grupos, MSA, como o quadrado m&#233;dio residual, MSe, obtidos do modelo s&#227;o uma estimativa da vari&#226;ncia comum &#224;s <i>k</i> popula&#231;&#245;es, &#963;<sup>2</sup>, considerando-se apenas uma popula&#231;&#227;o. Se as m&#233;dias n&#227;o s&#227;o iguais, ent&#227;o MSA ser&#225; maior que MSe (Scheff&#233;, 1959) e a raz&#227;o entre aqueles quadrados m&#233;dios segue uma distribui&#231;&#227;o F&#91;glA, gle&#93; (em que <i>glA</i> e <i>gle</i> representam o n&#250;mero de graus de liberdade associados &#224; fonte de varia&#231;&#227;o devida ao factor A e ao erro residual, respectivamente). No entanto, se Ho &#233; falsa, aquela raz&#227;o segue uma distribui&#231;&#227;o F n&#227;o-central com par&#226;metros <i>glA, gle</i> e &#955; (designado par&#226;metro de n&#227;o-centralidade). Como a pot&#234;ncia de teste se refere &#224; probabilidade de detectar se a hip&#243;tese nula &#233; falsa, o c&#225;lculo da pot&#234;ncia no caso da an&#225;lise de vari&#226;ncia depende desta distribui&#231;&#227;o F n&#227;o-central.</font></p>       <p><font face="Verdana" size="2">No caso da an&#225;lise de vari&#226;ncia (modelo de efeitos fixos) a um factor de k n&#237;veis e igual n&#250;mero de observa&#231;&#227;o por c&#233;lula, o &#237;ndice da magnitude do efeito, f, vir&#225; dado por:</font></p>      <p>&nbsp;</p> <a name="e2"> <img src="/img/revistas/psi/v11n1/11n1a14e2.jpg">     
<p>&nbsp;</p>       <p><font face="Verdana" size="2">em que &nbsp;&nbsp;&nbsp;(m&#233;dia do n&#237;vel <i>i</i>: <i>i</i>=<i>1,&hellip;,k</i>); <i>m</i> (m&#233;dia global) e <i>MSe</i> (vari&#226;ncia residual do modelo ANOVA).. Este &#237;ndice representa tamb&#233;m o desvio padr&#227;o das m&#233;dias padronizado pelo desvio aleat&#243;rio, sendo por tal independente da escala de medida, ou seja, <i>scale-free</i> (Cohen, 1992).</font></p>      <p><font face="Verdana" size="2">Um outro &#237;ndice vulgarmente empregue para quantificar a magnitude do efeito &#233; o &#237;ndice designado por omega quadrado, &#969;<sup>2</sup> (Keppel, 1991). A rela&#231;&#227;o entre &#969;<sup>2</sup> e <i>f</i> &#233; dada pela express&#227;o &#969;<sup>2</sup>=f<sup>2</sup>/(l +<i>f</i><sup>2</sup>), que representa uma medida da dispers&#227;o dos (Cohen, 1988). Quando as m&#233;dias das popula&#231;&#245;es s&#227;o todas iguais <i>f</i><sup>2</sup>=0 e, portanto &#969;<sup>2</sup>=0, indicando que nenhuma parte da vari&#226;ncia total se deve a diferen&#231;as naquelas popula&#231;&#245;es. Estes &#237;ndices reflectem a propor&#231;&#227;o da variabilidade total observada na experi&#234;ncia que &#233; explicada pela variabilidade entre os diferentes tratamentos.</font></p>      <p><font face="Verdana" size="2">Os n&#237;veis de grandeza convencionais atribu&#237;dos a estes &#237;ndices, com o objectivo pr&#225;tico de se ter uma perspectiva de interpreta&#231;&#227;o dos seus valores, t&#234;m a seguinte correspond&#234;ncia:</font></p>       <p><font face="Verdana" size="2"><i>f</i>= 0.10; &#969;<sup>2</sup> = 0.01  se o efeito &#233; pequeno</font></p>      <p><font face="Verdana" size="2"><i>f</i>= 0.25; &#969;<sup>2</sup>= 0.06  se o efeito &#233; m&#233;dio</font></p>       <p><font face="Verdana" size="2"><i>f</i>= 0.40; &#969;<sup>2</sup>= 0.14  se o efeito &#233; grande</font></p>      ]]></body>
<body><![CDATA[<p><font face="Verdana" size="2">iii) Num teste de compara&#231;&#227;o de dois coeficientes de correla&#231;&#227;o em amostras independentes, a determina&#231;&#227;o do &#237;ndice da magnitude do efeito, tendo em considera&#231;&#227;o a magnitude individual de cada coeficiente de correla&#231;&#227;o (r<sub>1</sub> e r<sub>2</sub> : coeficientes de correla&#231;&#227;o de Pearson) que &#233; obtida usando a transforma&#231;&#227;o de Fisher (z<sub>1</sub> = 0.5 ln(l+r<sub>1</sub>/l-r<sub>1</sub>); z<sub>2</sub> = 0.5 ln(1+r<sub>2</sub>/1-r<sub>2</sub>)), corresponde &#224; magnitude da sua diferen&#231;a. Assim, o &#237;ndice da magnitude do efeito, <i>q,</i> para o teste i) bilateral ou ii) unilateral, vem dado por:</font></p>      <p><font face="Verdana" size="2">i) q = | z<sub>1</sub> - z<sub>2</sub> |</font></p>      <p><font face="Verdana" size="2">ii) q = z<sub>1</sub> - z<sub>2</sub> ou q = z<sub>2</sub> - z<sub>1</sub></font></p>      <p><font face="Verdana" size="2">A escala de Cohen para as diferen&#231;as entre coeficientes de correla&#231;&#227;o corresponde aos seguintes n&#237;veis de <i>q</i>:</font></p>      <p><font face="Verdana" size="2"><i>q</i> = 0.1 se o efeito &#233; pequeno</font></p>      <p><font face="Verdana" size="2"> <i>q</i> = 0.3 se o efeito &#233; m&#233;dio</font></p>      <p><font face="Verdana" size="2"><i>q</i> = 0.5 se o efeito &#233; grande</font></p>      <p><font face="Verdana" size="2">Para ilustrar esta escala de magnitude de diferen&#231;a indicam-se alguns valores para os coeficientes de correla&#231;&#227;o, <i>r.</i> Assim, uma &#171;pequena&#187; diferen&#231;a entre coeficientes de correla&#231;&#227;o (<i>q</i>=0.1) corresponder&#225;, por exemplo, a valores de pares de r como (0.00, 0.10); (0.40,0.48); (0.80,0.83) ou ainda (0.95,0.96). A uma magnitude de efeito m&#233;dio (<i>q</i>=0.3), aos pares (0.00, 0.29); (0.40,0.62); (0.80,0.89) ou ainda (0.95,0.97) e para magnitudes de efeito grande (<i>q</i>=0.5), aos pares (0.00, 0.46); (0.40, 0.73); (0.80,0.92) e finalmente (0.95,0.98). Estes exemplos ilustram igualmente por que raz&#227;o a mera diferen&#231;a entre os coeficientes de correla&#231;&#227;o n&#227;o &#233; uma medida adequada da magnitude deste efeito.</font></p>      <p><font face="Verdana" size="2">Estes &#237;ndices, como j&#225; referimos, s&#227;o medidas de magnitude de efeito padronizadas, pelo que incorporam a estimativa da vari&#226;ncia residual, r (da&#237; a sua aus&#234;ncia nas tabelas apresentadas por Cohen, 1988).</font></p>      <p><font face="Verdana" size="2">Vejamos um exemplo ilustrativo da rela&#231;&#227;o entre os par&#226;metros referidos, considerando um estudo que envolve a compara&#231;&#227;o de dois valores m&#233;dios por um teste-&#237;. A <a href="#t2">Tabela 2</a>, tendo em considera&#231;&#227;o a escala de tr&#234;s valores <i>d</i> de magnitude de efeito, definida por Cohen para aquele teste, estabelece a rela&#231;&#227;o entre a pot&#234;ncia de teste e a dimens&#227;o das amostras.</font></p>      ]]></body>
<body><![CDATA[<p>&nbsp;</p> <a name="t2"> <img src="/img/revistas/psi/v11n1/11n1a14t2.jpg">     
<p>&nbsp;</p>       <p><font face="Verdana" size="2">Fa&#231;amos uma primeira leitura da <a href="#t2">Tabela 2</a>. Fixemos o n&#237;vel de a em 0.05. Para uma magnitude de efeito pequena (d=0.2) e para uma pot&#234;ncia de 0.75, a dimens&#227;o requerida para cada amostra &#233; n=348 observa&#231;&#245;es. Se a magnitude do efeito for m&#233;dia (d=0.5), ent&#227;o para a mesma pot&#234;ncia de teste o n&#250;mero de observa&#231;&#245;es em cada amostra vem <i>n</i>=<i>57</i> elementos. Este valor diminui para 23 observa&#231;&#245;es por amostra se a magnitude do efeito for grande (<i>d</i>= 0.8). Esta tend&#234;ncia decrescente de <i>n</i> com o aumento da <i>ME</i> &#233; not&#243;ria em cada n&#237;vel de pot&#234;ncia de teste. Verificamos assim que, quanto maior a <i>ME</i> definida, maior a capacidade de detectar o efeito com uma amostra de menor dimens&#227;o. Numa segunda leitura daquela Tabela, fixemos tamb&#233;m a magnitude do efeito em d=0.2. A dimens&#227;o de cada amostra varia entre 84 observa&#231;&#245;es, se a pot&#234;ncia de teste &#233; 0.25, e 651 observa&#231;&#245;es se a pot&#234;ncia &#233; elevada para 0.95. Para d=0.5 <i>n</i> varia entre 14 e 105 observa&#231;&#245;es e para d=0.8 n varia entre 6 e 42 observa&#231;&#245;es. Assim, <i>aumentar a pot&#234;ncia do teste implica aumentar o n&#250;mero de observa&#231;&#245;es em cada amostra.</i></font></p>      <p><font face="Verdana" size="2">Finalmente, analisemos a rela&#231;&#227;o entre a dimens&#227;o das amostras e o n&#237;vel de signific&#226;ncia a. Observamos na <a href="#t2">Tabela 2</a> que para os mesmos n&#237;veis de pot&#234;ncia de teste e <i>ME</i> a dimens&#227;o das amostras dever&#225; ser maior no caso em que &#913;=0.01. Assim, para <i>diminuir o n&#237;vel de signific&#226;ncia h&#225; que aumentar a dimens&#227;o das amostras</i>, pois <i>para manter o mesmo n&#237;vel de</i> n, <i>baixar alfa implica baixar a pot&#234;ncia do teste,</i> como se verifica no nosso exemplo: se &#913;=0.05, d=0.8 e 1-&#913;=0.5, ent&#227;o n=13 enquanto que, para manter <i>n</i>=13 com &#913;=0.01 e d=0.8, 1-&#913; baixa para metade (0.25).</font></p>      <p><font face="Verdana" size="2">Na realidade, querendo manter uma determinada pot&#234;ncia de teste, o controlo directo do investigador recai, essencialmente, sobre a dimens&#227;o da sua amostra, visto que, regra geral, n&#227;o &#233; do seu interesse trabalhar com alfas muito elevados. Um controlo mais indirecto adv&#233;m de todas as preocupa&#231;&#245;es com poss&#237;veis fontes de varia&#231;&#227;o estranhas ao seu estudo (redu&#231;&#227;o de <i>s</i><sup>2</sup>).</font></p>      <p><font face="Verdana" size="2"><i>Tipos de an&#225;lise da pot&#234;ncia de teste.</i></font></p>      <p><font face="Verdana" size="2">Existem fundamentalmente dois caminhos a seguir: 1) o de determinar a pot&#234;ncia do teste ap&#243;s a realiza&#231;&#227;o da experi&#234;ncia, procedimento que se designa por an&#225;lise de pot&#234;ncia <i>post hoc</i> ou a <i>posteriori</i> ou 2) o de planear a experi&#234;ncia para assegurar uma pot&#234;ncia de teste especificada <i>a priori.</i> Estes dois tipos de an&#225;lise, em &#250;ltima inst&#226;ncia, traduzem ora uma procura de mero conhecimento da pot&#234;ncia associada ao teste realizado, ora uma procura de exercer controlo sobre a pot&#234;ncia do teste a realizar.</font></p>      <p><font face="Verdana" size="2">An&#225;lise &#171;a posteriori&#187;.</font></p>       <p><font face="Verdana" size="2">Quando, ao realizar um teste estat&#237;stico, decidimos n&#227;o rejeitar Ho a um determinado n&#237;vel de a, a tend&#234;ncia &#233; para inferir a aus&#234;ncia do fen&#243;meno em estudo. O c&#225;lculo da pot&#234;ncia do teste realizado dar-nos-&#225; indica&#231;&#245;es sobre a validade dessa infer&#234;ncia. Esta an&#225;lise de pot&#234;ncia &#233; realizada <i>a posteriori</i>, ou seja, ap&#243;s se ter realizado o estudo e levado a cabo a an&#225;lise estat&#237;stica dos seus resultados. O investigador realiza-a para conhecer a probabilidade de detectar um efeito, caso ele realmente exista. A n&#227;o-rejei&#231;&#227;o de Ho, podendo indicar aus&#234;ncia de efeito, pode estar associada a uma probabilidade suficientemente reduzida para detectar esse efeito, ainda que este estivesse presente na popula&#231;&#227;o estudada.</font></p>      <p><font face="Verdana" size="2">Consideremos o caso em que recorremos &#224;s tabelas de Cohen. Pr&#233;-estabelecemos o n&#237;vel de a e a dimens&#227;o das amostras, <i>n</i> (que foi definida pelo n&#250;mero de observa&#231;&#245;es a realizar durante a experi&#234;ncia). A <i>ME</i> &#233; calculada usando a express&#227;o apropriada ao teste estat&#237;stico, que &#233; realizado e pode ser quantificada por um dos &#237;ndices anteriormente referidos. Embora esta estimativa da <i>ME</i> deva ser considerada caso se pretenda estudar a presen&#231;a ou aus&#234;ncia de um efeito, existem outras op&#231;&#245;es. Assim, por exemplo, se a <i>ME</i> estimada for pequena e ao investigador apenas interessar a detec&#231;&#227;o de efeitos de elevada magnitude, ser&#225; do seu interesse demonstrar que o teste tem a pot&#234;ncia suficiente &#224; detec&#231;&#227;o dessa magnitude. Neste caso, estabelecer&#225; a <i>ME</i> por um outro processo que n&#227;o o de estima&#231;&#227;o (ver An&#225;lise <i>a priori</i>).</font></p>      ]]></body>
<body><![CDATA[<p><font face="Verdana" size="2">Conhecidos a, <i>n</i> e <i>ME</i> a pot&#234;ncia do teste estat&#237;stico realizado pode ser determinada por consulta mais ou menos directa das tabelas de Cohen. Esta leitura nem sempre &#233; directa, chegando mesmo a necessitar, por vezes, de outro tipo de informa&#231;&#227;o sobre a an&#225;lise em curso. E o caso do estudo onde n&#227;o se realizaram igual n&#250;mero de observa&#231;&#245;es por c&#233;lula/amostra/grupo, sendo necess&#225;rio determinar o valor de <i>n</i> com que se vai consultar as tabelas (ver em Cohen 1988, as respectivas solu&#231;&#245;es). Por exemplo, para uma an&#225;lise de vari&#226;ncia (modelo de efeitos fixos onde os dados n&#227;o violam os pressuposto de normalidade e homocesdasticidade), a determina&#231;&#227;o da pot&#234;ncia necessita de um outro par&#226;metro de entrada nas tabelas de Cohen e que est&#225; relacionado com o n&#250;mero de n&#237;veis ou grupos de cada factor. O valor desse par&#226;metro corresponde ao n&#250;mero de graus de liberdade associados a cada factor.</font></p>      <p><font face="Verdana" size="2">An&#225;lise &#171;a priori&#187;.</font></p>      <p><font face="Verdana" size="2">Ao fazer o planeamento de um estudo emp&#237;rico, com vista a estudar um dado fen&#243;meno (efeito), &#233; desej&#225;vel e apropriado controlar a pot&#234;ncia que ter&#225; o teste que ir&#225; ser realizado para a an&#225;lise dos dados. Ao proceder &#224; an&#225;lise da pot&#234;ncia de teste, associada a um dado plano experimental, pode-se concluir, por exemplo, que a pot&#234;ncia &#233; de tal modo reduzida que a experi&#234;ncia ter&#225; que ser conduzida com um n&#250;mero de observa&#231;&#245;es bem maior, ou at&#233;, que o esfor&#231;o necess&#225;rio n&#227;o justifica prosseguir com esse plano experimental. No entanto, n&#227;o ter em conta a pot&#234;ncia de teste pode levar a que, na planifica&#231;&#227;o do estudo, se cometa um erro relativamente ao n&#250;mero de sujeitos a estudar, erro esse que pode ser irrevog&#225;vel e p&#244;r em causa todo o trabalho realizado.</font></p>       <p><font face="Verdana" size="2">Na an&#225;lise de pot&#234;ncia <i>a priori,</i> o investigador especifica quais os riscos de ocorr&#234;ncia dos erros Tipo II e Tipo I que pretende admitir, bem como qual a magnitude do efeito (<i>ME</i>) que est&#225; a estudar. Estabelecidos, <i>a priori</i>, os n&#237;veis de a, da <i>ME</i> (padronizada) e da pot&#234;ncia de teste, o investigador vai determinar <i>n</i>, a &#250;nica vari&#225;vel nesta situa&#231;&#227;o, utilizando por exemplo as tabelas constru&#237;das por Cohen (os gr&#225;ficos de Pearson e Hartley, 1951, s&#227;o outra via poss&#237;vel). Note-se que no caso deste <i>n</i> pr&#233;-estabelecido n&#227;o vir a ser concretizado (por dificuldades de ordem pr&#225;tica) deve proceder-se a uma rean&#225;lise da pot&#234;ncia (<i>a posteriori</i>).</font></p>      <p><font face="Verdana" size="2">Em termos pr&#225;ticos sabemos que, regra geral, o efeito a estudar &#233; de magnitude desconhecida, e que &#233; dif&#237;cil obter a dimens&#227;o das amostras requerida para assegurar uma determinada pot&#234;ncia de teste. Levanta-se, assim, de imediato a quest&#227;o &#171;Que fazer nestas situa&#231;&#245;es?&#187; Determinar diferentes valores de <i>n</i>, variando os n&#237;veis de <i>ME</i>, a e 1-&#946;, pode permitir ao investigador encontrar uma solu&#231;&#227;o de compromisso que procure compatibilizar a dimens&#227;o da amostra necess&#225;ria a n&#237;veis de a e pot&#234;ncia de teste que considere aceit&#225;veis. Esta solu&#231;&#227;o de compromisso envolve, igualmente, uma an&#225;lise cuidada dos objectivos do estudo, tendo por refer&#234;ncia alguns pontos que passamos a discutir.</font></p>      <p><font face="Verdana" size="2">A Pot&#234;ncia de Teste sob Controlo do Investigador.</font></p>      <p><font face="Verdana" size="2">Cabe ao investigador, que pretende exercer um controlo sob a pot&#234;ncia das an&#225;lises estat&#237;sticas a levar a cabo com os seus dados, analisar cuidadosamente as caracter&#237;sticas do seu estudo, nomeadamente no que diz respeito aos par&#226;metros da fun&#231;&#227;o pot&#234;ncia de teste. Consideremos em primeiro lugar o par&#226;metro <i>ME</i>.</font></p>      <p><font face="Verdana" size="2">A estima&#231;&#227;o do par&#226;metro magnitude de efeito, que estamos a estudar, &#233;, regra geral, apontada como o maior obst&#225;culo a uma an&#225;lise <i>a priori</i>, da pot&#234;ncia dos testes. Uma estimativa poder&#225; ser obtida i) com base em estudos anteriores realizados para as mesmas vari&#225;veis ou ii) com base em resultados de estudos piloto que se conduzam para o efeito. Na completa aus&#234;ncia destes guias o investigador pode ainda iii) apoiar-se na literatura dispon&#237;vel que, de alguma forma, sugira n&#237;veis de grandeza para o &#237;ndice em quest&#227;o (Cooper e Findley, 1982, sugerem no campo da Psicologia efeitos de magnitude m&#233;dia) ou, em &#250;ltima inst&#226;ncia, iv) atribuir um n&#237;vel de magnitude que considere veros&#237;mil. Daqui se depreende uma distin&#231;&#227;o entre os estudos orientados por uma hip&#243;tese espec&#237;fica, derivada directamente de uma teoria, e os estudos com um car&#225;cter essencialmente explorat&#243;rio. O investigador que se enquadra numa corrente te&#243;rica espec&#237;fica, com uma tradi&#231;&#227;o de estudos associada, deve examinar atentamente a literatura, de forma a se aperceber da magnitude dos efeitos . frequentemente detectados e, indirecta ou directamente, relacionados com o seu. Para o efeito, qualquer metan&#225;lise j&#225; realizada no campo ser&#225; de grande utilidade. Estudos explorat&#243;rios, por outro lado, podem ter de se basear em &#171;palpites&#187; menos fundamentados . No entanto, recomendamos igualmente uma an&#225;lise atenta &#224; literatura que referencie vari&#225;veis da mesma natureza daquelas que o investigador vai analisar no seu estudo.</font></p>       <p><font face="Verdana" size="2">Uma outra distin&#231;&#227;o de tipos de estudo &#233; relevante para estas considera&#231;&#245;es: a dos estudos com consequ&#234;ncias interventivas. Estes estudos devem ser planeados relativamente a magnitudes que diferenciem a decis&#227;o associada a diferentes tipos de ac&#231;&#227;o. Tomemos, como exemplo, um estudo de levantamento de necessidade de implementa&#231;&#227;o de uma ac&#231;&#227;o de forma&#231;&#227;o numa empresa. O gestor decidir&#225; pelo envolvimento numa ac&#231;&#227;o formativa, apenas se um dado conjuntos de indicadores apontarem a exist&#234;ncia de uma &#171;grande necessidade&#187;. A diferen&#231;a entre o que o gestor concebe ser &#171;grande necessidade&#187; e o que considera n&#227;o ser &#171;grande necessidade&#187;, &#233; que deve ser considerada como &#237;ndice de magnitude do efeito estudado, no c&#225;lculo da dimens&#227;o da amostra a utilizar no estudo. Note-se que, deste modo, a n&#227;o rejei&#231;&#227;o de Ho apenas refere que a diferen&#231;a n&#227;o alcan&#231;a a magnitude requerida (podendo existir diferen&#231;a ou at&#233; n&#227;o existir).</font></p>      <p><font face="Verdana" size="2">Caso o investigador n&#227;o possa fazer uma estimativa do que ser&#225; a magnitude do efeito a estudar poder&#225;, pelo menos, definir se esta ser&#225; pequena, m&#233;dia ou grande, atendendo assim &#224;s escalas funcionais de Cohen (1988). Por analogia, podemos comparar a pot&#234;ncia de teste, relativamente &#224; magnitude de efeito, com a pot&#234;ncia de uma lente relativamente ao objecto a observar: quanto menor o objecto/efeito, maior a pot&#234;ncia necess&#225;ria para detectar a sua presen&#231;a. Assim, enquanto ao pesquisador de bact&#233;rias oferecemos um microsc&#243;pio e ao detector de pulgas uma lupa lembramos que, n&#227;o faz sentido algum a quem procura um elefante fornecer qualquer destes instrumentos. Mas, ao mesmo tempo, h&#225; que ter em conta que um teste de fraca pot&#234;ncia, embora sendo capaz de detectar efeitos de grande magnitude, pode confundir a presen&#231;a de uma bact&#233;ria com a sua aus&#234;ncia.</font></p>      ]]></body>
<body><![CDATA[<p><font face="Verdana" size="2">Esta necessidade de estimar a magnitude dos efeitos a estudar, d&#225; grande relev&#226;ncia quer aos estudos metanal&#237;ticos, quer aos estudos explorat&#243;rios (que visam servir de suporte a um estudo de teste de hip&#243;teses espec&#237;ficas). Deste modo, o leitor aperceber-se-&#225; do servi&#231;o que pode prestar &#224; comunidade cient&#237;fica se apresentar nos seus relat&#243;rios a magnitude dos efeitos estudados.</font></p>      <p><font face="Verdana" size="2">O par&#226;metro a n&#227;o necessita de considera&#231;&#245;es sobre estima&#231;&#227;o, visto ser determinado previamente pelo investigador. Lembramos, no entanto, que este deve ter em considera&#231;&#227;o as implica&#231;&#245;es pr&#225;ticas de um erro Tipo I e de um erro Tipo II nas conclus&#245;es do seu estudo. Assim, consideremos o caso em que num determinado estudo o investigador vai formular uma Ho que &#171;espera&#187; vir a rejeitar (a hip&#243;tese de estudo coincide com Hl). Nesta situa&#231;&#227;o pode ser apropriado tomar uma atitude conservadora relativamente a a e, como tal, atribuir baixos n&#237;veis de signific&#226;ncia, como os recomendados &#945;=0.05 ou &#913;=0.01. Se a decis&#227;o vem a ser rejeitar Ho ent&#227;o, condicional a Ho ser verdadeira, apenas pode estar a cometer-se um erro Tipo 7, cuja probabilidade &#233; conhecida a partir do momento em que se especificou a. Caso contr&#225;rio, &#233; aquele em que se &#171;espera&#187; n&#227;o rejeitar Ho (a hip&#243;tese do estudo coincide com Ho). Nesta situa&#231;&#227;o &#233; &#243;bvio que se deve aumentar a sensibilidade do teste, estabelecendo maiores n&#237;veis de pot&#234;ncia de teste e, eventualmente, relaxando o controlo de alfa. Assim, novamente a distin&#231;&#227;o entre tipos de estudos condiciona a decis&#227;o sobre a. Nos estudos guiados teoricamente, a decis&#227;o de arriscar mais ou menos um dos tipos de erro, deriva directamente da hip&#243;tese em estudo (caso esta coincida com Ho ou com Hl), e nos estudos explorat&#243;rios, ou outro tipo de estudos, onde os efeitos esperados sejam igualmente vagos, deve-se assumir um compromisso entre os dois tipos de erro: Cohen (1992), sugere a selec&#231;&#227;o do n&#237;vel de pot&#234;ncia de teste correspondente a n&#237;veis de alfa da ordem dos 0.10.</font></p>       <p><font face="Verdana" size="2">Nos estudos com implica&#231;&#245;es pr&#225;ticas, devem analisar-se as consequ&#234;ncias associadas &#224;s medidas/ac&#231;&#245;es que derivem das conclus&#245;es do estudo. Um estudo que pretenda discernir a exist&#234;ncia de d&#233;ficites de aprendizagem num grupo de crian&#231;as com o fim de decidir por uma interven&#231;&#227;o suplementar, deve preocupar-se mais com erros de Tipo II do que de Tipo I, porque concluir, erradamente, que existem d&#233;ficites (erro de Tipo I) pode representar uma ac&#231;&#227;o interventiva junto de quem passava bem sem ela, enquanto que concluir erradamente a n&#227;o exist&#234;ncia de d&#233;ficites poderia conduzir &#224; decis&#227;o de n&#227;o interven&#231;&#227;o, o que teria como consequ&#234;ncia a n&#227;o resolu&#231;&#227;o de um problema com graves consequ&#234;ncias no futuro. Pelo contr&#225;rio, num estudo ergon&#243;mico que conclu&#237;sse a n&#227;o exist&#234;ncia de uma associa&#231;&#227;o entre a qualidade das condi&#231;&#245;es de trabalho e o n&#250;mero de idas a uma consulta m&#233;dica desses trabalhadores, a preocupa&#231;&#227;o deveria ser sobretudo com os erros de Tipo I. Isto porque, apenas face &#224; conclus&#227;o de presen&#231;a do efeito, se associavam medidas urgentes.</font></p>      <p><font face="Verdana" size="2">O par&#226;metro <i>n</i> &#233; de todos os par&#226;metros referidos aquele que &#233; mais male&#225;vel e, portanto, aquele sobre o qual o investigador vai exercer um maior controlo. A sua maleabilidade adv&#233;m do facto de ser estabelecido pelo investigador (o que n&#227;o acontece com <i>ME</i>) e de n&#227;o ter influ&#234;ncia directa sobre outro tipo de erro (o que n&#227;o acontece com &#913;). A regra, como j&#225; foi referido, &#233; de que: quanto maior o n&#250;mero de observa&#231;&#245;es realizadas, maior a pot&#234;ncia dos testes que lhes est&#227;o associados. No entanto, os custos em tempo, recursos, etc., nem sempre s&#227;o justific&#225;veis. Note-se, por&#233;m, que em estudos que envolvem elevados recursos econ&#243;micos &#233; necess&#225;rio assegurar uma elevada probabilidade de identificar um fen&#243;meno que seja real donde, um <i>n</i> elevado pode ser economicamente justificado.</font></p>       <p><font face="Verdana" size="2">A preocupa&#231;&#227;o com a dimens&#227;o da amostra, que aqui referimos, passa ao lado da quest&#227;o de representatividade dessa amostra. A representatividade requerida pela procura de validade ecol&#243;gica (i.e., capacidade de generaliza&#231;&#227;o dos resultados &#224; popula&#231;&#227;o em estudo) relaciona-se, entre outros cuidados, com o recurso a uma amostra de dimens&#227;o elevada, associada a um processo de amostragem adequado (com base na Teoria de Amostragem que nos oferece algoritmos para o c&#225;lculo dessa dimens&#227;o - ver, por exemplo, Rea &amp; Parker, 1992). Pelo que, estudos com objectivos essencialmente descritivos t&#234;m, assim, um duplo intuito de validade, ao aumentarem a dimens&#227;o das amostras com que trabalham. Por sua vez, os estudos experimentais (laborat&#243;rio), procurando detectar a presen&#231;a ou aus&#234;ncia de um efeito postulado teoricamente, preocupam-se com a capacidade de generaliza&#231;&#227;o das suas conclus&#245;es e, n&#227;o tanto, dos seus resultados. Assim sendo, a dimens&#227;o das amostras com que se trabalha est&#225; meramente dependente da capacidade de, com essas amostras, se detectar um efeito quando este est&#225; presente na popula&#231;&#227;o subjacente, ou seja, est&#225; directamente relacionada com a pot&#234;ncia do teste realizado para a hip&#243;tese formulada.</font></p>      <p><font face="Verdana" size="2">A quest&#227;o, em torno do estabelecimento de &#946;, est&#225; em saber como se pode interpretar &#171;maiores n&#237;veis de pot&#234;ncia&#187; ou &#171;n&#237;veis de pot&#234;ncia razo&#225;veis&#187;. Realmente n&#227;o existe acordo entre os investigadores sobre esta quest&#227;o, como existe, por exemplo, na atribui&#231;&#227;o dos n&#237;veis de alfa (&#913;= 0.05 como valor mais usado). Cohen (1988) estabelece como conven&#231;&#227;o a necessidade de se reduzir a probabilidade de erros Tipo II a 0.20 e, portanto, realizar testes cuja pot&#234;ncia seja &#224; volta de 0.80. Keppel (1991) considera 0.80 n&#227;o s&#243; como um n&#237;vel aceit&#225;vel, mas tamb&#233;m realista. Kraemer e Thiemann (1987) sugerem uma oscila&#231;&#227;o de 0.1 em torno desse valor, estabelecendo a necessidade de a pot&#234;ncia de um teste se encontrar no intervalo &#91;0.7; 0.9&#93;. O aumento da pot&#234;ncia de teste, acima destes valores, implicaria o recurso a amostras de dimens&#227;o muito elevada e, abaixo deste valor, torna dif&#237;cil qualquer interpreta&#231;&#227;o de um resultado n&#227;o significativo. Como o autor refere (Cohen, 1992) tomando em conjunto &#913;= 0.05 e a pot&#234;ncia de teste de 0.80, a raz&#227;o b:a &#233; de 4:1 (0.20 para 0.05), pelo que arriscamos quatro vezes mais um erro de Tipo II do que um erro de Tipo I.</font></p>      <p><font face="Verdana" size="2"><i>Conclus&#227;o</i>.</font></p>      <p><font face="Verdana" size="2">Neste artigo pretendemos salientar os seguintes aspectos:</font></p>      <p><font face="Verdana" size="2">1) &nbsp;&nbsp;&nbsp;Ignorar os erros de Tipo II &#233; particularmente perigoso quando a an&#225;lise estat&#237;stica, ou teste estat&#237;stico, leva o investigador a n&#227;o rejeitar Ho. A n&#227;o rejei&#231;&#227;o da hip&#243;tese nula pode resultar n&#227;o do facto de esta hip&#243;tese ser realmente verdadeira, mas do facto de as observa&#231;&#245;es serem insuficientes para declarar inaceit&#225;vel Ho. Assim, antes de podermos afirmar validamente que uma hip&#243;tese nula &#233; verdadeira, devemos sempre assegurarmo-nos de que o risco de segunda esp&#233;cie, 15, tamb&#233;m &#233; suficientemente pequeno.</font></p>      <p><font face="Verdana" size="2">2) &nbsp;&nbsp;&nbsp;Um &#945;=0.05 ou 0.01 nem sempre &#233; justific&#225;vel. Os valores de alfa em torno de 5 % ou de 1 % s&#227;o quase valores m&#237;ticos que regem a validade dos nossos estudos e, embora tenham algum sentido quando queremos fazer face a problemas de Tipo I, devem ser ponderados quando a preocupa&#231;&#227;o tem, igualmente, de recair sobre os erros de Tipo II. Os valores 1% e 5% s&#227;o valores t&#237;picos ou padr&#227;o, ou seja, valores com os quais devemos confrontar as nossas decis&#245;es. No entando, n&#227;o nos devemos esquecer que <i>God loves the 0.06 nearly as much as the 0.05</i> (Rosnow &amp; Rosenthal, 1989, p. 1277) e que quando procuramos aceitar Ho, Deus at&#233; que deve amar mais os valores superiores a 0.05.</font></p>      ]]></body>
<body><![CDATA[<p><font face="Verdana" size="2">3) &nbsp;&nbsp;&nbsp;Existe uma dupla vantagem em se trabalhar com amostras de dimens&#227;o elevada: representatividade e pot&#234;ncia de teste. No entanto, a escolha da dimens&#227;o da amostra deve ser cuidada, n&#227;o esquecendo que existem situa&#231;&#245;es em que trabalhar com grandes amostras se demonstra ser totalmente desapropriado.</font></p>      <p><font face="Verdana" size="2">4) &nbsp;&nbsp;&nbsp;N&#227;o deve ser confundida (como muitas an&#225;lises o fazem) signific&#226;ncia estat&#237;stica (que tem a ver com probabilidade de se verificar o efeito por acaso) e signific&#226;ncia pr&#225;tica ou psicol&#243;gica (que tem a ver com a magnitude do efeito estudado). Grandes amostras conduzem-nos a testes muito potentes, capazes de detectar pequenas magnitudes de efeito: o efeito &#233; estatisticamente significativo. Se o &#233; ou n&#227;o, em termos pr&#225;ticos, cabe ao investigador decidir: um efeito isolado em laborat&#243;rio pode ser previsto pela teoria at&#233; em magnitude reduzida; no entanto, mudan&#231;as de pol&#237;tica em educa&#231;&#227;o, envolvendo elevados custos, podem ser apenas justificadas por efeitos de magnitude elevada.</font></p>      <p><font face="Verdana" size="2">5) &nbsp;&nbsp;&nbsp;Existe consenso sobre a import&#226;ncia de analisar e apresentar os resultados da pot&#234;ncia de teste (Schafer, 1993), e uma vasta literatura de apoio para modelos param&#233;tricos e n&#227;o-param&#233;tricos, da qual destacamos os livros de Cohen (1988) e de Kraemer &amp; Thiemann (1987). Refer&#234;ncias mais espec&#237;ficas podem ser igualmente encontradas, por exemplo: Koele (1982), que apresenta solu&#231;&#245;es para o c&#225;lculo da pot&#234;ncia de teste para modelos ANOVA de efeitos aleat&#243;rios e mistos (ver tamb&#233;m Guenther, 1964 para efeitos aleat&#243;rios); e Barcikowski (1973), que apresenta tabelas para determina&#231;&#227;o da dimens&#227;o das amostras no caso dos modelos de efeitos aleat&#243;rios. No entanto, mesmo quando n&#227;o se encontram publicadas as express&#245;es anal&#237;ticas para o c&#225;lculo da pot&#234;ncia de um qualquer teste, &#233; sempre poss&#237;vel recorrer a simula&#231;&#245;es que v&#227;o permitir gerar as respectivas tabelas de pot&#234;ncia (Stephens, 1974).</font></p>      <p><font face="Verdana" size="2">Por &#250;ltimo deixamos duas sugest&#245;es aos leitores mais curiosos no assunto:</font></p>      <p><font face="Verdana" size="2">i) &nbsp;&nbsp;&nbsp;No caso de simples ensaios de signific&#226;ncia de par&#226;metros (Fisher, 1932), em vez de se recorrer &#224; formula&#231;&#227;o da hip&#243;tese Ho: par&#226;metro=0 (o <i>default</i> deste tipo de ensaio), ser&#225; adequada a formula&#231;&#227;o de Ho como p=magnitude do par&#226;metro que determina a decis&#227;o de lhe atribuir significado pr&#225;tico ou n&#227;o. No caso do teste de hip&#243;tese simples (em que o espa&#231;o do par&#226;metro tem apenas dois elementos: ver Murteira, 1990), para detectar apenas efeitos de magnitude pretendida, ser&#225; adequada a formula&#231;&#227;o do teste (de Neyman-Pearson, 1928) que especifica em Ho a magnitude exata do efeito que este pretende detectar;</font></p>       <p><font face="Verdana" size="2">ii) &nbsp;&nbsp;&nbsp;Para fazer face ao problema da dimens&#227;o de &#171;, ao estabelecer antecipadamente a e 15, poder&#225;, em alguns casos (nomeadamente o de compara&#231;&#227;o de duas m&#233;dias), encontrar solu&#231;&#227;o no recurso a testes sequenciais (Wald, 1947; McPherton &amp; Armitage, 1971). Mesmo tendo este artigo algum efeito sobre a atitude do leitor relativamente ao tratamento dos seus dados, tudo parece indicar que n&#227;o afectar&#225; o seu comportamento. Na realidade, alguns artigos (como: Cohen (1992) e Sedlmeier &amp; Gigerenzer (1989)) focam a quest&#227;o da inefic&#225;cia dos alertas constantes da literatura para a preocupa&#231;&#227;o com a magnitude da probabilidade de erro Tipo II no aumento da pot&#234;ncia de teste das an&#225;lises dos resultados das investiga&#231;&#245;es. Isto &#233;, apesar de a maioria dos metod&#243;logos e investigadores concordar com a import&#226;ncia e necessidade de controlo da probabilidade de erro Tipo II, este tipo de controlo n&#227;o &#233; exercido quando se analisam os resultados de investiga&#231;&#245;es publicados. Talvez Bem &amp; Honorton (1993) tenham raz&#227;o quando (a t&#237;tulo de piada) levantam a hip&#243;tese de o comportamento do investigador ser &#171;ultimately determinated by whether one was more severely punished in childhood for Type I or Type II errors&#187; (p. 11). </font></p>      <p><font face="Verdana" size="2">Esperamos, por&#233;m, que o presente artigo contribua, de algum modo, para uma refer&#234;ncia quase que universal ao livro de Cohen (1988); para que os investigadores se abstenham de interpretar resultados nulos (testes onde n&#227;o se rejeita a hip&#243;tese nula), caso desconhe&#231;am a pot&#234;ncia dos testes levados a cabo e, ainda, para se eliminarem as confus&#245;es de interpreta&#231;&#227;o entre a signific&#226;ncia estat&#237;stica e a magnitude do efeito estudado.</font></p>      <p>&nbsp;</p>     <p><font face="Verdana" size="2"><b>Refer&#234;ncias</b></font></p>      <!-- ref --><p><font face="Verdana" size="2">Barcikowski, R. S. (1973). Optimum sample size and number of levels in a oneway random-effects analysis of variance. <i>Journal of Experimental Education,</i> 41, 10-16.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=518277&pid=S0874-2049199600010001400001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>      <!-- ref --><p><font face="Verdana" size="2">Bem , D.J., &amp; Honorton, C. (1994). Does psi exist? Replicable evidence for an anomalous process of information transfer. <i>Psychological Bulletin,</i> 115 (1), 4-18.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=518279&pid=S0874-2049199600010001400002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>      <!-- ref --><p><font face="Verdana" size="2">Campbell, D.T. (1957). Factors relevant to the validity of experiments in social settings. <i>PsychologicalBulletin,</i> 54, 297-312.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=518281&pid=S0874-2049199600010001400003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>      <!-- ref --><p><font face="Verdana" size="2">Cook, T. D. &amp; Campbell, D.T. (1979). Quasi-experimentation. Design &amp; analysis issues for field settings. Boston: Houghton Mifflin Company.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=518283&pid=S0874-2049199600010001400004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>      <!-- ref --><p><font face="Verdana" size="2">Cohen, J. (1962). The statistical power of abnormal-social psychological research: a review. <i>Journal of Abnormal Social Psychology, 65,</i> 145-153.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=518285&pid=S0874-2049199600010001400005&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>      <p><font face="Verdana" size="2">Cohen, J. (1988). <i>Statistical power analysis for the hehavioral Sciences</i>, (2nd ed.). Hillsdale, N.J.:Lawrence Erlbaum</font></p>      ]]></body>
<body><![CDATA[<!-- ref --><p><font face="Verdana" size="2">Cohen, J. (1992). Statistical power analysis. <i>Psychological Science, 1</i> (3), 98-101.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=518288&pid=S0874-2049199600010001400007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>      <!-- ref --><p><font face="Verdana" size="2">Cooper, H. &amp; Findley, M. (1982). Expected effect sizes: estimates for statistical power analysis in social psychology. <i>Personality and Social Psychology Bulletin, 8</i> (1), 168-73.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=518290&pid=S0874-2049199600010001400008&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>      <!-- ref --><p><font face="Verdana" size="2">Fisher, R.A. (1932). <i>Statistical methods for research workers.</i> Edinburg: Oliver &amp; Boyd.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=518292&pid=S0874-2049199600010001400009&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>      <!-- ref --><p><font face="Verdana" size="2">Garcia-Marques, T., &amp; Azevedo, M. (1994). A infer&#234;ncia estat&#237;stica m&#250;ltipla e o problema de infla&#231;&#227;o do alfa. <i>Psicologia</i> (para publica&#231;&#227;o).    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=518294&pid=S0874-2049199600010001400010&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>      <!-- ref --><p><font face="Verdana" size="2">Goldstein, R. (1989). Power and sample size via MS/PC-DOS computers. <i>The American Statistician,</i> 43, 253-60.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=518296&pid=S0874-2049199600010001400011&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>       ]]></body>
<body><![CDATA[<p><font face="Verdana" size="2">Guenther, W. C. (1964). <i>Analysis ofvariance,</i> Englewood Cliffs, NJ: PrenticeHall.</font></p>      <p><font face="Verdana" size="2">Keppel, G. (1991). <i>Design and analysis: A researchePs handbook</i> (3rd ed.). Englewood Cliffs, NJ: Prentice-Hall.</font></p>      <!-- ref --><p><font face="Verdana" size="2">Koele, P. (1982). Calculating power in analysis of variance. <i>Psychological Bulletin,</i> 92, 513-16.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=518300&pid=S0874-2049199600010001400014&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>      <p><font face="Verdana" size="2">Lawrence, B. M. (1990). <i>Understanding significance testing.</i> Beverly Hills,CA: SAGE</font></p>      <!-- ref --><p><font face="Verdana" size="2">McPherson, G.K., &amp; Armitage, P. (1971). Repeated significance testes on accumulating data when the null hypothesis is not true. <i>Journal of the Royal Statistical Society, A,</i> 134, 15-25.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=518303&pid=S0874-2049199600010001400016&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>      <!-- ref --><p><font face="Verdana" size="2">Murteira, B. J. F. (1990). <i>Probabilidades e estat&#237;stica</i> (vol. K). Lisboa: McGraw-Hill.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=518305&pid=S0874-2049199600010001400017&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>      <!-- ref --><p><font face="Verdana" size="2">Neyman, J. &amp; Pearson, E. S. (1928). On the use and interpretation of certain test criteria for purposes of statistical inference. <i>Biometrika,</i> 20A, 175-240, 263-94.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=518307&pid=S0874-2049199600010001400018&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>      <!-- ref --><p><font face="Verdana" size="2">Pearson, E. S., &amp; Hartley, H. O. (1951). Charts for the power function for analysis of variance tests, derived from the non-central F-distribution. <i>Biometrika,</i> 38, 112-30.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=518309&pid=S0874-2049199600010001400019&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>      <!-- ref --><p><font face="Verdana" size="2">Peterman, R. M. (1990). Statistical power analysis can improve fisheries research and management. <i>Canadian Journal of Fishing and Aquatic Science,</i> 47, 2-15.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=518311&pid=S0874-2049199600010001400020&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>      <!-- ref --><p><font face="Verdana" size="2">Rea, L. M., &amp; Parker, R. A. (1992). <i>Designing and conducting suiwey research. A comprehensive guide.</i> San Francisco: Jossey-Bass.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=518313&pid=S0874-2049199600010001400021&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>      <!-- ref --><p><font face="Verdana" size="2">Rosnow, R. L., &amp; Rosenthal, R. (1989). <i>American Psychologist,</i> 44 (10), 1276-84.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=518315&pid=S0874-2049199600010001400022&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>      <!-- ref --><p><font face="Verdana" size="2">Schafer, W. D. (1993). Interpreting statistical significance and nonsignificance. <i>The Journal of Experimental Education,</i> 61(4), 383-87.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=518317&pid=S0874-2049199600010001400023&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>      <!-- ref --><p><font face="Verdana" size="2">Scheff&#233;, H. (1959). <i>Analysis of variance.</i> New York: Wiley.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=518319&pid=S0874-2049199600010001400024&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>      <!-- ref --><p><font face="Verdana" size="2">Sedlmeier, P., &amp; Gigerenzer, G. (1989). Do studies of statistical power have an effect on the power of the studies? <i>Psychological Bulletin,</i> 105, 309-16.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=518321&pid=S0874-2049199600010001400025&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>      <!-- ref --><p><font face="Verdana" size="2">Stephens, M. A. (1974). EDF statistics for goodness of fit and some comparisons. <i>Journal of the American Statistician Association</i>, 69, 730-37.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=518323&pid=S0874-2049199600010001400026&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>      <!-- ref --><p><font face="Verdana" size="2">Wald, A. (1947). <i>Sequential analysis.</i> New York: Wiley.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=518325&pid=S0874-2049199600010001400027&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>      <p>&nbsp;</p>      ]]></body>
<body><![CDATA[<p><font face="Verdana" size="2"><b>Notas</b></font></p>      <p><font face="Verdana" size="2"><a href="#top1"><sup>1</sup></a><a name="1"></a>Este problema estende-se a outras &#225;reas cient&#237;ficas como a Biologia (Peterman, 1990), onde &#233; igualmente vulgar referir a n&#227;o rejei&#231;&#227;o da hip&#243;tese nula como sin&#243;nimo de sua aceita&#231;&#227;o.</font></p>      <p><font face="Verdana" size="2"><a href="#top2"><sup>2</sup></a><a name="2"></a>O programa STATISTICA apresenta no sen m&#243;dulo de Process Analysis a possibilidade de estudo da pot&#234;ncia de teste (bem como o recurso a t&#233;cnicas de an&#225;lise sequencial), para compara&#231;&#227;o de m&#233;dias de duas popula&#231;&#245;es.</font></p>      <p><font face="Verdana" size="2"><a href="#top3"><sup>3</sup></a><a name="3"></a>Note-se que as normas de publica&#231;&#227;o em revistas da APA (4.<sup>a</sup> Ed.) referem a necessidade de se reportarem os valores de pot&#234;ncia dos testes levados a cabo.</font></p>      ]]></body><back>
<ref-list>
<ref id="B1">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Barcikowski]]></surname>
<given-names><![CDATA[R. S.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Optimum sample size and number of levels in a oneway random-effects analysis of variance]]></article-title>
<source><![CDATA[Journal of Experimental Education]]></source>
<year>1973</year>
<volume>41</volume>
<page-range>10-16</page-range></nlm-citation>
</ref>
<ref id="B2">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bem]]></surname>
<given-names><![CDATA[D.J.]]></given-names>
</name>
<name>
<surname><![CDATA[Honorton]]></surname>
<given-names><![CDATA[C.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Does psi exist?: Replicable evidence for an anomalous process of information transfer]]></article-title>
<source><![CDATA[Psychological Bulletin]]></source>
<year>1994</year>
<volume>115</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>4-18</page-range></nlm-citation>
</ref>
<ref id="B3">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Campbell]]></surname>
<given-names><![CDATA[D.T.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Factors relevant to the validity of experiments in social settings]]></article-title>
<source><![CDATA[PsychologicalBulletin]]></source>
<year>1957</year>
<volume>54</volume>
<page-range>297-312</page-range></nlm-citation>
</ref>
<ref id="B4">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Cook]]></surname>
<given-names><![CDATA[T. D.]]></given-names>
</name>
<name>
<surname><![CDATA[Campbell]]></surname>
<given-names><![CDATA[D.T.]]></given-names>
</name>
</person-group>
<source><![CDATA[Quasi-experimentation: Design & analysis issues for field settings]]></source>
<year>1979</year>
<publisher-loc><![CDATA[Boston ]]></publisher-loc>
<publisher-name><![CDATA[Houghton Mifflin Company]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B5">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Cohen]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The statistical power of abnormal-social psychological research: a review]]></article-title>
<source><![CDATA[Journal of Abnormal Social Psychology]]></source>
<year>1962</year>
<volume>65</volume>
<page-range>145-153</page-range></nlm-citation>
</ref>
<ref id="B6">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Cohen]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
</person-group>
<source><![CDATA[Statistical power analysis for the hehavioral Sciences]]></source>
<year>1988</year>
<edition>2</edition>
<publisher-loc><![CDATA[Hillsdale ]]></publisher-loc>
<publisher-name><![CDATA[Lawrence Erlbaum]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B7">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Cohen]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Statistical power analysis]]></article-title>
<source><![CDATA[Psychological Science]]></source>
<year>1992</year>
<volume>1</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>98-101</page-range></nlm-citation>
</ref>
<ref id="B8">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Cooper]]></surname>
<given-names><![CDATA[H.]]></given-names>
</name>
<name>
<surname><![CDATA[Findley]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Expected effect sizes: estimates for statistical power analysis in social psychology]]></article-title>
<source><![CDATA[Personality and Social Psychology Bulletin]]></source>
<year>1982</year>
<volume>8</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>168-73</page-range></nlm-citation>
</ref>
<ref id="B9">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Fisher]]></surname>
<given-names><![CDATA[R.A.]]></given-names>
</name>
</person-group>
<source><![CDATA[Statistical methods for research workers]]></source>
<year>1932</year>
<publisher-loc><![CDATA[Edinburg ]]></publisher-loc>
<publisher-name><![CDATA[Oliver & Boyd]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B10">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Garcia-Marques]]></surname>
<given-names><![CDATA[T.]]></given-names>
</name>
<name>
<surname><![CDATA[Azevedo]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="pt"><![CDATA[A inferência estatística múltipla e o problema de inflação do alfa]]></article-title>
<source><![CDATA[Psicologia]]></source>
<year>1994</year>
</nlm-citation>
</ref>
<ref id="B11">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Goldstein]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Power and sample size via MS/PC-DOS computers]]></article-title>
<source><![CDATA[The American Statistician]]></source>
<year>1989</year>
<volume>43</volume>
<page-range>253-60</page-range></nlm-citation>
</ref>
<ref id="B12">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Guenther]]></surname>
<given-names><![CDATA[W. C.]]></given-names>
</name>
</person-group>
<source><![CDATA[Analysis ofvariance]]></source>
<year>1964</year>
<publisher-loc><![CDATA[Englewood Cliffs ]]></publisher-loc>
<publisher-name><![CDATA[PrenticeHall]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B13">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Keppel]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
</person-group>
<source><![CDATA[Design and analysis: A researchePs handbook]]></source>
<year>1991</year>
<edition>3</edition>
<publisher-loc><![CDATA[Englewood Cliffs ]]></publisher-loc>
<publisher-name><![CDATA[Prentice-Hall]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B14">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Koele]]></surname>
<given-names><![CDATA[P.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Calculating power in analysis of variance]]></article-title>
<source><![CDATA[Psychological Bulletin]]></source>
<year>1982</year>
<volume>92</volume>
<page-range>513-16</page-range></nlm-citation>
</ref>
<ref id="B15">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Lawrence]]></surname>
<given-names><![CDATA[B. M.]]></given-names>
</name>
</person-group>
<source><![CDATA[Understanding significance testing]]></source>
<year>1990</year>
<publisher-loc><![CDATA[Beverly Hills ]]></publisher-loc>
<publisher-name><![CDATA[SAGE]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B16">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[McPherson]]></surname>
<given-names><![CDATA[G.K.]]></given-names>
</name>
<name>
<surname><![CDATA[Armitage]]></surname>
<given-names><![CDATA[P.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Repeated significance testes on accumulating data when the null hypothesis is not true]]></article-title>
<source><![CDATA[Journal of the Royal Statistical Society]]></source>
<year>1971</year>
<volume>A</volume>
<numero>134</numero>
<issue>134</issue>
<page-range>15-25</page-range></nlm-citation>
</ref>
<ref id="B17">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Murteira]]></surname>
<given-names><![CDATA[B. J. F.]]></given-names>
</name>
</person-group>
<source><![CDATA[Probabilidades e estatística]]></source>
<year>1990</year>
<publisher-loc><![CDATA[Lisboa ]]></publisher-loc>
<publisher-name><![CDATA[McGraw-Hill]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B18">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Neyman]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
<name>
<surname><![CDATA[Pearson]]></surname>
<given-names><![CDATA[E. S.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[On the use and interpretation of certain test criteria for purposes of statistical inference]]></article-title>
<source><![CDATA[Biometrika]]></source>
<year>1928</year>
<volume>20A</volume>
<numero>175-240</numero>
<issue>175-240</issue>
<page-range>263-94</page-range></nlm-citation>
</ref>
<ref id="B19">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Pearson]]></surname>
<given-names><![CDATA[E. S.]]></given-names>
</name>
<name>
<surname><![CDATA[Hartley]]></surname>
<given-names><![CDATA[H. O.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Charts for the power function for analysis of variance tests, derived from the non-central F-distribution]]></article-title>
<source><![CDATA[Biometrika]]></source>
<year>1951</year>
<volume>38</volume>
<page-range>112-30</page-range></nlm-citation>
</ref>
<ref id="B20">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Peterman]]></surname>
<given-names><![CDATA[R. M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Statistical power analysis can improve fisheries research and management]]></article-title>
<source><![CDATA[Canadian Journal of Fishing and Aquatic Science]]></source>
<year>1990</year>
<volume>47</volume>
<page-range>2-15</page-range></nlm-citation>
</ref>
<ref id="B21">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Rea]]></surname>
<given-names><![CDATA[L. M.]]></given-names>
</name>
<name>
<surname><![CDATA[Parker]]></surname>
<given-names><![CDATA[R. A.]]></given-names>
</name>
</person-group>
<source><![CDATA[Designing and conducting suiwey research: A comprehensive guide]]></source>
<year>1992</year>
<publisher-loc><![CDATA[San Francisco ]]></publisher-loc>
<publisher-name><![CDATA[Jossey-Bass]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B22">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Rosnow]]></surname>
<given-names><![CDATA[R. L.]]></given-names>
</name>
<name>
<surname><![CDATA[Rosenthal]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
</person-group>
<source><![CDATA[American Psychologist]]></source>
<year>1989</year>
<volume>44</volume>
<numero>10</numero>
<issue>10</issue>
<page-range>1276-84</page-range></nlm-citation>
</ref>
<ref id="B23">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Schafer]]></surname>
<given-names><![CDATA[W. D.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Interpreting statistical significance and nonsignificance]]></article-title>
<source><![CDATA[The Journal of Experimental Education]]></source>
<year>1993</year>
<volume>61</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>383-87</page-range></nlm-citation>
</ref>
<ref id="B24">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Scheffé]]></surname>
<given-names><![CDATA[H.]]></given-names>
</name>
</person-group>
<source><![CDATA[Analysis of variance]]></source>
<year>1959</year>
<publisher-loc><![CDATA[New York ]]></publisher-loc>
<publisher-name><![CDATA[Wiley]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B25">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Sedlmeier]]></surname>
<given-names><![CDATA[P.]]></given-names>
</name>
<name>
<surname><![CDATA[Gigerenzer]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Do studies of statistical power have an effect on the power of the studies?]]></article-title>
<source><![CDATA[Psychological Bulletin]]></source>
<year>1989</year>
<volume>105</volume>
<page-range>309-16</page-range></nlm-citation>
</ref>
<ref id="B26">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Stephens]]></surname>
<given-names><![CDATA[M. A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[EDF statistics for goodness of fit and some comparisons]]></article-title>
<source><![CDATA[Journal of the American Statistician Association]]></source>
<year>1974</year>
<volume>69</volume>
<page-range>730-37</page-range></nlm-citation>
</ref>
<ref id="B27">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Wald]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
</person-group>
<source><![CDATA[Sequential analysis]]></source>
<year>1947</year>
<publisher-loc><![CDATA[New York ]]></publisher-loc>
<publisher-name><![CDATA[Wiley]]></publisher-name>
</nlm-citation>
</ref>
</ref-list>
</back>
</article>
