Estatística aplicada à Psicologia Clínica I

A análise estatística pode também ser aplicada a vários ramos da psicologia: a psicologia social, a psicologia política e a psicologia clínica.

Ao nível da psicologia clínica, a análise estatística permite testar a influência de variáveis clínicas no comportamento dos indivíduos. Um exemplo deste tipo de observação pode consistir na observação dos doentes mentais em contexto psiquiátrico – um estudo que pretendia verificar a adaptação dos doentes mentais às instituições de internamento psiquiátrico.

Neste estudo, portanto, tínhamos que: a variável dependente (variável que pretendíamos conhecer e explicar) era a adaptação dos doentes mentais às instituições psiquiátricos; as variáveis independentes (isto é, as variáveis que permitem explicar e conhecer a variável em estudo) correspondiam aos dados sócio-demográficos dos doentes mentais, às suas características clínicas e patológicas, e relações interpessoais – claro que estão são componentes de variáveis que foram analisadas com base num conjunto de perguntas específicas.

Depois de aplicado o questionário e de ser feita a recolha dos dados empíricos, procedemos à introdução e categorização dos mesmos na base de dados do SPSS.

Uma segunda etapa do procedimento metodológico do estudo correspondia à análise e interpretação descritiva de todas as variáveis estudadas, a fim de verificar a frequência com que cada uma ocorre na amostra estudada.
Uma terceira etapa de estudo, por fim, correspondeu à análise inferencial dos dados observados, através da correlação de variáveis. Tendo em conta as hipóteses de investigação que pretendíamos observar, bem como os objetivos de análise, procedemos ao cruzamento das variáveis independentes com a variável dependente, a fim de observar se cada uma das variáveis independentes tem uma influência significativa na variável dependente – a adaptação dos doentes psiquiátricos ao ambiente hospitalar.

Mais um trabalho concluído e um novo estudo que vem permitir aclarar novos elementos de análise na psicologia clínica.

Testes estatísticos – Parte 1

As definições e o enquadramento de alguns dos testes estatísticos mais utilizados pelos investigadores:

Teste Kaiser-Meyer-Olkin (KMO)

O Teste KMO é uma estatística que indica a proporção da variância dos dados que pode ser considerada comum a todas as variáveis, ou seja, que pode ser atribuída a um factor comum. Portanto, quanto mais próximo de 1 (unidade) melhor o resultado, ou seja, mais adequada é a amostra à aplicação da análise factorial (Maroco, 2007). Esta medida estatística varia entre 0 e 1, sendo que a consistência interna é considerada Muito Boa se alpha superior a 0,9; Boa para alpha entre 0,8 e 0,9; Razoável se alpha entre 0,7 e 0,8; Fraca se alpha entre 0,6 e 0,7; Medíocre para alpha <0,6 (Pestana & Gageiro, 2005).


Alpha de Cronbach

O teste Alpha de Cronbach permite avaliar a consistência interna dos itens referentes a uma componente de variável. Este teste estatístico analisa o efeito de um fator na variável endógena, testando se as médias da variável endógena em cada categoria do fator são, ou não, iguais entre si. É uma extensão do Teste T-student pois permite comparar duas ou mais médias (Pestana & Gageiro, 2005).

Qui-quadrado (χ2) de Pearson 
O teste qui-quadrado (χ2) de Pearson é o mais conhecido entre vários testes Qui Quadrado, simbolizado por χ2. É um teste de hipóteses que se destina a encontrar um valor da dispersão para duas variáveis nominais, avaliando a associação existente entre variáveis qualitativas. É um teste não paramétrico, ou seja, não depende dos parâmetros populacionais, como média e variância., e pretende comparar as possíveis divergências entre as frequências observadas e esperadas para um certo evento.

Fontes bibliográficas:
Maroco, J. (2007). Análise Estatística com utilização do SPSS. Lisboa, Edições Sílabo.
Pestana, M. H. & Gageiro, J. N. (2005). Análise de Dados para Ciências Sociais: A Complementaridade do SPSS. Lisboa, Edições Sílabo.

Os testes estatísticos mais usados

Iremos na próxima série de artigos a distinção entre os vários tipos de testes estatísticos. 

Existe o conjunto dos testes paramétricos que se baseia nas medidas intervalares da variável dependente (um parâmetro ou característica quantitativa de uma população); e o conjunto dos testes não paramétricos que se baseiam em dados ordinais e nominais e são muito úteis para cálculos rápidos.


Neste artigo pode conhecer as Diferenças entre os testes paramétricos e os não paramétricos


O propósito de um teste estatístico é verificar se  os dados recolhidos de duas ou mais amostras são equivalentes e, além disso, determinar as possibilidades de quaisquer diferenças entre elas serem devidas a flutuações ocasionais.


Para escolher a estatística adequada, há que determinar em primeiro lugar, o número de variáveis dependentes e independentes que considera na sua investigação. 


De seguida, determina-se quais dessas variáveis são nominais, ordinais, ou de intervalos.


São seis os testes estatísticos fundamentais e habitualmente mais utilizados. Se, por exemplo, está a realizar um estudo com duas variáveis de intervalo, recorra a uma correlação paramétrica (designada por momento-produto de Pearson).


Quando o estudo trata de duas variáveis ordinais, a maior parte dos investigadores utiliza a correlação de Spearman, mas para duas variáveis nominais recorre-se à estatística designada por qui-quadrado 2).


Quando estamos em presença de uma variável independente nominal e de uma variável dependente de intervalos, utiliza-se o t-teste, se existirem apenas duas condições ou níveis. No caso de termos mais de duas condições, ou mais do que uma variável independente, recorre-se à análise da variância.


Finalmente, uma variável independente nominal e outra dependente ordinal requerem o teste -U de Mann Whitney que constitui um exemplo de um t-teste não paramétrico.


Muitas vezes, os investigadores transformam as variáveis para que reconstituindo os seus dados, possam utilizar determinado teste estatístico, que pode ser diferente do que estava inicialmente previsto. Se num estudo com duas condições estiverem disponíveis, por exemplo, dados provenientes de uma variável de intervalo, para uma determinada performance, e se não existirem as condições requeridas para o t-teste (distribuição normal, igual variância da amostra), pode então transformar-se essa variável dependente  numa media ordinal e utilizar-se o teste-U de Mann-Whitney.



Fonte: TUCKMAN, B. W. (2000) Manual de Investigação em Educação. Lisboa: Fundação Calouste Gulbenkian, p. 378

Diferenças entre os testes paramétricos e os não paramétricos

Para realizar testes de hipóteses temos sempre de tomar uma decisão prévia que é se utilizamos os testes paramétricos ou os testes não paramétricos.

Apresentamos de seguida uma introdução aos dois tipos de procedimentos, com ênfase para nos pressupostos que é preciso reunir para utilizar os testes paramétricos.

Os testes paramétricos baseiam-se em medidas intervalares da variável dependente (um parâmetro ou caraterística quantitativa de uma população) e a utilização deste tipo de testes exige que sejam cumpridos três pressupostos, ou requisitos

Os pressupostos dos testes paramétricos são: distribuição normal, homogeneidade dos dados e variáveis intervalares e contínuas.

1. Distribuição normal

Os testes paramétricos são válidos quando aplicados a dados que obedecem a uma distribuição normal – uma distribuição normal é aquela que é perfeitamente simétrica à volta da média; tem a forma de um sino, como mostra a figura 1. 

Figura 1: Curva de distribuição normal

No entanto, existem distribuições normais assimétricas, desviadas à direita ou à esquerda. Uma distribuição normal é aquela cuja análise estatística pode ser feita com dados da própria amostra, como a média, moda, mediana e desvio padrão. Numa amostra que não tem uma distribuição normal não é possível calcular o desvio padrão, por exemplo. 

Quando a distribuição dos resultados da variável dependente, para os dois grupos em comparação, em determinada investigação (ou em ambas as variáveis, no caso de se tratar de uma correlação) for assimétrica ou enviesada (Figura 2), as conclusões baseadas no teste estatístico   paramétrico são menos válidas. Quanto maior for o enviesamento das distribuições, menor será a validade do teste paramétrico que lhes é aplicado.

Figura 2: Curva de distribuição enviesada



2. Variância homogénea

Os resultados são mais fáceis de comprar parametricamente quando a variância ou a variabilidade dos dados, nos dois grupos, for igual ou homogénea. Se os dois grupos submetidos ao mesmo teste de realização apresentarem médias iguais, mas distribuições diferentes (como mostram respectivamente as curvas A e B da Figuras 3)  seria difícil interpretar um teste paramétrico, devido às diferenças na dispersão ou variância dos resultados, nos dois grupos.


Figura 3: A curva A tem menor variância ou dispersão dos resultados que a curva B (com maior dispersão dos resultados, por sua vez).



3. Os intervalos são contínuos e iguais

Os testes paramétricos, tal como estão concebidos, podem aplicar-se apenas em dados (medidas relativas à variável dependente) que constituem uma escala de intervalos, ou seja, têm entre si intervalos contínuos e iguais.

Os testes não paramétricos quando comparados com os testes paramétricos, requerem menos pressupostos para as distribuições. Baseiam-se em dados ordinais e nominais e são muito úteis para a análise de testes de hipóteses; são também úteis para a análise de amostras grandes, em que os pressupostos paramétricos não se verifiquem, assim como para as amostras muito pequenas e para as investigações que envolvam hipóteses cujos processos de medida sejam ordinais. Além disso, os testes não paramétricos não são tão fededignos como os testes paramétricos.

Fonte: TUCKMAN, B. W. (2000). Manual de Investigação em Educação. Lisboa: Fundação Calouste Gulbenkian, p. 374