Please use this identifier to cite or link to this item:
http://repositorio.ufc.br/handle/riufc/27969
Type: | Artigo de Periódico |
Title: | Precisão entre juízes para um novo sistema de codificação do Teste de Wartegg |
Title in English: | Precision between judges fora new Wartegg Test codification system |
Authors: | Pessotto, Fernando Primi, Ricardo |
Keywords: | Consistência interna;Técnicas de autoexpressão;Avaliação psicológica;Wartegg |
Issue Date: | 2017 |
Publisher: | Revista de Psicologia |
Citation: | PESSOTTO, Fernando; PRIMI, Ricardo. Precisão entre juízes para um novo sistema de codificação do Teste de Wartegg. Revista de Psicologia, Fortaleza, v. 8, n. 2, p. 19-26, jul./dez. 2017. |
Abstract in Brazilian Portuguese: | Dentre os parâmetros psicométricos necessários para o uso de testes psicológicos está a precisão que, de forma geral, indica a consistência dos resultados. Uma das formas de verificação deste parâmetro é a concordância entre juízes, expressa num índice que informa o grau de concordância de protocolos avaliados por diferentes profissionais. Com o objetivo de verificar a concordância entre juízes para o Teste de Wartegg, o presente estudo contou com 4 juízes avaliando 8 protocolos de forma independente (às cegas). Os resultados indicaram coeficientes kappa variando de 0,23 à 0,74 para os protocolos, sendo que, para algumas variáveis os valores foram mais altos. De forma geral, embora tenham se encontrado bom grau de concordância entre as codificações dos juízes para alguns critérios, outros demonstraram-se não estar claros de forma suficiente. Neste sentido, se fazem necessárias reformulações dos critérios evidenciados como ruins a fim de favorecer o desenvolvimento do sistema proposto. |
Abstract: | Among necessary psychometric parameters for psychological testing is precision, which, in general, indicates results consistency. Agreement between judges is a way to verify that parameter, expressed in an index that informs the degree of protocols evaluated by different professionals. Aiming to check the agreement between judges for Wartegg test, this study counted on four judges evaluating eight protocols independently (blind review). Results indicates kappa coefficients varying from 0,23 to 0,74 for the protocols, and, for some variables values where higher. In a general way, although a good degree of agreement might be found trough judges evaluations for some criteria, others showed not being clear enough. In this sense, it is needed to reformulate those criteria which were evidenced as bad ones in order to improve the proposed system. |
URI: | http://www.repositorio.ufc.br/handle/riufc/27969 |
ISSN: | 2179-1740 (online) |
Access Rights: | Acesso Aberto |
Appears in Collections: | DPSI - Artigos publicados em revistas científicas |
Files in This Item:
File | Description | Size | Format | |
---|---|---|---|---|
2017_art_fpessottorprimi.pdf | 510,67 kB | Adobe PDF | View/Open |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.