一个量表,有30个条目,要求10名专家分别对每个条目与主题的相关性评价:1=不相关;2=需要修改,否则无法判断是否相关;3=相关,但需要对条目进行小的修改;4=很相关,且表述精练。计算了CVI,总的S-CVI/Ave为0.979.另有学者提出用Multirater kappa coefficient of agreement来评价专家一致性,请问,如何用spss实现?(这里有10位专家)
第二个问题,对于一个用来评价某项操作的评价工具,是二分类的,如果被评价者有进行这项操作,则记为“是”,若遗漏这项操作,则记为“否”,对于这样的一个工具,如何来测其信效度?如果我请两个经过培训的评分者来对30个操作者进行评价,然后来比较这两个评价者之间的相关性,用sperman等级相关,这个相关系数即为inter-rater reliability,这个值可以作为这个工具的信度吗?
感谢大侠指导!
或者有没有信效度测试相关的教材推荐?第一个问题我已经解决了,如图,用Excel实现的
你这个只能用于评价两个专家,用cross-table。后来提出了新的方法,modified kappa coefficient of agreement beyond chance,排除了因概率造成的专家意见一致性
如果用相关来评价两个专家的一致性,会出现一个问题,举例,一个人打1,1,2,5,9,另一个人打3,3,4,7,11用相关做出来的相关系数是1,原因是,这两个专家打分在顺序上正好是一致的
嗯哦,是的。。。没用过这个,一般论文似乎就是用CVI或者CVR了。
追问CVI一般用于制定量表的时候,专家对条目的一致意见,同时modified kappa比CVI更能说明问题,避免了概率性。就是指专家打相关或不相关各有50%的可能性,如果某个专家随意打分,用kappa会比较好。
追答恩啊,也学习了
追问其实对于这样的问题,多翻翻书,找找资料,大多是可以解决的。有时候也会比较纠结。。。
追答所以有句话说:一些人使用统计就像喝醉酒的人使用街灯柱——支撑的功能多于照明。