نوع مقاله : مقاله پژوهشی

نویسندگان

1 دکترای سنجش و اندازه‌گیری، استادیار و عضو هیئت علمی دانشگاه علامه طباطبائی، تهران، ایران

2 دکترای سنجش و اندازه‌گیری، دانشیار دانشگاه علامه طباطبائی، تهران، ایران

3 دانشجوی دکترای سنجش و اندازه‌گیری، دانشگاه علامه طباطبائی، تهران، ایران

4 کارشناس ارشد تحقیقات آموزشی، دانشگاه تهران، تهران، ایران

چکیده

سنجش نگرش با تحلیل داده‌ها به پایان نمی‌رسد بلکه آغاز راهی است که بتوان کیفیت گویه‌های نگرش‌سنجی را افزایش داد و فرصتی فراهم کرد تا خطای اندازه‌گیری را کاهش داد. در این پژوهش تفاوت بین دو نظریه کلاسیک اندازه‌گیری (CTT) و نظریه سؤال- پاسخ (IRT) در تعیین ویژگی‌های روان‌سنجی داده‌های حاصل از افکارسنجی مطالعه شده است؛ قبل از ارائه نتایج تحلیل های مربوط به این دو نظریه به منظور بررسی روایی و نیز ساخت و تأیید ابزار از تحلیل عامل اکتشافی (EFA) و تحلیل عامل تأییدی (CFA) نیز بهره برده شده است. موضوع موردمطالعه، داده‌های واقعی مربوط به افکارسنجی 3684 نفر از اقشار مختلف مردم درخصوص برنامه‌های تلویزیونی بوده است. یافته‌ها حاکی از آن است که هر دو نظریه کلاسیک و سؤال- پاسخ می‌توانند اطلاعات مشابهی درباره گویه‌های مقیاس در ارتباط با خصیصه مکنون مورد اندازه‌گیری ارائه دهند، اما دو نظریه اندازه‌گیری تصاویر متفاوتی از دقت مقیاس‌ها به‌دست می‌دهند. به‌طور کلی، نظریه سؤال- پاسخ، هم اطلاعات غنی‌تری درباره دقت اندازه‌گیری و هم پیشنهاد‌های روشن‌تری برای بهبود مقیاس ارائه می‌دهد.

کلیدواژه‌ها

موضوعات

عنوان مقاله [English]

Attitudinal Analysis: The Difference Between Classical Test Theory and Item Response Theory

نویسندگان [English]

  • ٍEnayatollah Zamanpour 1
  • Jalil Younesi 2
  • Mostafa Rastegar Agah 3
  • Mahsa Mehrabi 4

1 Assistant Prof. in Measurement & Assessment, Allame Tabataba'i Uni., Tehran, Iran

2 Associate Prof. in Measurement & Assessment , Allame Tabataba'i Uni., Tehran, Iran

3 Measurement & Assessment

4 Educational Research

چکیده [English]

Measuring attitude does not end with data analysis but is the beginning of a way through which can increase the quality of attitudinal analysis and provide an opportunity to reduce measurement error. In this study, the difference between the classical test theory (CTT) and item response theory (IRT) in determining the psychometric properties of the data obtained from polling is studied. Before presenting the results of the analysis of these two theories, exploratory factor analysis (EFA) and confirmatory factor analysis (CFA) were also used to evaluate constructing, validity and reliability of the tools. The subject of the study was actual data on the opinion polls of 3684 people from different groups about television programs. The findings show that both classical test theory and item response theory can provide similar information about the scale items of the latent feature under study. But the two measurement theories give different images of the accuracy of the scales. In general, item response theory offers both more information about measurement accuracy and clearer suggestions for scale improvement.

کلیدواژه‌ها [English]

  • Attitudinal Analysis
  • Classical Test Theory
  • Item Response Theory
  • Psychometric Properties
آلن مرجی، و ین، وندی­ام. (1396). مقدمه‌ای بر نظریه‌های اندازه‌گیری (روان‌سنجی) (ترجمه علی دلاور). تهران: سمت.
لرد، فردریک. ام. (1391). کاربردهای نظریه سؤال پاسخ (ترجمه علی دلاور و جلیل یونسی). تهران: رشد
هومن، حیدرعلی. (1385). تحلیل داده‌های چند متغیری در پژوهش رفتاری. تهران: پیک فرهنگ.
Baker, F. (2001). The Basics of Item Response Theory (2nd ed.). College Park, MD: ERIC Clearinghouse on Assessment and Evaluation. Retrieved November 14, 2009, from, http://edres.org/irt/baker/
Baker, F. B. & Kim, S. H. (2004). Item response Theory: Parameter Estimation Techniques. CRC Press.
Cerny, B. A. & Kaiser, H. F. (1977). A Study of A Measure of Sampling Adequacy For Factor-Analytic Correlation Matrices. Multivariate Behavioral Research, 12(1), 43-47.
De Ayala, R. J. (2009). The Theory and Practice of Item Response Theory. Guilford Publications.
DeMars, C. (2010). Item Response theory. Oxford University Press.
Embretson, S. E. & Reise, S. P. (2000). Multivariate Applications Books Series. Item Response Theory for Psychologists. Mahwah, NJ, US: Lawrence Erlbaum Associates Publishers.
Gulliksen, H. (1950). Intrinsic validity. American Psychologist, 5(10), 511.
Hambleton, R. K. & Swaminathan, H. (2013). Item Response Theory: Principles and Applications. Springer Science & Business Media.
Van der Linden, W. J. & Hambleton, R. K. (Eds.). (2013). Handbook of Modern Item Response Theory. Springer Science & Business Media.
Hattie, J. (1985). Methodology review: Assessing unidimensionality of tests and items. Applied Psychological Measurement, 9(2), 139–164.
Kahn, J. (2006). Factor analysis in Counseling Psychology Research, Training and Practice: Principles, Advances, and Applications. The Counseling Psychologist, 34(5), 684–718.
Lord, F. M. y . & Novick, MR. (1968). Statistical Theory of Mental Test Scores. Addison-Wesley Publishing Company.
Morizot, J.; Ainsworth, A. & Reise, S. (2007). Toward Modern Psychometrics: Application of Item Response Theory Models in Personality Research. In R. Robins, R. Fraley, & R. Krueger (Eds.), Handbook of Research Methods in PersonalityPsychology (407–423). New York, NY: Guilford Press.
Ostini, R. & Nering, M. L. (2006). Polytomous Item Response Theory Models (No. 144). Sage.
Reise, S.; Waller, N. & Comrey, A. (2000). Factor Analysis and Scale Revision. Psychological Assessment, 12(3), 287–297.
Russell, D. (2002). In Search of Underlying Dimensions: The Use (and Abuse) of Factor Analysis In Personality and Social Psychology Bulletin. Personality And Social Psychology Bulletin, 28(12), 1629–1646.
Samejima, F. (1969). Estimation of Latent Ability Using a Response Pattern of Graded Scores. Psychometrika Monograph Supplement, 17.
Sharkness, J. & DeAngelo, L. (2011). Measuring Student Involvement: A Comparison of Classical Test Theory and Item Response Theory In The Construction of Scales From Student Surveys. Research In Higher Education, 52(5), 480-507.
Thissen, D.; Cai, L. & du Toit, S. H. C. (2011). IRTPRO 2.1 for Windows. Chicago, IL: Scientific Software International.
Worthington, R. & Whittaker, T. (2006). Scale Development Research: A Content Analysis and Recommendations for Best Practices. The Counseling Psychologist, 34(6), 806–838.