تعداد نشریات | 161 |
تعداد شمارهها | 6,532 |
تعداد مقالات | 70,501 |
تعداد مشاهده مقاله | 124,114,783 |
تعداد دریافت فایل اصل مقاله | 97,218,669 |
مقایسة سؤالهای چندگزینهای و ترجمهای از لحاظ پایایی و دشواری در آزمون دانش دستوری | ||
پژوهشهای زبانشناختی در زبانهای خارجی | ||
مقاله 7، دوره 3، شماره 1، فروردین 1392، صفحه 117-133 اصل مقاله (175.17 K) | ||
نوع مقاله: علمی پژوهشی(عادی) | ||
شناسه دیجیتال (DOI): 10.22059/jflr.2013.53766 | ||
نویسندگان | ||
حامد زندی* 1؛ شیوا کیوان پناه2؛ سید محمد علوی2 | ||
1دکترای آموزش زبان انگلیسی از دانشگاه تهران، مدرس دانشگاه تحصیلات تکمیلی در علوم پایة زنجان، ایران | ||
2دانشیار، گروه زبان و ادبیات انگلیسی، دانشکدة زبانها و ادبیات خارجی، دانشگاه تهران، تهران، ایران | ||
چکیده | ||
به طور معمول از سؤالهای چندگزینهای برای سنجش دانش زبانی استفاده میشود. اما از آنجا که در رویکرد نظاممند طراحی سؤال، که جدیداً مطرح شده است (شین، 2012)، استفاده از صورتهای متنوع برای طراحی سؤال مطلوب است، همچنین به دلیل اینکه تحقیقات بسیار اندکی در مورد امکان استفاده از سؤالهای ترجمهای برای تنوع بخشیدن به سؤالهای آزمون وجود دارد، پژوهش حاضر با هدف مقایسة دو کمیت پایایی و دشواری در صورت سؤال ترجمهای و چندگزینهای برای سنجش دانش دستوری طراحی شده است. ابتدا، سند مشخصات آزمون دارای دو بخش ترجمهای و چندگزینهای را هشت مدرس زبان با تحصیلات کارشناسیارشد و دکتری بررسی کردند. بر اساس بازخورد آنها، آزمون مورد استفاده در این پژوهش تهیه و با 158 فراگیر زبان انگلیسی با توانشهای مختلف برگزار شد. دادههای آزمون در چارچوب نظریة کلاسیک آزمون و نیز مدل راش تحلیل شد. نتایج بهدست آمده حاکی از آن است که هر دو صورت سؤال دارای پایایی خوب بود (884/0 = آلفای کرونباخ بخش ترجمهای و 845/0= آلفای کرونباخ بخش چندگزینه). براساس مدل راش، تمامی سؤالها از نظر شاخصههای برازش، مطلوب ارزیابی شد. بهعلاوه، آزمون تی مستقل تفاوتی میان دشواری این دو صورت سؤال نشان نداد (696/1=t، ۵۸= df، ۰۹۵/0= P آزمون دو دامنه). بنابراین، به نظر میرسد بتوان از صورت ترجمهای در کنار صورت متداول چندگزینهای در رویکردی نظاممند برای طراحی سؤالهای دانش دستوری استفاده کرد. | ||
کلیدواژهها | ||
پایایی؛ دشواری؛ رویکرد طراحی سؤال؛ سؤالهای ترجمهای؛ سؤالهای چندگزینهای | ||
مراجع | ||
Alderson, J.C., Clapham, C. and Wall, D. (1995). Language Test Construction and Evaluation. Cambridge University Press: Cambridge.
Assessment Reform Group (2002). Assessment for learning: 10 principles. Retrieved November 2012 from http://assessmentreformgroup.files.wordpress.com/2012/01/10principles_english.pdf. Cambridge, UK: University of Cambridge. School of Education.
Bachman, L. F., and Palmer, A. S. (2010). Language Testing in Practice: Oxford: Oxford University Press.
------------ (1996). Language Testing in Practice: Oxford: Oxford University Press.
Black, P., Harrison, C., Lee, C., Marshall, B., and William, D. (2004). Working inside the black box: Assessment for learning in the classroom. Phi Delta Kappan, 86(1), 8–21.
Brown J.D. and Hudson, T.D. (1998). The alternatives in language assessment. TEOSL Quarterly, 32 653-75.
Buck, G. (2001). Assessing listening. Cambridge, UK: Cambridge University Press.
Cook, G. (2010). Translation in Language Teaching. Oxford: Oxford University Press.
Davidson, F. (2012). Releasability of Language Test Specifications. Japan Language Testing Association (JLTA) Journal, 15, 1-23.
Davidson, F. and Lynch, B.K. (2002). Testcraft: A teacher’s guide to writing and using language test specification. New Haven: Yale University Press.
DeMars, C. (2010). Item Response Theory (Understanding statistics: measurement). Oxford University Press: Oxford.
Farhady, H. (2007). Teaching and testing EFL in Iran: global trends and local dilemmas. TELL, 2 75-98.
Fulcher, G. and Davidson, F. (2007). Language Testing and Assessment: An Advanced Resource Book. Oxford: Routledge.
Johnson, K. and Johnson, H. (1999). Encyclopedic dictionary of applied linguistics. Oxford: Blackwell Publishers.
Kennedy, C.A., Wilson, M., Draney, K., Tutunciyan S., and Vorp, R. (2006). ConstructMap software. Berkeley Evaluation and Assessment Research (BEAR) Center. Berkeley, CA.
Li, J. (2006). Introducing audit trails to the world of language testing. Unpublished master’s thesis. University of Illinois at Urbana-Champaign, USA: Division of English as an International Language.
Linacre, J.M. (2010). A User's Guide to WINSTEPS®. Retrieved May 2, 2010 from http://www.winsteps.com/
Linacre, J.M. (2010b) Winsteps® (Version 3.70.0) [Computer Software]. Beaverton, Oregon:Winsteps.com.
------------ (2002). What do infit and outfit, mean-square and standardized mean? Rasch Measurement Transactions 16:2 p.878.
------------ (1994). Sample Size and Item Calibration Stability. Rasch Measurement Transactions 1994 7:4.
McNamara, T.F. (1996). Measuring second language performance. Longman: Harlow.
McNamara, T. and Roever, C. (2006). Language testing: the social dimension. London, UK: Blackwell Publishing.
Morizot, J., Ainsworth, A.T. and Reise, S.P. (2007). Toward modern psychometrics: Application of item response theory models in personality research. In R. W. Robins, R. C. Fraley, & R. F. Krueger (Eds.), Handbook of Research Methods in Personality Psychology (pp. 407-423). New York: Guilford.
Purpura, J. E. (2004). Assessing grammar. Cambridge: Cambridge University Press.
Shin, D. (2012). Item writing and writers. In G, Fulcher and F, Davidson (Eds.): Routledge handbook of language testing. London: Routledge.
Spolsky, B. (2010). Language testing in historical and future perspective. In E., Shohamy and N., Hornberger (eds). Encyclopedia of language and education (2nd edition) Volume 7: Language testing and assessment: Springer: New York.
-------------- (1998). Sociolinguistics. Oxford: Oxford university press.
Turner, C.E. (2012). Classroom assessment. In G, Fulcher and F, Davidson (Eds.): Routledge handbook of language testing. London: Routledge.
Widdowson, H.G. (2003). Defining issues in English language teaching. Oxford: Oxford University Press.
William, D. (2011). What is assessment for learning? Studies in Educational Evaluation (37), 3-14. | ||
آمار تعداد مشاهده مقاله: 2,174 تعداد دریافت فایل اصل مقاله: 1,228 |