论文摘要
有语言教学的地方就有语言测试,有效的语言测试不仅可以测量教学效果和学生成就,也应该对相关教学起到正面的反拨作用。写作能力是一项十分重要的语言输出能力,国内外的各种语言测试都十分重视写作能力的测试,并设置重要的比例。观察国外写作测试研究,作者发现有影响力的托福考试和美国高校中的学术英语考试正大规模地采用综合写作测试的形式,其成功经验对国内高校的写作测试具有一定的启示作用。本研究有两个目的:一是对写作相关理论进行全面的回顾和综述,旨在提出一个应用于国内大学英语课堂的综合写作测试任务设计框架。框架理论基础研究包括写作本质和写作过程的探讨,写作能力的构念和可测量的写作能力的维度的分析,写作任务的类型和相应的优缺点,也包括对大学英语教学要求和大学英语考试大纲的重新解读和对巴赫曼和帕尔马的真实性和互动性概念的重新认知;框架的设计包括对课堂测试本质的分析和测试规范的描述。二是通过实验验证所提出的框架的可操作性及其信度和效度。实验试图解决的问题包括框架操作过程中可能出现的问题,框架应用于不同水平的学生时的信度和效度,框架进行大规模应用时的信度和效度等,同时也对学生在读写结合写作任务和独立写作任务中的作文语料进行对比分析,试图发现他们在两种任务中的表现差异,第二个目的主要通过实验收集数据并采用定量分析的方法来提供解释依据。从本质上讲,写作是语言行为,也是社会文化行为,更是认知行为。写出来的语言和说出来的话相比有正式、准确和复杂等特点;作为社会文化行为,写作是一种交际手段,其表现形式受文化规约的限制;写作过程不仅是个体表达思想的过程,更是思想在大脑内进行认知努力和认知加工的过程,这个过程是非线性的循环过程,有经验的作者运用知识转述模式,而没有经验的新手则采用知识直诉模式,写作过程是作者个体与写作环境进行互动的结果,受工作记忆,动机或情感,认知过程和长期记忆的影响。海姆斯(1972)、卡纳尔和斯温(1980)和巴赫曼(1990)把语言知识分为语言的知识、语篇知识和社会语言知识,后来巴赫曼和帕尔马(1996)又引入策略能力来解释交际语言能力;在前人理论研究的基础上,作者把写作能力概括为语言的知识、语篇知识和策略能力。写作能力是多元的,其维度可通过语言的复杂性、准确性和流利性来测量(斯基汉,1998;埃利斯,2008)。根据前人的研究,作者总结出十个可测量的写作能力的维度,包括语言的复杂性(词长、类符/形符比、T单位词比、分句/T单位比、从属分句/分句比),准确性(无错误T单位比率、无错误分句比率)和流利性(词数、T单位数、分句数),可用于实验研究中的语料分析。回顾国内外成功的大规模考试,写作任务可大致分为独立写作和综合写作,综合写作又分为听读写综合和读写综合,作者举例分析了每种类型的优缺点,并提出尝试在大学英语课堂环境下实施读写结合写作测试的设想(相比于听读写综合任务,读写综合任务的设计对普通教师更具可操作性,因此其研究结果可能更有推广性)。本文提出读写结合写作测试任务的设计框架,旨在为大学英语教师在课堂范围内的写作命题提出理论性的指导和参考。大学英语《教学要求》和大学英语《考试大纲》对该框架具有指导性作用,《教学要求》把大学阶段的英语教学分为三个层次,即一般要求、较高要求和更高要求,并对每个层次的写作能力做了相应的描述,四六级考试大纲也对写作的题目、题材、字数、评分要求和时间做了说明。巴赫曼和帕尔马的真实性和互动性理论充分地解释了读写结合写作任务接近真实的学术领域和职业领域的真实写作任务的本质。就真实性而言,写作任务应模仿现实生活或学术交际中的任务,采纳真实语料作为输入材料;就互动性而论,写作任务应涉及学生已知的或提供的话题知识,与其兴趣、语言能力和策略能力的良好互动会带来学生在测试任务中的最优化表现。框架的设计包括对课堂测试本质的分析和测试规范的描述。课堂测试属于成就考试,是对教学效果的检验;同时也是标准参照考试,应测量学生对教学目标的掌握情况。综合评分法应用广泛且使用快捷,分析性评分法能够提供详细的诊断信息但耗时费力。结合韦格尔(2007)对写作测试任务的维度的总结以及巴赫曼和帕尔马对测试任务输入材料的特点的描述,作者提出适用于大学英语课堂的读写结合写作测试框架并设计了相关测试任务(包括评分标准)。实证研究的目的是验证该框架在应用时的可操作性及其信度和效度。本文的实验研究包括两个阶段。第一阶段是小范围的效度研究,旨在发现该框架在应用时可能存在的问题以及信度和效度。东北大学的30名非英语专业本科一年级学生参加了本次研究,研究工具是一项读写结合写作测试任务和问卷调查。参加测试的学生的作文由2位有经验的教师打细评分,另外1位有经验的教师打粗评分,细评分的平均分是主要研究数据。这些学生同期参加的大学英语四级考试成绩(包括总成绩和写作成绩)和他们的英语课堂写作成绩用作标准关联效标。效度验证主要包括信度检验、平均分检验和相关检验,得出结论如下。首先,该框架的信度系数为0.704,符合写作测试标准。其次,部分-整体相关系数为0.779-0.859,部分-部分相关系数是0.473-0.639,显示可接受的构念效度。此外,细评分的平均分与四级考试写作成绩和英语课堂写作成绩的相关系数分别为0.723和0.712,表明理想的效标关联效度。同时,问卷结果显示参加该研究的教师和学生总体对该框架持肯定态度,普遍认为能够合理地测试中国大学生的英语写作能力。因此,读写结合写作测试在大学英语课堂应用中显示了符合理论要求的信度和效度且有较强的实用性。第二阶段的研究涉及该框架的大规模应用效果和与传统的独立写作测试的对比研究。90名非英语专业的学生参加了本次研究,他们分层抽样于一年级学生,二年级学生和研究生一年级学生,每个年级各30人。研究工具是读写结合写作任务和独立写作任务以及问卷调查。实验分两个步骤进行:第一步,参加独立写作测试,第二步,一个月后,参加读写结合写作测试,题目与独立写作测试相同。参加测试的学生的2份作文同时由2位有经验的教师打细评分,1位有经验的教师打粗评分,细评分的平均分做主要研究数据。同样采用信度检验、平均分检验和相关检验并得出以下结论。首先,当该框架应用于不同水平的学生时,显示合理的信度系数(0.718,0.753和0.701),部分-整体相关系数(一年级为0.736-0.764,二年级为0.841-0.906,研究生为0.778-0.873)十分理想,部分-部分相关系数(一年级是0.278-0.560,二年级是0.535-0.817,研究生是0.467-0.677)跨度较大,但多数可接受。其次,当该框架进行大规模应用时,信度系数(0.713),部分-整体相关系数(0.790-0.843),部分-部分相关系数(0.445-0.676)总体符合理论要求(一部分部分-部分相关系数除外)。因此,该框架既适用于测试不同水平的学生,也适用于大规模地应用在课堂上的写作能力测试。此外,本文也对学生在读写结合写作任务和独立写作任务中的作文进行了对比分析(90人,180篇),试图发现他们在两种任务中的表现差异。一方面,从内容、结构、语言准确性和语言复杂性几个方面进行了分数上的对比,另一方面,从语言的复杂性和流利性等方面进行了语料对比,对比的样本包括分层对比和整体对比。对比研究发现:其一,分层和整体均在读写结合任务中倾向于获得更高的分数(包括总分和四个分项小分);其二,分层和整体均在读写结合任务中倾向于用更长的单词、造更长的句子(二年级学生除外)、更多地运用复合句和复杂句,更高比例地使用被动语态和动词名词化现象尤为突出(大约2倍),同时也显示出更高的流利性(从词数、句数和复合句及复杂句的数量看),但分层和整体均显示出更低的词符/形符比,说明在两种写作任务中学生表现的词汇量是相似的。对比分析结果与问卷调查的结果基本一致,学生普遍认为阅读材料对作文有一定的帮助,一年级学生反映帮助体现在作文的内容、结构和语言各个方面,而高年级学生认为帮助可能更多地表现在作文的内容和结构上。总之,本论文基于理论综述的基础提出读写结合写作测试任务的设计框架并通过实证研究验证了该框架的信度和效度,期望这个尝试对大学英语课堂测试和大学英语学期考试中写作任务的设计有一定的启示和参考作用,并对大学英语教学产生正面的反拨作用。
论文目录
AcknowledgementsAbstract摘要List of AbbreviationsList of FiguresList of TablesChapter 1 Introduction1.1 Background of the study1.2 Purposes of the study1.3 Questions of the study1.4 Layout of the dissertation1.5 SummaryChapter 2 Literature Review2.1 Nature of writing2.1.1 Writing as a linguistic activity2.1.2 Writing as a social-cultural activity2.1.2.1 Social aspects of writing2.1.2.2 Cultural aspects of writing2.1.3 Writing as a cognitive activity2.1.3.1 The Hayes-Flower writing model2.1.3.2 The Bereiter-Scardamalia writing models2.1.3.3 The Hayes writing model2.2 Fundamentals of writing ability2.2.1 Components of writing ability2.2.2 Dimensions of writing ability2.2.2.1 Construct of CAF2.2.2.2 Measurement of CAF2.3 Classification of writing assessment tasks2.3.1 Independent writing tasks2.3.2 Integrated writing tasks2.3.2.1 The reading-writing integrated task2.3.2.2 The reading-listening-writing integrated task2.3.3 Using reading-writing integrated assessment for the present study2.4 SummaryChapter 3 Empirical and Theoretical Exploration3.1 Empirical exploration3.1.1 Description of Curriculum Requirements3.1.2 Writing components of CET4 and CET63.2 Theoretical exploration3.2.1 Authentic assessment3.2.1.1 Birth and development of authenticity3.2.1.2 Traits of authentic assessment3.2.2 Interactive assessment3.2.2.1 Birth and development of interactivenss3.2.2.2 Traits of interactive assessment3.2.3 Significance of authentic and interactive assessment to RWIA3.3 SummaryChapter 4 Test Specification and Framework Construction4.1 Essence of classroom writing assessment4.1.1 Achievement test4.1.2 Criterion-reference test4.1.3 Implications for RWIA4.2 Scoring methods for writing4.2.1 Holistic scoring4.2.2 Analytic scoring4.2.3 Implications for RWIA4.3 Framework of RWIA tasks4.3.1 Specification of RWIA tasks4.3.1.1 Task dimensions4.3.1.2 Features of input4.3.2 Suggested framework for RWIA tasks4.4 Designing sample RWIA tasks4.5 SummaryChapter 5 The Pilot Validation Study5.1 Research purpose5.2 Research subjects and task5.3 Research operation5.3.1 Testing procedure5.3.2 Scoring procedure5.3.3 Collection of data5.4 Data analysis5.4.1 Questionnaire analysis5.4.1.1 Candidates’perspective5.4.1.2 Teachers’perspective5.4.2 Reliability and validity of RWIA5.4.2.1 Descriptive statistics and reliability5.4.2.2 Analyses of construct validity5.4.2.3 Analyses of criterion-related validity5.5 Discussion5.6 SummaryChapter 6 The Field Validation Study6.1 Research purpose6.2 Research subjects and task6.3 Research operation6.3.1 Testing procedure6.3.2 Scoring procedure6.3.2.1 Rater training6.3.2.2 Analytic scoring and holistic scoring6.4 Data collection and analysis6.4.1 Study of reliability and validity6.4.1.1 Study on three levels of candidates6.4.1.1.1 Descriptive statistics and reliability6.4.1.1.2 Analyses of construct validity6.4.1.1.3 Analyses of external validity6.4.1.2 Study on 90 candidates6.4.1.2.1 Descriptive statistics and reliability6.4.1.2.2 Analyses of construct validity6.4.1.2.3 Analyses of external validity6.4.1.3 Candidates’perception on RWIA6.4.2 Comparative study of essay products in two tasks6.4.2.1 Comparative study of analytic measurement6.4.2.2 Comparative study of discourse analysis6.5 Discussion6.6 SummaryChapter 7 Conclusions and Recommendations7.1 Research findings7.2 Research implications7.2.1 Design of RWIA as a model7.2.2 Implications of RWIA for writing instruction7.3 Research significance7.4 Research limitations7.4.1 Problems of RWIA itself7.4.2 Problems with this study7.5 Further research7.6 SummaryBibliographyAppendix 1 Empirical BasisAppendix 1.1 The Regents writing test in Georgia State UniversityAppendix 1.1 A Sample TestAppendix 1.1 B Essay scoring rubricsAppendix 1.2 Task 1 in TOEFL (iBT)Appendix 1.3 Requirements of writing ability of non-English majors (Chinese versiAppendix 1.4 Requirements for the writing components in CET4 and CET 6 (Chinese version)Appendix 2 ExperimentsAppendix 2.1 Sample task AAppendix 2.2 Sample task BAppendix 2.3 The Independent Writing Assessment TaskAppendix 2.4 The Reading-Writing Integrated Assessment TaskAppendix 2.5 Scoring Rubrics – the Field StudyAppendix 3 QuestionnaireAppendix 3.1 Candidate’s Questionnaire – the Pilot StudyAppendix 3.2 Rater’s Questionnaire – the Pilot StudyAppendix 3.3 Candidate’s Questionnaire – the Field StudyAppendix 4 Data of the Validation StudyAppendix 4.1 Candidates’raw scores in CET4 and writing exercises in English class –the pilot studyAppendix 4.2 Candidates’raw scores of analytic rating and those of sub-categories –the pilot studyAppendix 4.3 Candidates’ raw scores of holistic rating and analytic rating – the pilot studyAppendix 4.4 Raw scores of raters’ratings in the Independent Writing Task–the field studyAppendix 4.5 Raw scores of raters’ratings in the Reading-Writing Integrated Assessment Task –the field studyAppendix 4.6 Candidates’raw scores in the English Term Examination, CET4 or CET 6 –the field studyAppendix 4.7 Raw statistics of discourse analyses
相关论文文献
- [1].高职高专英语限定写作测试与随意写作测试的效度对比研究[J]. 海外英语 2016(22)
- [2].近十年国内英语写作测试研究综述[J]. 劳动保障世界 2016(14)
- [3].大学英语六级写作测试对大学英语写作教学的反拨作用[J]. 校园英语 2020(06)
- [4].英文写作测试中选题的实证研究[J]. 文教资料 2018(24)
- [5].英语写作测试的效度与信度的统一[J]. 科教文汇(下旬刊) 2009(09)
- [6].由读、听、写结合的综合写作测试模式反思大学英语写作教学[J]. 疯狂英语(教师版) 2011(02)
- [7].高职英语写作测试及反驳作用的探讨[J]. 魅力中国 2017(05)
- [8].英语应用能力写作测试与写作教学[J]. 现代企业教育 2014(22)
- [9].正确理解英语写作测试的评分方法[J]. 中国校外教育 2010(10)
- [10].评《写作测试》的理论设计与实用性[J]. 河南职工医学院学报 2013(01)
- [11].汉语作为第二语言的两种看图写作测试方式的实验研究[J]. 华文教学与研究 2012(03)
- [12].二/外语写作测试评分研究综述[J]. 外语测试与教学 2011(04)
- [13].试析英语写作测试的合理性问题[J]. 长春教育学院学报 2010(01)
- [14].在不降低效度的情况下提高直接写作测试信度[J]. 外国语文 2009(05)
- [15].中国学生在综合写作测试中的引用模式[J]. 海外英语 2017(02)
- [16].试述英语教学中最适宜的英语写作测试法——直接测试法[J]. 亚太教育 2016(10)
- [17].英语写作测试信度保障机制构建研究——以贺州学院写作教学为例[J]. 赤峰学院学报(自然科学版) 2014(06)
- [18].对于大学英语无提纲式写作测试的效度研究[J]. 科技资讯 2014(05)
- [19].高职高专限定英语写作测试弊端小议[J]. 长春金融高等专科学校学报 2013(01)
- [20].测试题型对英语写作测试的影响[J]. 吉林工商学院学报 2009(06)
- [21].新托福综合写作测试对英语写作教学的影响[J]. 西南民族大学学报(人文社科版) 2008(S3)
- [22].英语专业四、八级中写作测试的局限性评析[J]. 青年文学家 2010(19)
- [23].新课程背景下浙江省高考英语写作测试研究[J]. 教育测量与评价(理论版) 2012(04)
- [24].如何命制英语写作测试题——以高考书面表达题为范例[J]. 西南民族大学学报(人文社会科学版) 2012(S1)
- [25].体裁差异对写作测试成绩的影响[J]. 外语界 2010(02)
- [26].大学英语四级写作测试中的语域意识[J]. 科技信息 2009(21)
- [27].大学英语四级写作测试构念效度研究——一项基于试题内部结构和评分过程的尝试[J]. 外语测试与教学 2011(04)
- [28].高考英语写作测试对高中英语写作教学的反拨作用[J]. 高考 2019(06)
- [29].“读听写结合”写作测试方式探讨[J]. 重庆科技学院学报(社会科学版) 2012(04)
- [30].国内语言测试写作评分标准理论与应用发展述评[J]. 中国考试(研究版) 2009(08)
标签:读写结合写作测试论文; 效度研究论文; 信度论文; 构念效度论文; 效标关联效度论文; 真实性论文; 互动性论文;