英国教育部多举措应对生成式人工智能挑战
李震英
近日,英国罗素大学集团发布生成式人工智能工具的使用原则,指导联盟内部24所大学直面ChatGPT等生成式人工智能工具带来的挑战,同时指导学校合理使用人工智能工具,培养技术社会所需的具有数字素养的人才。在ChatGPT席卷全球教育系统的当下,教育部门应当如何应对?今年早些时候,英国教育部发布了针对教育领域使用生成式人工智能的官方指南,以拥抱其带来的机遇,应对相应的挑战。
教育部门需要掌握四个关键信息。第一,普通公众利用生成式人工智能产出内容,给教育部门带来机遇和挑战。第二,如果包括生成式人工智能在内的技术使用得当,可能会减少整个教育部门的工作量,释放教师非教学时间,使他们能够专注于提供优秀的教学。第三,学校、学院和大学以及认证机构需要采取合理措施,预防在使用生成式人工智能和其他新兴技术方面的不当行为。第四,教育部门必须继续保护其数据、资源、员工和学生免受生成式人工智能的消极影响。
教育部门应制定应对生成式人工智能的有效策略。
英国教育部意识到减轻教师工作负担是一个重要问题,并一直致力于帮助教师减少在非教学活动上花费的时间。而恰当利用生成式人工智能,有可能帮助教师减少大量的非教学工作时间,从而减轻工作负担。英国教育部正在召集专家与教育部门合作,分享和确定使用生成式人工智能改善教育、减少教师行政工作量的最佳实践和机会。
教育部门所有人员必须认识到,生成式人工智能工具会产生不可靠的信息,所有生成的内容都需要通过专业判断来检查适当性和准确性。同时,生成式人工智能是根据训练过的数据库给出结果。多数情况下,这个给定的工具并没有经过国家课程体系的训练。所以,教育部门不要想当然地将人工智能的产出与在课程背景下人工开发设计的资源相提并论。
无论在制定行政计划、政策或文件时使用何种工具或资源,最后文件的质量和内容应仍然由制定者及其所属组织负责。大中小学可能需要考虑家庭作业以及其他无监督学习的方式,对生成式人工智能的可行性作出探索。
教育部门要关注未来知识和技能培养,培养为明天做好准备的人。
为一个不确定的未来做准备的最好方法,是在已被证明对建设当今世界最有影响力的知识上打下坚实的基础。英国科学、创新与技术部下属的人工智能办公室目前正在对未来劳动力培训所需的技能进行研究。
为了利用生成式人工智能的潜力,学生需要具备渊博的知识并不断开发他们的智慧。扎实的基础知识可以确保学生具备正确的技能,以更好地利用生成式人工智能工具。因此,一个严谨且丰富的课程体系对于学生为未来做好准备仍然是至关重要的。
教育部门需要让学生为不断变化的劳动力市场做好准备,在教育的不同阶段,教他们如何安全、适当地使用生成式人工智能等新兴技术。同时,帮助学生理解生成式人工智能的局限性、可靠性和潜在偏见,了解互联网信息如何组织和排序、如何防止有害或误导性内容等网络安全常识。
教育系统应支持学生,特别是青年学生,识别和使用适当的资源来支持他们不同阶段的教育。这包括鼓励他们有效使用适合其年龄段的、可能由生成式人工智能产生的资源,并防止他们过度依赖单一工具或资源。
英国教育部表示将与专家合作,考虑和应对生成式人工智能以及其他新兴技术的影响,为16岁以下儿童和青少年开设丰富的计算机课程。
教育部门要完善考试及资格认证等正规评估流程。
学校、学院和大学以及认证机构需要继续采取合理措施防止涉及使用生成式人工智能在内的不当行为。例如,英国考试委员会已经出台了严格的规定,以确保学生独立完成作业。
虽然生成式人工智能技术可以根据用户提示产生流畅且令人信服的答案,但生成的内容实际上可能并不准确。学生需要具备基本的知识和技能来判断信息的准确性和适当性,因此知识丰富的课程体系就显得尤为重要。教育部门需要确保评估系统能够公平而准确地评估被测试者的知识和技能。
英国资格认证联合委员会已经为教师和考试中心发布了在生成式人工智能背景下保护资格认证诚信的指南。该指南包括如何避免人工智能滥用的信息以及对教师和考试中心的要求,帮助发现和预防不当行为。
教育部门要尽量减少生成式人工智能的消极影响。
生成式人工智能能够存储并从输入的数据中学习。为确保个人隐私,应避免将个人和敏感数据输入生成式人工智能工具。
教育部门应该意识到,生成式人工智能可以创建各种看似可信的内容,包括各类诈骗信息。值得注意的是,由于人们与生成式人工智能的交互方式不同,因此由人工智能输出的内容看起来更权威和更可信。
因此,教育部门必须遵循教育部发布的网络标准,有效管理网络风险。教育机构还必须确保儿童和年轻人避免通过生成式人工智能访问或生成有害或不当内容。英国教育部发布的《保护儿童在教育中的安全》等指南已经为中小学和大学提供了如何保护学生网络安全的相关信息,大中小学可以参考网络过滤和监控标准,以确保网络防护系统精准到位。
(作者单位系北京教育科学研究院)
《中国教育报》2023.12.07