质量监控
质量管理 您现在的位置: 首页 >> 质量监控 >> 质量管理 >> 正文
联合国教科文组织发布《教育与研究领域生成式人工智能指南》
栏目:质量管理 作者: 来源:  时间:2023-09-22 06:39:41 点击:

9月7日,联合国教科文组织颁布了《生成式人工智能教育和研究指南》,这是全球首份生成式AI相关的指南性文件,旨在促使生成式AI能够更好地融入到教育,以下为《指南》的部分编译内容


联合国教科文组织指出,2023年1月,ChatGPT活跃用户已经突破100万,但只有一个国家在7月发布了关于生成式人工智能的法规。(指的即是《生成式人工智能服务管理暂行办法》)

对比今年7月国内颁布的《生成式人工智能服务管理暂行办法》我们会发现,两份文件都提到了“对AI生成内容进行标识”的重要性;教育行业从业者更要正确考虑伦理原则;要求增加人工审核环节,以免出现大量AI生成的错误信源,这对教育行业是重要的信号。

除此之外,《联合国指南》则更全面地分析了生成式人工智能目前存在的风险,借此传达对教育行业从业者的建议。

在AI落地的探索上,《指南》也为未来AI在教育领域的正确使用方法上提供了多个方向,例如使用AI助手促进教学;利用AI生成一对一方案训练学生的语言、计算机、艺术及编码学习;帮助有听力或视觉障碍的学习;利用AI对话进行心理及情绪疏导等路径。

《指南》还建议将使用AI工具的年龄限制为13岁。

联合国教科文组织总干事Audrey Azoulay指出,“生成人工智能可能是人类发展的巨大机遇,但也可能造成伤害和偏见。没有公众的参与,没有政府的必要保障和规章,就无法将其纳入教育。联合国教科文组织的这一指南将帮助决策者和教师最好地导航人工智能的潜力,以满足学习者的主要兴趣。”

《生成式人工智能教育和研究指南》包含哪些重点?


01

围绕生成式人工智能产生的争论及其对教育的影响

在讨论生成式AI的规范性指南之前,相关组织对目前Generative AI(生成式AI,后文简称 Gen AI)引起的争议和风险作出了一系列总结,这些风险,常常被使用者忽略。

其中对于教育行业来说,最显著的影响是:AI生成的大量存在偏差的信息,使学习者获取的信息源混乱。如果没有监管,未来的学生学习到的知识很有可能是不准确的、经AI加工提取后的片面信息。

《联合国指南》中提到的风险主要包含以下几个方面:

  • 数字贫困加剧

《指南》指出,生成式AI除了在人工智能架构和训练方法方面的迭代创新之外,还依赖与大量的数据和强大的计算能力,这些创新大多只适用于最大的国际技术公司和少数经济体(主要是美国、中国、欧洲国家)。随着获取数据对于国家的经济发展和个人的数字机会变得越来越重要,那些无法获取或负担不起足够数据的国家和人民陷入了“数据贫困”的境地。

换言之,AI能促进公平,也能加剧不公平,关键在于使用者如何选择。

研究者、教师和学习者应该批判地看待一般培训模式中的价值取向、文化标准和社会习俗。政策制定者应意识到并采取行动,解决因训练和控制通用模型的差距扩大而导致的不平等恶化问题。

  • 超越国家监管适应

与此同时,许多开始使用Gen AI的公司发现,维护其系统的安全性越来越具有挑战性。此外,尽管人工智能行业本身呼吁监管,但关于创造和使用所有人工智能的立法起草工作往往落后于快速发展的步伐。

虽然Gen AI可以增强人类完成某些任务的能力,但对推广Gen AI的公司的控制有限。这就提出了监管问题,特别是在获取和使用国内数据方面,包括关于地方机构和个人的数据以及在国家领土上产生的数据,需要制定适当的立法。

  • 未经同意使用内容

正如前面所提到的,一般模型所需大量的数据经常从互联网上搜集,而且通常没有任何所有者的许可。许多图像通用系统和一些代码通用系统因此被指控侵犯知识产权。

研究人员、教师和学习者还应意识到,使用Gen AI创建的图像或代码可能会侵犯他人的知识产权,并且他们在互联网上创建和共享的图像、声音或代码可能会被其他Gen AI利用。

  • AI生成的内容造成信源不准确

由于GPT训练数据通常是从互联网上提取的,而互联网上经常包含歧视性和其他不可接受的语言,由于缺乏严格的法规和有效的监督机制,生成式AI产生的带有偏见的材料正日益在互联网上传播,使学习者获得错误知识。

这一点对教育行业尤其重要,因为生成式AI生成的材料可能看起来相当准确和令人信服,但它往往包含错误和有偏见的观点。这对年轻的学习者来说是一个很高的风险,因为他们对所讨论的主题没有扎实的先验知识

这也给未来的GPT模型带来了递归风险,这些模型将在GPT模型自己创建的从互联网上搜集的文本上进行训练,其中也包括它们的偏差和错误。

试想一下,如果机构用AI生成课程,却因缺乏审核传播错误知识,这将对学生造成严重的影响。这也对教育者释放出一个重要信号,基于AI生成的知识的可靠性可能会出现长期问题。

  • 缺乏对现实世界的了解

文本GPT有时被轻蔑地称为“随机鹦鹉”,因为如前所述,虽然它们可以生成看起来令人信服的文本,但该文本通常包含错误,GPT从随机模式开始,并不理解它们的含义——就像鹦鹉可以模仿声音,但实际上并不理解它在说什么。

生成式AI所使用和生成的文本的一般模型与现实世界之间存在脱节,可能导致教师和学生对输出给予一定程度的信任,而这种信任是不值得的。这给未来的教育带来了严重的风险。事实上,生成式AI并不是基于对现实世界的观察或科学论证,也不符合人类或社会价值观。

  • 产生深度赝品

除了所有生成式AI都存在的争议之外,Gen AI还可以用来修改或操纵现有的图像或视频,以生成难以区分的假图像或视频。Gen AIl正在让制造这些“深度造假”和所谓的“假新闻”变得越来越容易。

目前,只有中国、欧盟(EU)国家和美国调整了版权法,以说明生成人工智能的影响。例如,美国版权局(USCopyrigh toffice)裁定,通用系统(如CHATGPT)的输出不受美国版权法的保护,认为“版权只能保护人类创造力的产物”(US Copyright Office,2023)。而在欧盟,拟议的欧盟人工智能法案要求所有工具开发人员披露他们在构建系统时使用的受版权保护的材料(欧盟委员会,2021)。

中国通过其2023年7月发布的关于生成式人工智能的法规,要求将Gen AI的输出标记为AI生成的内容,并且只承认它们是数字合成的输出。


02

促进在教育和研究中创造性地使用生成式 AI

当ChatGPT首次推出时,世界各地的教育工作者表达了他们对其生成论文的潜力以及它如何帮助学生作弊的担忧。

与此同时,互联网上也充斥着在教育和研究中使用Gen Al的建议。其中包括使用它来激发新的想法,生成多视角的例子,制定课程计划和演示文稿,总结现有的材料,并刺激图像创作。尽管互联网上几乎每天都有新的想法出现,但研究人员和教育工作者仍在研究基因对教学、学习和研究的确切意义。

特别是,许多提议用途背后的人可能没有正确考虑伦理原则,而其他人则是由Gen Al的技术潜力驱动,而不是研究人员、教师或学习者的需求。本节概述了在教育中创造性地使用 Gen Al的方法。

教育和研究机构应制定、实施和验证适当的战略和道德框架,以指导负责任和合乎道德地使用通用系统和应用程序,以满足教学、学习和研究的需要。这可以通过以下四个策略来实现:

道德原则的制度实施:确保研究人员、教师和学习者以负责任和合乎道德的方式使用通用工具,并严格对待输出的准确性和有效性。

指导和培训:向研究人员、教师和学习者提供有关通用工具的指导和培训,以确保他们了解数据标签和算法中的偏见等道德问题,并遵守有关数据隐私和知识产权的适当法规。

建立Gen Al提示工程能力:除了特定学科的知识,研究人员和教师还需要工程方面的专业知识,并对Gen Al产生的提示进行严格评估。鉴于Gen Al提出的挑战是复杂的,研究人员和教师必须接受高质量的培训和支持才能做到这一点。

在书面作业中检测基于Gen Al的剽窃:Gen Al可能允许学生将他们没有写的文本冒充为自己的作品,这是一种新型的“剽窃”。一般供应商被要求用“由AI生成”的水印标记其输出,同时正在开发工具来识别由 AI生成的材料。然而,几乎没有证据表明这些措施或工具是有效的。当前的机构战略是通过人类的严格检测来维护学术诚信和加强问责制。长期策略是机构和教育工作者重新思考书面作业的设计,这样它们就不会被用来评估一般工具比人类学习者做得更好的任务。相反,它们应该解决人类能做而基因和其他人工智能工具不能做的事情,包括将同情心和创造力等人类价值观应用于复杂的现实世界挑战。


03

未来,生成式AI 在教育场景中的实际应用探索

《指南》中提供了一些例子,说明在使用中的协同设计过程如何为研究实践提供信息,如何协助教学,如何为自定进度获取基本技能提供辅导,如何促进高阶思维,以及如何支持有特殊需求的学习者。

  • 用于研究的生成式人工智能

基因模型已经证明了它们在扩展研究大纲的视野和丰富数据探索以及文献综述方面的潜力虽然可能会出现更广泛的使用案例,但需要新的研究来定义研究问题的潜在领域和预期结果,以证明有效性和准确性,并确保人类通过研究理解现实世界的能力不会因使用人工智能工具而受到损害。

  • 生成Al以促进教学

通用通用平台的使用和特定教育通用工具的设计都应旨在增强教师对其学科的理解以及他们对教学方法的了解,包括通过教师与人工智能共同设计课程计划、课程包或整个课程。受过预先培训的辅助会话教师助理或“教学助理的双胞胎”。

根据来自经验丰富的教师和图书馆的数据,已经在一些教育机构进行了测试,可能具有未知的潜力以及未知的道德风险。这些模型的实际应用过程和进一步迭代仍然需要通过本指南中建议的框架进行仔细审核,并通过人工监督进行保护。

  • 生成人工智能作为1:1教练,自定进度获取基本技能

虽然高阶思维和创造力在定义学习成果时吸引了越来越多的关注,但基础技能在儿童心理发展和能力进步中的重要性仍然毋庸置疑。在众多能力中,这些基本技能包括听力、发音和写作。

母语或外语,以及基本的计算能力,艺术和编码。“训练和实践”不应被视为过时的教学方法;相反,它应该用通用技术来重新激活和升级,以促进学习者自定进度地练习基本技能,Gen Al工具有可能成为这种自定进度实践的1:1教练。

  • 支持有特殊需要的学习者的生成

从理论上讲,基因模型有可能帮助有听力或视觉障碍的学习者。新兴的实践包括为聋人和听力困难的学习者提供通用字幕或字幕,以及为视障学习者提供通用生成的音频描述。Gen Al模型还可以将文本转换为语音以及将语音转换为文本,以使有视觉、听觉或语音障碍的人能够访问内容、提出问题并与他们的同伴交流。

然而,这一功能尚未得到大规模利用。根据前面提到的科文组织在2023年进行的关于政府在教育中使用人工智能的调查,只有四个国家(中国、约旦、马来西亚和卡塔尔)报告说,它们的政府机构已经验证并推荐了人工智能辅助工具,以支持残疾学习者的包容性接入(教科文组织,2023年)。

最后,也有人建议,神经系统有可能进行基于对话的诊断,识别心理或社会情绪问题以及学习困难。然而,几乎没有证据表明这种方法是有效或安全的,任何诊断都需要由熟练的专业人员进行解释。


04

联合国教科文组织规定:使用人工智能工具的年龄限制为13岁

大多数Gen Al应用程序主要是为成人用户设计的。这些应用程序通常会给儿童带来巨大的风险,包括接触不适当的内容以及潜在的操纵。鉴于这些风险,并考虑到继续围绕迭代通用应用程序的相当大的不确定性,强烈建议对通用技术进行年龄限制,以保护儿童的权利和福祉。

目前,ChatGPT的使用条款要求用户必须年满13岁,18岁以下的用户必须获得父母或法定监护人的许可才能使用服务。

在社交媒体广泛使用之前,也早在易于使用且功能强大的通用应用程序(如ChatGPT)创建之前,就规定组织或个人社交媒体提供商不得在未经父母许可的情况下为13岁以下的儿童提供服务。许多评论员认为这一门槛太小,并主张立法将年龄提高到16岁。欧盟的GDPR(2016)规定,用户必须至少年满16岁才能在没有父母许可的情况下使用社交媒体服务。

各种Gen AI聊天机器人的出现要求各国仔细考虑并公开审议与Gen AI平台进行独立对话的适当年龄门槛。最低年龄应为13岁。各国还需要决定自我报告年龄是否仍然是核实年龄的适当手段。

各国将需要强制规定一般服务提供者对年龄验证的责任,以及父母或监护人对监督未成年儿童的独立谈话的责任。


05

结束语

从以人为中心的角度来看,人工智能工具的设计应扩展或增强人类的智力能力和社交技能,而不是破坏它们、与它们发生冲突或取代它们。长期以来,人们一直期望人工智能工具可以进一步整合为可用工具的一部分。

为了使人工智能在个人、机构和系统层面上成为人机协作中值得信赖的一部分,2021年联合国教科文组织关于人工智能伦理的建议所提出的以人为中心的方法将根据新兴技术(如基因)的具体特点进一步细化和实施。只有这样,我们才能确保Gen AI成为研究者、教师和学习者值得信赖的工具。

虽然Gen AI应该用于教育和研究,但我们都需要认识到,Gen AI也可能会改变这些领域中已建立的系统及其基础。由基因引发的教育和研究的转变,如果有的话,应该以以人为中心的方法进行严格的审查和指导。只有这样,我们才能确保特别是AI的潜力,以及更广泛地用于教育的所有其他类别的技术,能够增强人类为所有人建设包容性数字未来的能力。