生成式人工智能与计算思维式的提问
作者: 陈凯摘要:利用生成式人工智能来评价学生计算思维的运用情况,可能有多种创新的方法。其中一种方法是,让学生基于某些可能运用到计算思维的任务,自主向生成式人工智能发问,通过对在完成任务过程中学生所提问题的文本进行分析,实现对学生计算思维运用情况的评价。本文提出,利用生成式人工智能工具对提问文本进行分析,作为思维运用的分类器、检验器和量具,存在一定的可行性,但其较难对学生思维运用的深度和独创性进行恰当的评判,不能完全替代评价过程中教师的主观感受。
关键词:生成式人工智能;计算思维;计算思维评价
中图分类号:G434 文献标识码:A 论文编号:1674-2117(2024)21-0016-04
“计算思维式的提问”是一个自创短语,用以描述在某人所提出的问题中,问题内容本身就能体现出计算思维的运用。在利用生成式人工智能辅助实施任务的过程中,仅仅是提问本身,也或多或少能够体现出如信息意识、计算思维等信息技术核心素养的状况,尤其是在一系列的问答交互过程中,教师应善于捕捉提问中隐藏的思维运用的信号,通过恰当的引导,对学生的信息技术核心素养加以培养。虽然生成式人工智能难以给出独创性的答案,但它往往能提供有用、有启发性的答案,且生成答案的效率很高。更重要的是,学生和生成式人工智能的互动可以留存记录,成为分析学生思维运用的资料,这些资料对研究思维培养的教师来说具有一定的启发性。
生成式人工智能工具作为评价思维运用的分类器
学生的问题可视作一种输入,一方面输入给生成式人工智能,得到的输出是针对这个问题的某种回答,另一方面,将“该学生的问题本身更多体现出运用了何种思维方式”作为一种输入,要求生成式人工智能进行评判,此时,生成式人工智能工具成为一种分类器。需要注意的是,在这里生成式人工智能工具起到了双重作用。
例如,对于问题“如何用递归的方法,编写代码显示一个由星号组成的三角形阵列”,生成式人工智能几乎都能给出完整且正确的程序代码。更重要的是,教师可以继续追问:“这个问题本身更多体现出的是提问者的信息意识还是计算思维意识?”某生成式人工智能给出了有理有据的回答:
“信息意识通常指的是个体对信息的敏感度和洞察力,能够识别信息的价值,并有效地获取、整合和应用信息。然而,这个问题关联到如何使用递归这一特定的技术来解决问题。递归是计算机科学中一种重要的算法设计技术,它涉及将问题分解成更小的、相似的子问题,直到达到一个简单到可以直接解决的边界情况。提问者通过询问如何使用递归来打印星号三角形,展现了对递归这一编程概念的理解,并试图将其应用于解决一个具体的图形打印问题。这需要对递归的原理有深入理解,并设想如何通过递归步骤逐步构建出所需的图形。这种思考方式更能体现出计算思维意识。”
“计算思维意识”不是一个常见的词语(虽然也偶有文献提及,但似乎并没有得到严谨的分析,在一些文献中,有时其概念与信息意识相近,有时又与计算思维不加区分)。笔者认为计算思维意识是运用计算思维的前提条件,这里引用某生成式人工智能对计算思维意识的描述,可以看出概念的界定是清晰的(但无法得知这种清晰的界定到底是来自某文献,还是其自身的推理过程)。仅就这个例子而言,生成式人工智能对思维运用的判断是合理的:
“计算思维意识可以理解为对计算思维这种思维方式本身的认知——如计算思维的基本概念、用计算思维解决问题、设计系统等方面的价值和作用,计算思维意识体现出人对计算思维的重视程度及应用意愿。”
在刚才的例子中,仍然有理由怀疑,人工智能可能只是利用了“递归”关键词,通过一系列和概率统计有关的计算,轻松关联到了计算思维意识的概念,所以,不妨隐藏那些显见的和计算思维有关的词语,重新构造问题:“某甲用自然语言的形式,用文字向某生成式人工智能描述了一段数据处理的过程,他希望生成式人工智能能够记住这段描述,并将其命名为功能A命令,然而,他所使用的生成式人工智能工具有很大的缺陷,这个工具无法领会重复执行功能A命令。某甲思考后发现,可以在功能A的描述中调用功能A命令自身,这样就实现了一种重复执行命令的功能。请问,某甲的思考和设计,主要体现了信息技术中哪一种核心素养?”结果,生成式人工智能仍然能逻辑清晰地论证某甲的设计最主要体现了计算思维的运用,同时,回答中也妥当地提及由某甲挖掘工具潜能处理信息这一角度,可以认为其中也有信息意识的体现。
以上实验让人产生一种希望:可以利用生成式人工智能,通过分析问答文本,就能够实现对学生思维运用情况的自动化评价。虽然的确存在这样的可行性,但局限也是显见的,既然人工智能的推理和文本生成都是基于已有的大数据,那么它应当难以对人独创性的思维运用方式进行评判。另外,人也可以通过单纯对文本的模仿,来显现某种思维运用的表象——但如果评价目标不显山露水地融合到学习活动中,就有可能消除这一缺陷。
需要提出的是,过程性评价的准确性有可能受到学生实际状态的影响。例如,某甲和某乙都可能向生成式人工智能发问:“如何保证人工智能的回答是全面、完整的?”显然,他们都意识到在获取信息时,完整性是重要的方面,可视为信息意识的体现。继而,假设他们两人在终端输入Python后,都得到了“'Python'不是内部或外部命令,也不是可运行的程序或批处理文件”这句报错信息,某甲向生成式人工智能提问道:“为何输入Python命令后报错?”某乙提问道:“我得到了'Python'不是内部或外部命令,也不是可运行的程序或批处理文件这样的错误信息,请尽可能列出各种造成错误的情况。”生成式人工智能给出这样的分析:
“乙同学不仅准确描述了问题的具体现象,还进一步要求列出所有可能的情况,这种提问方式表明,在甲乙同学都具有对计算机系统运行原理相同程度的知识储备的假设前提下,似乎体现出乙同学具备更强的信息敏感度和分析能力,能够意识到遇到的问题可能涉及多个方面和多种原因,并希望获取更全面的信息来辅助问题的解决。”
看上去,乙同学的提问体现出更强的信息意识,更能体现出“主体在与信息有关的认知活动中产生的感受,以及在感受积累的基础上形成的对信息活动的觉知能力……具有一种此时此地的特性”。[1]但需要注意的是,优秀的生成式人工智能可能会围绕不起眼的语句片段展开宏大的推理和关联,就算是对于某甲这样简单的提问,生成式人工智能也非常有可能全面地给出导致命令失败的可能性,甚至提到用户根本就没有安装Python这一可能。因此,某甲完全可能是在充分了解了生成式人工智能的能力后,才做此简单的发问。正是思维过程的这种“此时此地”的特性,提醒人们,在复杂的真实环境中,生成式人工智能的评价能力是有限的。
生成式人工智能工具作为评价思维运用深度的量具
考虑这样的问题,能否让生成式人工智能评价思维运用的深度?这里的输出不是简单的是或否、有或无,或某种类别,而是具有一定模糊性的滑尺式的判定。从统计学的角度上看,这仍然具有一定可行性,因为可以将学生的提问和教师的评价视作输入数据和输出数据,只要数据量足够大,生成式人工智能就能根据文本对学生思维运用的深度做出具有一定准确率的判定。
可是,既然人工智能构建模型的训练资料是现有的文本,那么就存在一个难解的矛盾:为了让生成式人工智能有可能成为思维运用深度的量具,就不得不限定在一定的框架下进行对比,但框架的设定本身却是一个技术和哲学上的难题——哪些蕴含关系与当前情境有关?哪些无关?显然,人工智能必须有可供分析的文本符号,才能进行比较,但极有可能,并非人的所有行为都对应某种文本符号,“人的一切非随意的行为都可以形式化,是一种柏拉图主义”[2]认知下的幻觉。正如本文开头给出的“计算思维式的提问”这个短语,它只有在被公众或科学共同体认可并广泛使用之后,才有可能形成可供分析的数据资料,但在此之前,“计算思维式的提问”这个方法并不在人工智能的分析框架之内。
这里有一个试着让生成式人工智能评判某三个人在解决问题过程中计算思维的运用程度的有趣实验,提问文本是这样的:“某甲开发了逻辑链网技术,该技术一是基于数据科学——涉及使用各种算法和模型来解析大量数据,二是基于逻辑编程——一种侧重于用声明性语句来描述问题解决方案的编程范式,不同于传统的命令式编程,三是基于系统工程——涉及将复杂的系统分解为可管理的部分,并理解各部分之间的相互作用;某乙使用函数自我调用过程中产生悖论的方法,证明了逻辑链网无法自洽地推理出所有为真的逻辑命题,也就是说,有些为真的逻辑命题,是不能用逻辑链网推论获得的;某丙用逻辑链网构造了一个在二维平面上反复迭代的离散元胞自动机系统,通过构造特定的起始状态,这个离散元胞自动机系统能够模拟逻辑链网本身的功能,基于此证明了逻辑链网的通用性。”在提问的文本中,“逻辑链网”是一个臆造的生词,某甲的工作描述,其实来自另一个生成式人工智能的虚构,而某乙和某丙的工作描述,除了“逻辑链网”一词为虚构外,均对应了计算机科学发展历程中某项重要而独特的思想方法,在多个生成式人工智能的实验中,它们都没有对某乙和某丙的思维运用的独特性加以特别描述,有些甚至还倾向于认为某甲的工作具有更深的思维深度。
在本节最后,用一个简单的思想实验暗示人工智能的能力局限:假设人工智能能够判定文字中蕴含的思维深度,那么通过很多次的随机的自问自答,就能产生出具有思想深度的洞见,但这和现实状况是相悖的。可见,人工智能固然可以产生各种各样的文字内容,但对思维运用深度的主要的判决权,仍然掌握在人的手中。但这样又同时产生出另一个推论,对于学生是否深刻地运用了计算思维的评价,很可能难以制订出客观的标准。
生成式人工智能工具作为思维独创性的检验器
考虑这样一个简单的任务:要求某生成式人工智能编写Python代码,第一行显示一个星号,第二行连续显示两个星号……直到第十行连续显示十个星号,组成一个三角形形状的星号阵列。一个有趣的实验是,可以要求生成式人工智能不断用不同的方法来编写程序代码。人工智能的确能给出多种不同的方法,如嵌套循环、字符串乘法、字符串连接等,其中有一些方法,对算法的初学者是颇有启发性的,然而,如果提示词不发生变化,尽管一再提出更换方法的要求,生成式人工智能也不再有办法给出真正的新的方案,而是陷入一种用多种方法做排列组合的应付状态。
提问者当然可以结合自己已学的知识来修改提示词,让生成式人工智能更换方案,如“请使用第三方的Goto跳转功能构造循环来实现以上任务”,或者“在画布上绘制星号的矩形然后再设法遮住其对角线的一侧”,或者“直接构造一个包含换行符、空格和星号的字符串然后打印出来”。在这里,可以想象,提问者在不断枚举着自己已知的方法,并将这些方法加以改造或重新组合,以实现显示三角形排列的星号阵列的任务。有一个很重要的问题是,生成式人工智能从自己的庞大数据中分析和推理获得方法,而人也是从自己储备的经验中获得方法,这种看上去和机器处理数据得到某种结果相当类似的过程似乎质疑了人的思维过程的独创性。若要打消这种怀疑,就不得不仔细审视语言和世界的关系,“语言符号的有限性、离散性、收敛性与它所描述的呈无限性和连续分布状态的对象之间会产生一定的差异和矛盾”[3],世界相对于其产生的语言符号而言,是第一性的。如维特根斯坦所说,语言的意义在于真实生活中的使用,“在听到一个命令,与对该命令做出回应——予以执行——之间‘有着一条鸿沟’,而这条沟必须由‘理解活动’予以填平”。[4]所以,当人想到某种新方法来解决问题的时候,这种方法固然和他头脑中的知识储备有关,但却不是简单的枚举,这种对认知上的“鸿沟”进行“填平”的行为,是无法还原成语言符号的。
所以,生成式人工智能可以成为一种检验器,尽管有时它无法直接合理评价思维运用的深度,但人却可以通过枚举的方法,从生成式人工智能提供的各种各样的回答中,梳理出已有的人类思维的成果,由此间接了解提问者思维运用的独创性。
结论
随着人工智能技术的飞速发展,生成式人工智能已展现出强大的自然语言处理能力和上下文理解能力,能够模拟人类对话,根据提问生成相应回答并有可能围绕问题做进一步的深层讨论,这为学生提供了一个即时反馈与互动的平台,使得其在完成任务时能够随时提出疑问、验证想法或探索解决方案。通过对学生在生成式人工智能平台上的交互文本进行评价,能够在一定程度上反映学生在解决实际问题时的思维过程,而非仅仅依赖静态答案或测试结果,较大程度地隐藏了教师的意图,提高过程性评价的准确性。这种评价实施过程与学生的自主学习过程融合在一起,鼓励学生通过提问来深化理解,而非被动接受知识。通过收集并分析这些提问,可以洞察学生在问题分解、抽象思维、算法设计等计算思维核心要素上的表现。
在学生完成任务的过程中,引入生成式人工智能作为互动对象,通过向其提问并分析这些问题文本,对学生的计算思维运用情况进行评价,这一做法是具有可行性的。当然,现实世界的复杂性与人类思想的复杂性,使得生成式人工智能较难自动化地评价思维运用的深度和独创性,因此不能完全替代评价过程中教师的主观感受。
参考文献:
[1]解敏,衷克定.信息意识概念的新构想与实证[J].现代远程教育研究,2012,24(05):51-56.
[2]德雷福斯.计算机不能做什么:人工智能的极限[M].宁春岩,译.北京:生活·读书·新知三联书店,1986.
[3]鲁苓.语言·言语·交往[M].北京:社会科学文献出版社,2004.
[4]维特根斯坦.哲学研究[M].李步楼,译.北京:商务印书馆,2008.