科学与文化论著研习

作者: 王博

任务锦囊

《普通高中语文课程标准》“科学与文化论著研习”学习任务群既涉及科学理论论著阅读,又涉及文化普及论著阅读;既涉及科学研究,又涉及史学研究。对于科学与文化论著,考生要理解概念、梳理逻辑、辨析理论、评析学术表达、跨界比较、撰写心得。根据近年来高考的命题重点,着重讲以下两点:

1.理解概念。我们需要准确理解论著中的术语和概念,才能理解作者的主要观点。对于概念内涵,考生需要从文本中提取、归纳,并根据自己的知识储备进行信息完善。

2.梳理逻辑。阅读科学与文化论著,不仅要理解概念本身,还要理清概念之间的逻辑关系。作者在阐明自己的观点时,离不开科学思维和逻辑推理过程,逻辑、理性、实证是科学研究中不可缺少的思维,因此在梳理、推理过程中,需要时时扣住推导结果,理清句与句之间、段与段之间的内在联系,去除旁枝,明晰主干,然后用精简的语言将内容要点表达出来。

把握主要概念及其关系,梳理文章内容要点,有三个要点:一是简要说明作者想要解决什么问题、运用了什么研究方法、研究结果和结论是什么;二是注意从整体把握论著内容,提纲挈领,提炼出作者的核心观点和论证逻辑,回避常识性内容、引用性内容以及与题目重复的信息;三是思路清晰,表意明确,语言简练,术语规范。

针对训练

阅读下面的文字,完成后面的小题。

材料一:随着语料库持续更新与算法不断完善,未来AI(人工智能)写作全面赶超人类并非绝无可能。不过从当前状况来看,AI写作还不可能完全取代人类写作。

AI写作本质上是数据算法支配下的符号自动生成,虽然在表现形式上呈现出类文学特征,但却无法真正实现对人类情感与想象的编码。而人类理解世界的方式除了数理逻辑还有情感与想象等。人类的情感与想象也并不是不能编码化,而是无法在AI的运行机制中实现无差别的兼容。因为AI只能以数理逻辑的方式运行,任何超出数理逻辑规范的存在都会被视为错误而被排除。对AI而言,语言只是符号本身;但对人类而言,语言不仅仅是符号,更承载丰富的意义。

人工智能写作无法实现现实性超越。人类写作可以通过想象超越现实,提供精神慰藉和审美愉悦;而AI写作则被限制在算法范围内,沦为事件记录,无法满足人类对超越性的渴望。单纯对AI自动生成的文本进行审美评判,难以否认其具有审美价值,甚至某些方面达到普通创作者难以企及的高度。但问题在于,真正引发读者情感共鸣和审美愉悦的,并非AI自动生成的文本本身,而是它依托的人类经典创作语料库。AI写作只能以不断消耗现有人类审美资源的方式来维系虚假的审美幻象,不但无法产生真正伟大的作品,而且在审美资源的持续消耗中,必定走向枯竭,沦为空洞、虚假的机械复制。对AI数据算法而言,人类创作素材与AI自动生成素材之间不存在任何区别。这就意味着,随着AI生成文本的指数级增长,那些真正承载人类鲜活生命体验的文本比重将越来越低,逐渐消解于机械复制文本的重重包围之中。

AI写作还消解了写作对现实的介入力量。人类写作虽然以虚构性的方式展开,但却对现实有着强劲的介入力量,作品中所呈现的完美性虚构,构成对现实世界不合理的批判依据,作品中所承载的对完美性的憧憬与追求,构成改造现实的内生动力。而AI写作在数据算法支配下自动生成的文本,与现实世界之间不构成任何实质性的关联。AI写作专注于算法的持续优化与需求的最大限度满足,现实世界则遵循自身应有的运行规律。简而言之,AI写作是一个悬浮于现实世界之上的空中楼阁。

令人担忧的是,AI写作依托大数据,可为人类感性需求提供精准而全面的满足,从而不断趋向于一种反智主义的娱乐化、平面化与庸俗化,可能导致人类在不知不觉中偏离理想的健全人性。因此,我们应该将人工智能严格限制在辅助性工具的范围内,防范人工智能作为一个异己性的存在反客为主,参与到人类的观念认知建构中。

(摘编自赵耀《人工智能写作的局限性》)

材料二:人工智能作为一种机器学习系统,缺乏真正的解释和理解能力,它的核心是描述和预测。这是一个笨重的模式匹配统计引擎,狼吞虎咽地处理数百兆字节的数据,并推断出最为可能的答案。相反,人类的大脑是一个极为高效甚至优雅的系统,只需要少量的信息即可运作。它寻求的不是推断数据点之间的粗暴关联,而是创造解释。

举个例子:你放开手中苹果,观察结果后说:“苹果掉下来了。”这是一种描述。预测则可能是这样:“如果我张开手,苹果就会坠落。”两者都是有价值的,而且可能都是正确的。但解释则不仅于此:它不仅包括描述和预测,还包括超越事实的猜想,如“任何这样的物体都会坠落”;以及“如果不是因为引力,苹果就不会坠落”之类的因果解释,而这就是思考。机器学习的核心是描述和预测,它没有提出任何因果机制或物理定律。当然,人类式的解释不一定正确,但这正是思考的一部分:智能不仅包括创造性的猜想,也包括创造性的批评。人类式的思考基于可能的解释和纠错,这一过程恰恰实现理性的力量。就像夏洛克·福尔摩斯对华生医生说的:“当你排除了所有不可能,剩下的无论多么不可能,都一定是真相。”ChatGPT在设计上可以“学习”(即记忆),但它没有能力区分可能和不可能。人类理性推测的解释是有限的,而ChatGPT不存在这一限制。它可以同时学习相互矛盾的观点,如“地球是圆的”和“地球是平的”,只是根据随时间变化的概率进行交换。

机器学习系统也无法解释语言的深层规则,因为语言的正确解释是非常复杂的,无法仅仅通过沉浸在大数据中来学习。例如,它们将句子与从其他句子中推断出的模式进行类比,而不考虑语言的正确解释和深层含义,因此可能错误地预测句子的含义。例如,ChatGPT可能将“约翰太固执了,没法和他说话”误解为“约翰不愿意与人交流”,而不是“没法与约翰讲道理”。

机器学习爱好者对他们的作品在不需要解释的情况下产生正确的“科学”预测(例如,关于物理物体的运动)感到自豪,但这种预测是伪科学。真正的智力体现在思考和表达看似不可能、但有深刻洞见的事情的能力。苹果掉到地球上是因为质量使时空弯曲(爱因斯坦的观点)这一理论看似极不可能,但它却告诉了你苹果为什么会掉下来。

真正的智力还体现在能够进行道德思考的能力。这意味着用一套道德原则来约束我们头脑中原本无限的创造力,决定什么是该做的,什么是不该做的。ChatGPT等机器学习程序无法在生成新颖输出和避免背离道德准则之间加以平衡,因为它们缺乏根据道德原则进行推理的能力。程序员只能粗暴地对ChatGPT进行限制,禁止它在有争议的(也就是重要的)讨论中提供任何新颖的观点。

鉴于机器学习系统的非道德性、伪科学性和语言无能,我们只能为它们的流行而感到哭笑不得。

(摘编自乔姆斯基《ChatGPT的虚假承诺》)

1.下列对材料相关内容的理解和分析,不正确的一项是(  )

A.人工智能凭借丰富的语料库与先进的算法,将来有可能在写作方面赶超人类,但目前它们仍然只能部分取代人类写作。

B.AI只能以数理逻辑的方式运行,意味着它无法对人类的情感与想象进行编码,更无法理解语言背后承载的丰富意义。

C.人类进行理性思考时,需要辨识矛盾,区分可能和不可能;而ChatGPT不加限制地接纳各种观点,其实远离了理性思考。

D.机器学习系统的流行,反映了人们因对其局限性认识不清而对其地位作用明显高估,这让材料二的作者觉得好笑又可悲。

2.根据材料内容,下列说法不正确的一项是(  )

A.语料库的持续更新仍无法解决AI写作的创新难题,这与AI自动生成素材的比重加大有关。

B.《西游记》以虚构方式对现实世界的不合理进行批判,而AI写作缺乏这种对现实的批判性。

C.微软聊天机器人因为被网络污染而散播种族主义内容,表明其道德思考能力有待改进。

D.机器学习系统的预测是伪科学,因为它往往忽略那些看似不可能、但有深刻洞见的事情。

3.下列选项,最能体现材料一第三段所说的“现实性超越”的一项是(  )

A.陶渊明在《桃花源记》中,塑造了一个与现实社会完全不同的桃花源。

B.狄更斯的《大卫·科波菲尔》以第一人称叙事,融进了作者的生活经历。

C.“科幻小说之父”凡尔纳在小说中构想出潜水艇、月球登陆等现代科技的雏形。

D.赫胥黎的《美丽新世界》描绘了一个通过科技控制人类情感和欲望的未来世界。

4.材料二中所说的“真正的解释和理解能力”主要指什么?请简要分析。

答:

5.中央领导人曾说:“要学习掌握唯物辩证法的根本方法,不断增强辩证思维能力,提高驾驭复杂局面、处理复杂问题的本领。”材料一和材料二对人工智能的分析,对我们“驾驭复杂局面、处理复杂问题”有哪些启示?请结合材料谈谈你的看法。

答:

(参考答案见下期中缝)

经典小说推荐

杂志订阅

友情链接