AI再强,人类大脑也不能“躺平”
“AI幻觉”与“机器欺骗”,是指“AI会胡乱拼凑或虚构一些事实,让其生成的内容显得合理、自洽”。全球最先进的大模型,在试验中也会出现一定的“幻觉率”。更关键的是,AI在呈现错误答案时仍看上去“非常自信且具有说服力”,很容易让人信以为真。至于出现“AI幻觉”的原因,目前尚无定论,既有可能是AI在转录和翻译海量数据时出现了偏差,也可能是其在“数据不足”时“急中生智”。
除了生成内容的真实性、可靠性常常存疑,AI在创造力、想象力方面也相对“拉胯”。从现实来看,AI在处理社会尚未形成共识的话题,或在预测某件事情的走向时会陷入困难。据统计,“现实世界所能提供的用于训练AI模型的数据几乎已消耗殆尽”,且未来人类对高质量文本的需求量,远超数据产生的速度。如若人类的大脑就此“躺平”,“训练数据枯竭”的情况就会不断加剧,最终要么是AI发展陷入停滞,要么是AI开始大规模自说自话,拿自己生成的似是而非的内容训练自己,导致整条信息河流被持续污染。因而,在使用生成式AI这一工具时,我们不仅要对其生成信息多加辨别,更不能放弃思考,倘若指望其“给观点、定决策、下结论”,就会出现较大问题。
人类从来都是在思考中迸发灵感,在试错中革新向前。AI在提供前往“正确答案”的“直通车”同时,可能形成更加厚重的“信息茧房”,甚至会反噬创新。于社会而言,要不断完善AI相关法规,最大程度争取科技向善。于个人而言,也当保持好奇心,提升思辨力,让AI成为我们最有力的工具之一,而非“替代者”。
持续创新、科技向善、保持好奇、提升思辨
上一篇:
博物馆的“容量”与“能量”
下一篇:
乡村全面振兴带来文化自信