参考消息网7月28日报道美国《福布斯》杂志网站7月27日发表文章称,在某些方面,ChatGPT可能让我们变得更聪明;而在其他方面,我们或许已经出现了退化。以下是可能造成这种情况的6个原因。
(资料图)
1.对即时答案的依赖
既然现在可以即时获得答案,你为什么还要花费精力去思考呢?当然,我们一直都有谷歌。但有时候在谷歌搜索正确答案需要付出多一些努力。谷歌会给出一连串网页让你阅读并思考。但是从ChatGPT那儿你会得到一个答案,仅此而已。召唤信息从来没有这么快速,这可能会损害我们自己做事情的能力。
过度依赖是一种危险,同样还存在批判性思维和解题技能下降的危险。我们可以简单地跳过亲自研究和分析的过程。那么该怎样来应对?花更长时间去思考。用ChatGPT来证实你已经得出的结论,而不是让它代替你解题。用这种增强的能力去锦上添花,而不是省掉必需的思考。
2.记忆留存减少
现在,人们没有记东西的必要了。我们能够以比上谷歌搜索更快的速度得到答案。我们甚至不需要记住自己写过的东西。
不再需要记住那么多信息可能导致大脑存储信息的减少。为了提高效率,记忆细胞会减少,记忆留存会失效,认知能力会慢慢衰退。你自己测试一下:如果没有记忆留存,你将会怎样行事。
3.写作和沟通技巧的削弱
习惯使用自动化辅助可能让我们变得不那么擅长于有效地独自表达思想和想法。
如今值钱的技能不是出色的写作能力,而是出色的出题能力。出题工程师的年薪达到30万美元。你的题目出得越好,大语言模型就越能制造正确的输出。这会不会让我们智力退步是一个见仁见智的问题。这不过是我们脑力的不同用法而已。如今人们用了一种新颖的方式掌握书面交流的艺术。
4.对复杂题目的理解力不从心
尽管ChatGPT在简化复杂信息、生成琅琅上口的有趣语句和制作有条理的学习时间表方面表现出色,但它对待教育的轻佻态度可能意味着你对复杂题目的掌握远低于你的真实能力。
仅仅依靠ChatGPT进行学习可能损害深层次知识,并训练你逃避掌握复杂的题目,这样下来只剩下基本的大脑功能了。
5.传播虚假信息
经常求助于ChatGPT的危险之一是它的回答并不总是准确。语言模型根据它们训练时所使用数据中的规律生成答案。依赖它们可能导致你轻信那些完全不真实的东西。我们不再为了寻找真相而深入挖掘,而是对我们读到的内容信以为真。于是偏见和虚假信息大行其道,谣言不受控制地四处散布。
6.社交互动减少
通过ChatGPT进行的交谈和结成的友谊意味着面对面社交互动的减少以及与他人交往能力的削弱。这是一个值得考虑加以避免的风险。(编译/曹卫国)