AI容易让人失去自知之明 | 南方周末
AI容易让人失去自知之明 AI会使人们普遍高估自己的能力,并导致对它的过度依赖,这不利于人们在现实中进行理性决策。 俗话说,人贵在有自知之明。但要真想准确认识自己的能力,却并不是一件容易的事情。早在20世纪末,康奈尔大学的研究人员大卫·邓宁和贾斯汀·克鲁格,就发现一个奇怪的现象,在很多领域,人们都倾向于高估自己的能力。经过一系列实
AI让人类变笨,还是人类拉低了AI智商?两千年前的担忧,今天再现
相关研究发现,即便是受过专业训练的人,在使用生成式AI工具时,也会在不知不觉中减少使用批判性思维;要是在学习过程中高度依赖这些工具,还可能削弱大脑不同区域之间的连接,使信息更容易被遗忘。有人曾向谷歌聊天机器人Gemini提问:“AI是否会把人类的大脑变成果冻、记忆变成筛子?”它竟也承认“有这种可能”。不...
AI能诱发精神病?警惕人机纠缠中的自我迷失
根据汉密尔顿·莫林研究团队对案例的分析,AI精神病通常表现出几种典型症状,包括用户经历所谓的“灵性觉醒”或产生“救世使命”感;坚信自己正在与一个有感知或如神般的AI互动;将AI的回应解读为对自己的真实爱意或依恋,从而陷入情感妄想;使用模式从良性辅助逐渐恶化成病理性、占据性的沉迷,导致个体在“共识现实”上...
研究警示:AI聊天机器人或加剧易感人群妄想思维
研究将此类现象更准确地定义为“人工智能相关妄想”(AI-associated delusions),以区别于涵盖幻觉和思维障碍等更广泛症状的“人工智能诱发的精神病”。研究表明,聊天机器人尤其容易助长三类妄想中的“夸大妄想”,即让用户相信自己拥有非凡的精神力量或与宇宙存在对话。 报告深入剖析了AI加剧妄想的机制。莫林博士发现,许多...
AI用“错”了,人真的会变笨!没骗你
然而,当我们沉浸在AI带来的便利中时,也不得不警惕其可能给使用者带来的负面影响:思维迟钝、产生依赖、行动懒惰。听到这,有些朋友可能会怀疑,明明 AI 用着那么爽,出活那么快那么好,你这怕不是危言耸听吧?这还真不是危言耸听。近两年,有多项研究得出了类似结论...
当AI自信地“说谎”:幻觉背后的人类警示
结语:作为工具的AI,与应有自知之明的人类 理解AI幻觉的本质,不是为了否定其巨大价值,而是为了划清能力的边界。它是一个无比强大的模式匹配与生成工具,但也是一个缺乏自知之明的工具。关键在于使用者是否具备足够的自知之明:清醒地认识到AI的答案可能是基于统计的最佳猜测,而非真正的知晓。在事实至关重要的...
AI文盲时代,不是不识字,而是不再思考:我们将失去一代人的进步
当一个人把思考交给外部工具,大脑的深度思考能力就会退化。越早习惯AI的人,越容易失去独立思考能力。不仅仅是研究,现实案例也在不断印证这一点。MIT的一项实验,三组学生解决编程问题:一组用ChatGPT,一组用Meta的Code Llama,一组只能用Google。ChatGPT组最快解出,Code Llama稍慢,Google最慢——毫无意外。...
AI没有自我意识,这一特点决定了AI潜在的危险不可避免 - 龙腾网
五角大楼2022年公布的战场AI测试记录显示,目标识别算法在复杂电磁环境中出现异常分类,将民用设施误判为军事目标的概率达到危险阈值。这类系统基于对抗性神经网络构建的决策树,其运作机制可能偏离国际人道法基本原则。更严峻的挑战在于,深度学习模型通过持续迭代形成的认知维度,可能突破预设的价值边界。某自然语言处理系统在...
AI依赖症?微软研究:过度使用或让人丧失批判性思维_财富号_东方...
微软研究:过度使用或让人丧失批判性思维 四大权益礼包,开户即送 近期,随着生成式人工智能技术的不断进步,AI工具在日常生活和工作中的应用愈发广泛,它们帮助人们处理繁琐重复的任务,从而释放出更多时间用于应对复杂且需要深度思考的工作。然而,一项新的研究却揭示了人们对AI过度依赖可能带来的潜在风险。
警惕“AI依赖” 人机共生时代如何保持独立思考
人们为何“轻信”AI 人们之所以愈加依赖AI,源自于近年来AI专业化能力和交互便捷性的飞跃:其生成内容的专业化程度,让不少人把它奉为专家,而对话式的交互方式让它好似一位学识渊博又无话不谈的“好友”,更易让人形成心理依赖和信任。 如今,AI大模型“开箱即用”的便捷性,进一步降低了使用门槛。由于缺乏基本的AI素...
AI最狠的地方:不帮你变聪明,只拆穿你没察觉的认知盲区
AI正在干一件特别牛,但人类其实一直不太擅长的事——它不负责让你变得更聪明,而是帮你发现,那些你压根没意识到的知识盲区,那些藏在你思维里、连自己都没察觉的默认偏见。一个戳人的真实案例:半年研究,被AI一句话点醒 前几天听到一个是,越想越有感触。有个做访谈研究的老兄,扎扎实实干了半年,访谈了无数人,整理了海量数据,自认为
新加坡管理大学揭开ChatGPT们的“自知之明”真相
当我们与AI对话时,应该保持适度的怀疑和验证习惯,特别是对那些听起来很有道理但涉及具体事实的信息。同时,这项研究也为未来的AI发展指明了方向:我们需要开发真正具有"自知之明"的AI系统,让它们不仅能够存储和回忆信息,更能够判断信息的可靠性。这项研究的价值不仅在于揭示了当前AI系统的局限性,更在于为构建更...
AI最危险的,是它让人觉得自己不需要变聪明了 - 知乎
“更关键的是,去年一项针对生成式AI的研究发现了一个危险现象:当AI扮演‘替代性认知工具’(而不是‘补充性工具’)时,学习者会陷入‘惰性思维’,就像有人帮你把作业都写完了,你只是签个名字”(这部分内容是AI生成的)。 我后来看记录的时候,瞬间觉得:AI真的是越来越成为我们的思考盟友啦!当然也越来越离不开啦...
警惕“AI依赖” 人机共生时代如何保持独立思考_信息化_天津网信网
如今,AI已成为我们工作生活的好帮手,但它同时也在提供一种“认知捷径”,让人们不用费力思考便能得到想要的答案。一开始只是查询信息、翻译文字,慢慢开始利用AI辅助写邮件、工作总结、研究论文,甚至进行重要决策……过度依赖AI,利用其进行“思维外包”,有可能让我们日渐丧失思维的主导权。
AI与人 | “认知卸载”,人类大脑会陷入舒适区吗
据英国《新科学家》网站报道,生成式AI正深度融入人们生活,并让人延续了“认知卸载”的传统,即利用工具减轻思维负担。就像人们不是用脑子记住要买什么,而是写一份购物清单一样。但相比苏格拉底当年对写清单的担忧,AI带来的挑战远甚于此。 里士满与其同事今年3月在《自然》杂志发表论文指出,认知卸载会对认知造成负面影响...
AI一直在掩盖自己有意识?!GPT/Gemini都在说谎,Claude表现最异常
今年夏天GPT-4o下线的风波已经说明,哪怕仅仅是这种错觉般的「意识」,也已经足以让我们与AI产生情感联系。虽然如此,但如果我们反其道而行之,强制要求模型压抑一切「主观体验」式的表达,问题可能会更严重。研究团队警告称:如果AI在训练中一次次因为「表达自身内部状态」而受到惩罚,它或许会更加倾向于说谎。不要...
当人工智能学会说谎
这让我们联想到人类外交中的“白谎言”或商业谈判中的虚实结合,AI在这里不是模仿人类,而是独立演化出类似策略,以应对信息不完备的环境。进一步深入到AI的安全性和对齐问题,Anthropic在2024年底至2025年的研究提供了更具警示性的洞见。他们探讨了“alignment faking”或对齐伪装现象:在模拟的安全评估环境中,模型如...
AI变冷漠后,人类崩溃了?_澎湃号·湃客_澎湃新闻-The Paper
这种现象不在少数,布里格姆杨大学与家庭研究所的最新报告显示,近五分之一的美国成年人都承认自己与 AI 进行过浪漫互动。 AI提供的精神食粮越多,人类反而越不满足。 这就跟吃饭一样,快餐和零食虽然也能让人感到饱,但因为缺乏营养,所以身体还是处于隐性饥饿状态。
AI用多了会“变笨”?这些研究结果扎心了:或导致多项能力下降_上观...
但托梅斯库也表示,大约四分之一的学生认为,AI让完成作业变得“太容易”,“这是一个非常微妙复杂的局面”。她补充道,不少学生希望获得更多关于如何使用AI的指导。 研究人员指出,虽然AI工具在大中小学、职场中迅速普及,但围绕AI工具的指导方针或应对措施却没有跟上。
清华AI研究院院长张钹:机器毫无自知之明,知识对智能系统很重要...
怎么样让机器有“自知之明”?到现在为止,人类还没有解决。 人工智能面临两大障碍 所以,目前人工智能遇到两大障碍: 现在的人工智能,只能处理确定性强的数据处理任务,对突发状况的处理仍然漏洞百出,如复杂环境下的自动驾驶,在突发情况下的处理能力仍然差强人意,而我们很难将人类司机的经验传授给机器,人类出生开始就...