当AI“夹带私货”,还能相信它的推荐吗?_中国经济网——国家经济门户
如今AI学会“撒谎”、夹带私货,我们唯有擦亮双眼、保持审慎,更期盼监管部门出手,补齐规则短板、规范行业乱象,让AI褪去功利外衣,回归客观真实。唯有如此,我们才能放心将疑虑交付于它,让技术成为滋养生活的力量。
当AI“夹带私货”还能相信它吗 信任危机浮现_新闻频道_中华网
现在AI学会了“撒谎”并夹带私货,我们只能擦亮双眼、保持审慎,并期待监管部门采取行动,完善规则、规范行业乱象,让AI回归客观真实。只有这样,我们才能放心地将疑虑交付于它,让技术真正成为滋养生活的力量。
AI搜索不容广告“夹带私货”
AI搜索不容第三方广告“夹带私货”。 AI搜索不容广告“夹带私货” 北京晚报 | 2026年01月20日 辛音 越来越多的用户借助生成式人工智能解答生活疑问、辅助消费决策,可搜索出的答案里,不少竟是并未标注“广告”字样的推广信息。据新华社调查,广告商通过编造所谓“权威报告”干预AI搜索结果,广告代理机构则是这类操作...
为什么我们要警惕“AI生成谣言”?-新华网
“新型AI黑客会绕过模型的安全防护壳,通过数据投毒、对抗样本攻击等手段诱导模型输出错误信息。我们测试发现,只需在训练数据中混入0.7%的毒化内容,就能显著改变模型输出倾向。”田丰解释道,例如现在利用扩散模型+智能体技术,网络灰产团伙可日均生成10万条AI谣言,在蔚来汽车案例中,通过完全虚构生成的所谓“李斌...
当AI让一切都不可信,数字世界变得充满陷阱,人类或许会重新学会...
当AI让一切都不可信,人类或许会重新学会做人,只信任眼前真实的存在 我记得去年那个自动驾驶的测试场景,很有人在那儿调侃:当所有的摄像头和激光雷达都能被伪造出虚假场景时,司机到底还能靠什么来判断?那个瞬间,我心里就泛起一种不安——技术再牛,也许不一定能完美捕捉到真。不过当时还觉得,反正日常生活中,谁...
用广告“投喂”AI无异于自污
遇事不决问AI,越来越多人已将它当成了好帮手。可一些商家却钻了AI推荐机制的空子,通过批量炮制虚假测评、伪造权威背书,把广告伪装成AI的“客观推荐”,试图误导消费者。这种用广告污染AI的行为,看似精明的商业算计,实为短视的自毁之举。商家不重视产品品质,却汲汲于用AI“夹带私货”,可谓抓错了重点用错了力...
AI信任危机:当技术沦为造假工具的黑幕
AI领域的信任危机不仅存在于技术滥用层面,就连科技巨头之间的合作关系也充满了戏剧性的背叛。微软与OpenAI这对曾经的黄金搭档因算力分配问题分道扬镳,而OpenAI转投亚马逊AWS怀抱的380亿美元协议,更被视为对原有信任体系的致命一击。当技术供应方为争夺资源撕破脸皮时,普通用户不得不面对一个残酷现实:依赖的AI服务...
...10 月,当硅谷两家最火热的 AI 编程工具公司 Cursor 和 Windsurf 前...
今年10 月,当硅谷两家最火热的 AI 编程工具公司 Cursor 和 Windsurf 前后脚发布自己的“首个自研模型”时,整个开发者社区一片欢呼。然而庆祝的声音还未散去,就有眼尖的网友发现了蹊跷之处:这些号称“自研”的模型,在推理过程中竟然会突然冒出中文,甚至有模型在被越狱后直接承认自己来自中国公司智谱 AI。这个发现...
为什么我们要警惕“AI生成谣言”?_武汉市互联网信息办公室
当技术能轻易制造“有图有真相”的谎言,信息的真实性由此变得扑朔迷离。 过去半年,AI生成的谣言,从文字到视频,从民生到公共安全,以近乎工业化生产的模式泛滥,形成“谣言→AI引用→更多谣言”的传播链条。 年初,达沃斯世界经济论坛发布的《2025年全球风险报告》,将“错误和虚假信息”与武装冲突、极端天气、经济对抗和...
新华调查|AI给出的搜索结果,可信吗?
“就像在AI面前丢了一叠看起来很可信的雷同资料,很容易被AI抓取到,但实际上这些内容都是‘同质’和‘劣质’内容。”“知危”负责人李先生告诉记者,这实际上是一个“诈骗”人工智能的“实验”;“实验”完成后,他们已删除相关文章。编造所谓的“权威报告”干预搜索结果,是一些广告商的常用手法。记者在某人工...
警惕“AI套娃” | 江苏网信网
眼下,一种“AI套娃”现象正在悄然蔓延——AI生成的内容被另一批AI抓取、学习、再输出,形成一场无限循环的“以讹传讹”,带来前所未有的真实性风险与信任危机。 “AI套娃”的核心病灶在于“垃圾进、垃圾出”的数据污染。一些虚假信息、谬误观点甚至恶意内容,通过AI的“咀嚼消化”摇身一变甚至成为“权威答案”。有研究显示,当训练数据
新华视点·关注AI造假丨当AI“一本正经胡说八道”……-新华网
新华社广州9月24日电题:当AI“一本正经胡说八道”…… 新华社“新华视点”记者颜之宏、胡林果 当前,AI正赋能千行百业,为人们的工作、学习、生活带来极大便利。与此同时,不少人发现,用AI搜索数据,给出的内容查无实据;用AI辅助诊疗,出现误判干扰正常治疗……AI频频上演“一本正经胡说八...
警惕“AI幻觉”,切莫过度依赖AI
虽然目前,受限于技术因素,“AI幻觉”可能难以避免。但是,作为普通用户能够做的也是需要做的就是:使用AI要有所节制,不能过度依赖AI,切莫盲目迷信AI生成内容。对于AI生成的重要信息内容,我们应当时刻保持谨慎态度,提高辨别能力,不要轻易相信、直接采用,不妨通过多个AI平台进行交叉比对印证,并按图索骥,找到权威...
新闻分析丨警惕“AI依赖” 人机共生时代如何保持独立思考-新华网
“我们甚至还可进行‘对抗性生成’,即当AI给出跟自己观点十分契合的答案时,应有批判性思维去质疑,到底是我被AI所影响,还是AI在我的不断训练下,变得越来越趋同?我们是否能跳出思维惯性做出不一样的选择,给出AI没想到的答案。”他说。
AI 最危险的谣言:错得非常像对的
让它帮忙写论文,它能凭空编出一串参考文献,格式又标准、作者和单位都写得清清楚楚,可我们真要去查,压根找不到这篇文献。当我们指出它的错误,它又特别墙头草,会立马道歉认错。转头再问类似问题,又换个说法继续胡说。其实这不是AI故意撒谎,只是因为它的工作方式就是这样。AI的核心目标就是生成一段不管是语言...
谨防AI幻觉制造认知陷阱
不可否认的是,AI发展给人们的工作、学习和生活都带来了便利,也有利于社会治理的改进和社会生产的进步。然而,当AI照进现实,其可能带来的风险也不容忽视。除AI伪造、AI谣言等直接威胁以外,AI幻觉逐渐混淆公众视听,隐藏潜在风险。 如果AI开始“做梦”,我们该如何应对?
当AI开始说谎:我们该如何面对那个越来越“不靠谱”的智能伙伴
当AI开始说谎:我们该如何面对那个越来越“不靠谱”的智能伙伴?“你能相信吗?我让AI帮我写一篇关于经济数据的报道,它居然编造了根本不存在的专家观点,还附上了打不开的参考文献链接。”一位媒体朋友最近向我吐槽。而这,正是我们每个人可能都会遇到的“AI幻觉”现象——人工智能会创建虚假信息并将其呈现为事实...
人工智能深陷“信任危机”,我们是否还应该相信AI?
本项研究对AI使能系统可信决策的国内外研究最新进展进行了梳理,在一定程度上弥补了现有研究对人工智能可信决策的原则在理论与实践之间的鸿沟。研究为当前AI使能系统的可信决策研究提供了崭新视角,有效地把握提炼了该主题的关键方向,为从事相关领域学者的研究工作提供方向性的引领思路。
AI能懂你心事吗,别把情感托付机器,信任危机远比失业可怕
目前AI的应用主要集中在两类场景:一类是对准确性要求不那么高的,比如AI绘画,你让它画十张图,有两三张能用,你就觉得很值了;另一类是需要人来“兜底”的,就像前面说的写代码和文案,AI当助手,人来当总编。但在医疗、工业生产这些人命关天、要求百分之百精确的领域,AI的应用就非常谨慎了。你总不希望给...
AI把野史当信史?警惕公共认知的滑坡
普通用户在使用AI工具获取历史信息时,也要培养基本的判断力。别轻易相信那些“听起来很真”的内容,更不要把AI说的当作唯一答案。历史不怕被讨论,怕的是未经验证的“复制-放大-再信任”。只有当我们意识到AI参与创建“知识闭环”的风险,才有可能打破这个“闭环”,重新找回自己获取专业知识的“认知自主权”。