开源情报(OSINT)曾经是一种思维游戏。现在它正在变成一种信任游戏,这应该让你感到恐惧。
我亲眼目睹了这一过程,分析师们进行着扎实的调查,然后逐渐将越来越多的思维工作转移到生成式人工智能(GenAI)工具上。起初,这只是一些小事。你使用ChatGPT来总结一份文件或翻译一篇外文帖子。然后它帮助起草你的报告。然后是生成线索。最终,你不再像以前那样批判性地思考。你验证得更少,质疑得更少,依赖得更多。
我们告诉自己,我们在“更聪明地工作”。但在某个时刻,我们不再注意到有多少实际的思维被转移了。
这并不是对人工智能的抱怨。我每天都在使用它,ChatGPT、Copilot、Claude、Gemini。它们像其他人的工作流程一样融入我的工作流程。但技能正在流失。分析师们跳过了困难的部分。他们相信生成式人工智能来完成繁重的认知工作,这正在改变我们的基础操作方式。
当开源情报变得太容易、太高效、太舒适时……你应该担心。技能不仅仅是关于速度,它还关乎判断力。而判断力不会来自一个语言模型。如果我们继续沿着这条道路走下去,而不进行反击,不积极地保留定义我们职业的关键习惯,我们冒着成为自动化操作员而不是调查员的风险。
这个博客是一个警钟。对我自己而言。对任何从事开源情报工作的人。对教授它的人,以及刚开始学习的人。如果我们不重新夺回这种游戏的思维部分,我们将完全失去这个游戏。
应该让你警醒的研究
他们的发现是一个警告信号。
研究揭示了一个明确的模式:用户对人工智能的信任度越高,他们的批判性思维就越少。相比之下,对自己越有信心的人,他们就越有可能质疑输出结果,验证信息,并深入思考任务。
好好想想:对生成式人工智能的信任取代了对自己的信心,随之而来的,思维就消失了。
这里的关键点是:
对生成式人工智能的高度信任始终导致批判性思维的减少和认知努力的全面减少。
参与者并不懒惰。他们是经验丰富的专业人士。但当工具迅速、自信、清晰地响应时,他们停止了困难的部分。他们停止了质疑。停止了验证。停止了应用将自动化与调查区分开来的心理摩擦。
可怕的是,许多用户仍然相信他们在批判性思考,因为生成式人工智能让他们觉得自己很聪明。
研究人员看到了一种新行为的出现:
- 他们不再形成假设,而是向人工智能寻求想法。
- 他们不再验证来源,而是假设人工智能已经这样做了。
- 他们不再评估多种观点,而是整合和编辑人工智能的摘要,然后继续下一步。
这不是假设。这正在现在的真实工作流程中发生。如果你从事开源情报工作,你知道这有多危险。
在我们的工作中,你不能负担虚假的信心。你不能负担幻觉般的来源、错误翻译的帖子或被操纵的摘要。但你对生成式人工智能的信任越多,没有摩擦、没有怀疑,你就越有可能面临这些风险。
这项研究并没有直接关注开源情报。但它不需要。这些发现在这里比其他任何地方都更让人警醒。因为如果我们在这个领域失去了批判性思维,我们不仅失去了准确性,还失去了完整性。
这对开源情报意味着什么
在开源情报中,我们处理的是碎片。没有什么是整齐地交给我们的。我们从混乱中构建背景:推文、照片、论坛、泄露、元数据、卫星图像、死链接、奇怪的文件名。每个优秀的分析师都知道,工作不仅仅是收集数据。而是用数据思考。
这就是风险所在。
李等人的研究虽然不是专门针对开源情报的,但它描述的正是全球开源情报商店、政府团队、威胁情报单位和开源社区正在发生的事情。从思维到提示的逐渐转变,从分析师到编辑的转变。让我们现实一点。
受生成式人工智能懈怠影响的真实开源情报场景
场景1:图像验证
你将一张抗议照片上传到像Gemini这样的工具,并询问:“这是在哪里拍摄的?”它给出了一个令人信服的回答:“巴黎,靠近共和国广场。”听起来很对。你继续下一步。
但一个训练有素的人会注意到标志是比利时的。车牌不对。建筑风格不匹配。你信任了人工智能,结果把位置弄错了国家。
场景2:人物档案
你使用Claude来总结一个人的在线存在。它生成了一个干净的叙述:活动家、技术工作者、无害。但它完全遗漏了这个人与极右翼论坛的联系,因为模型没有显示边缘平台。你从未检查过。那个人最终在一个敏感的公共活动中发言。
场景3:虚假信息活动检测
你将一系列Telegram消息输入ChatGPT并要求“总结和模式”。它标记了一些关键词,但错过了指向已知俄罗斯影响细胞的微妙语言转变,只有通过比较不同来源的措辞,训练有素的人才会注意到。但你已经停止阅读原始内容。你信任了摘要。
这些不是边缘案例。这些是现代开源情报工作流程中每天可能发生的失败。
而关键在于:在每种情况下,分析师的失败并不是因为恶意或懒惰。他们失败是因为工具刚好足够可信,刚好足够危险地出错。
人工智能不会破坏开源情报。但未经质疑的人工智能会。
当分析师变得依赖输出而不是构建自己的推理时,他们失去了使开源情报强大的能力:解释、审问和转向的能力。你不能从一个幻觉的答案中转向。你不能调查一个你太快相信的谎言。
生成式人工智能不理解背景、风险、地缘政治的细微差别,或不良行为者如何使用语言来隐藏意图。它不知道何时该怀疑自己。这是你的工作,而太多人正在忘记这一点。
技能的逐渐消亡
技能不仅仅是工具的列表。它是一种思维方式。它是在感觉不对劲时再次查看的习惯。它是验证元数据、交叉检查时间戳、发现与标题语言不匹配的路标。它是质疑显而易见的本能。
而这种本能正在悄然消亡。
不是因为分析师变得懒惰,而是因为人工智能让工作感觉比实际更容易。你仍然在工作。你仍然在点击。但心理摩擦已经消失了。
这种摩擦曾经是技能的所在地。
让我们坦率地面对正在发生的事情:
当时与现在:开源情报分析师曾经做过的事情
当时:
- 看到一张模糊的图片,用三个工具打开,放大,旋转,寻找EXIF,裁剪地标,进行五次反向搜索。
- 阅读一篇蹩脚的俄语社交媒体帖子,手动翻译,检查俚语,查找相关标签,并验证账户的活动历史。
- 通过WHOIS追踪域名,查看子域名,搜索重复使用的基础设施,并映射出连接的电子邮件地址。
现在:
- 将图片粘贴到人工智能工具中,阅读建议的位置,然后继续下一步。
- 将一个帖子输入ChatGPT进行总结。
- 询问Gemini,“谁运营这个域名?”然后接受头条答案。
这不是关于怀旧,而是关于认识到一种危险的行为转变。我们越是“信任工具”,我们就越少培养使工具变得有用的技能。我们正在自动化我们的优势。
而且生成式人工智能不仅快速,而且有说服力。它自信地写作。它填补空白。它毫不犹豫,这创造了一种准确性的危险幻觉。分析师正在基于语言模型的信心而不是证据做出决定。这正在慢慢、默默地发生。就像腐烂一样。
当技能变得被动时,什么会消失?
- 上下文推理:即使它“看起来正确”,也要发现不对劲的地方。
- 跨来源验证:用至少两个或三个不相关的来源确认一个事实。
- 假设检验:构建并打破对你所看到的可能解释。
- 不愿将就:即使人工智能给了你一个看似合理的答案,也要继续挖掘的本能。
没有这些,开源情报就变成了一个带有闪亮用户界面的自动化猜测。
不要搞错,不良行为者知道这一点。他们会测试你的工具。向它们提供有毒内容。利用人工智能重复、简化和幻觉的倾向。如果你的整个工作流程建立在对机器的信任上,你正在走进一个陷阱。
技能是缓慢的。技能是不舒服的。技能是让你的工作准确、可辩护和值得信赖的原因。没有它,你只是一个输入提示并希望找到真相的人。
分析师的新角色:人工智能监督者,而不是人工智能信徒
这是事实:生成式人工智能已经到来,它不会消失。对于开源情报来说,它不是敌人。但如果你不把它当作一个风险来对待,它就是一个风险。
分析师的工作已经改变了。或者更确切地说,它需要改变。
你不再只是一个研究人员、数据挖掘者、模式发现者。
你现在是一个人工智能监督者。一个挑战者。一个验证者。一个过滤器。
如果你把ChatGPT、Claude、Gemini或Copilot当作可靠的助手对待,它们最终会让你出错,因为它们不是助手。它们是高速、高信心的内容引擎,没有实际经验,也没有后果意识。你的角色是确保它们不会逃脱。
分析师的心态必须如何转变:
旧角色 | 新角色 |
向人工智能提问 | 审问人工智能的答案 |
接受摘要 | 解剖摘要 |
使用建议 | 拆解建议 |
信任干净的答案 | 追溯肮脏的起源 |
生成档案 | 验证叙述 |
起草并发送 | 起草、拆解并重建 |
你不是为了对模型所说的印象深刻。你在那里是为了打破它、测试它,并决定什么能够存活下来。这意味着:
- 通过手动开源情报方法验证人工智能的主张
- 事实核查它没有引用的内容
- 将人工智能输出与现实世界来源的行为进行比较
- 询问“它没有告诉我什么?”
人工智能工具应该引发怀疑,而不是满足。每当答案看起来太干净、太简单、太符合你的偏见时,你应该感到那种开源情报的本能:“等等……证明它。”
你不会仅仅因为一个证人在调查中说话自信就盲目地信任他。也不要信任模型。这不是关于反人工智能。这是关于保持认知主权。因为当你让模型为你思考时,你就不再是一个调查员,你变成了一个操作员。
在人工智能时代复兴批判性思维
如果批判性思维正在消亡,这并不是因为我们不在意,而是因为我们停止了练习。好消息是?你可以夺回它。但这不会偶然发生。它需要有意为之。
以下是开源情报从业者如何在生成式人工智能世界中保持敏锐:
故意引入摩擦
生成式人工智能是快速的。这就是陷阱。
在信任它给你的任何东西之前,你需要放慢自己(故意地)。
策略:
- 暂停并问:如果没有人工智能,我会检查什么来源?无论如何都要去检查。
- 要求自己在接受人工智能的输出之前找到一个矛盾之处。
- 使用第二个模型(Claude、Gemini等)并强制产生矛盾:“给我一个相反的解释。”
重建你的来源纪律
生成式人工智能不像开源情报分析师那样引用。所以不要让它训练你变得懒惰。
策略:
- 如果一个模型给你一个名字、引用、链接或主张,不要只是谷歌搜索它。追踪它。
- 保持一个并排日志:人工智能输出与已验证来源。差距在哪里?
- 当使用摘要时,无论如何都要打开原始材料。
将人工智能作为思考伙伴,而不是神谕
将生成式人工智能视为初级分析师:有不错的想法,但需要监督。
策略:
- 让它反对你当前的假设进行论证。
- 将你的工作笔记输入其中并询问:“缺少了什么?我在做什么假设?”
- 使用它来模拟视角,而不是定义现实。
跨模型审问
不同的模型有不同的盲点。利用这一点。
策略:
- 在ChatGPT、Claude、Gemini和Copilot上询问相同的问题。比较输出结果。
- 注意矛盾之处。调查为什么它们不同。
- 将分歧视为信号,而不是噪音。
强制失败
如果你不积极地试图打破模型,你就没有批判性地使用它。
策略:
- 故意向它输入误导性的提示,并观察它会幻觉出什么。
- 跟踪它在模糊性、矛盾或不完整数据下的行为。
- 了解它的失败模式,并建立你的技能来填补空白。
继续做困难的事情
工具应该加快你的速度,但它们永远不应该取代困难的部分。
策略:
- 在用人工智能检查之前手动进行地理定位。
- 在阅读人工智能的摘要之前自己写摘要。
- 先自己建立档案,然后让人工智能挑战它。
安静的崩溃以及我们如何对抗它
开源情报中批判性思维的衰落不会以爆炸性的方式到来。它会悄悄地到来。它会看起来像更快的报告。更干净的叙述。更少的问题被问到。它会感觉高效。它会看起来像进步。
直到它不是。
直到你错过了真实的位置。信任了错误的来源。假设了错误的意图。错误地归因了行为者。到那时,你的技能不会拯救你,因为你没有练习它。
这就是它开始的方式。它开始于信任摘要。接受你没有检查的引用。用听起来像判断的东西取代你的判断。崩溃不会明显。它会感觉方便。这就是它如此危险的原因。但这是关键部分:它是可逆的。
你不需要抛弃生成式人工智能。你需要面对它。挑战它。打破它。质疑它。使用它,但永远不要不加质疑地信任它。你不仅仅是一个工具的用户。你是一个调查员。
你批判性地思考。你追踪证据。你挑战假设。这就是你的工作。
不要让机器为你思考。
附加:OSINT 反过度依赖检查清单
将此清单放在屏幕旁边。在生成式人工智能(GenAI)进入你的工作流程时使用。
✅ 是否验证了 AI 输出的原始来源(区分 OSINT 和 AI)?
✅ 是否在接受答案之前咨询了非 AI 来源?
✅ 是否用反向假设或替代模型对输出进行了挑战?
✅ 是否在至少两个由人类整理的来源中交叉核对了数据?
✅ 是否在接受 AI 版本之前手动完成了一项任务?
✅ 是否识别了 AI 输出中未明确说明的假设?
✅ 是否将 GenAI 视为思维伙伴,而非真理来源?
✅ 是否有意在过程中引入摩擦(放慢速度、比较、双重检查)?
✅ 是否停下来问自己:我在未经验证的情况下信任了什么?
✅ 是否与 OSINT 产品的读者分享/引用了我们如何使用 AI?
原文链接:https://www.dutchosintguy.com/post/the-slow-collapse-of-criti...
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。