近期,AI领域的热门话题之一是DeepSeek,许多公司纷纷加入DeepSeek的赛道,以将自家产品与DeepSeek对接为荣。
为什么DeepSeek会引发“全民狂欢”呢?原因可以用一句话概括:信息平权。
当前,各种工具都在接入DeepSeek或其他AI大模型,至少在公开信息层面,大家站在了同一起跑线上。但通过AI获取的信息也存在各种问题。
首先,网络上的信息本身就可能存在误差或虚构。AI或DeepSeek的作用是帮助检索和整合信息,这对信息检索效率的提升巨大,但AI提供的信息不一定是真实或有用的。
过去,我们获取信息要么通过书本,要么通过浏览器搜索,然后自己加工整理,判断信息的真实性和是否采用。这里的关键是,判断信息的真实性和是否采用的决定权依然在个人手中。
然而,现在许多人过于信任AI的结果,长期来看,这会削弱人们对信息的敏感性和识别能力,进而影响认知和独立思考能力。
这种情况就是AI大模型在当前阶段面临的主要挑战:信息幻觉。
如何理解信息幻觉呢?
大模型本质上是一个概率预测机器,不断预测下一个Token,且每个生成的Token都会影响下一个Token的生成。
简而言之,同样的Prompt(提示词)会产生不同的答案,这就是信息幻觉问题。换句话说,针对同一个或同一组Prompt,大模型的结果不具备幂等性。
目前,缓解(或解决)信息幻觉的技术方法只有RAG。
RAG(Retrieval-Augmented Generation),即检索增强生成。简单来说,就是结合向量数据库中与用户问题高度相关的信息,并将用户的Prompt(提示词)一起输入给大模型,再生成结果。
将RAG解决信息幻觉的过程拆解为理解-检索-生成。
“理解”就是拆解用户提问,充分理解用户需求。“检索”是从网络/数据库等渠道找到合适的信息,进行排序优化,并将搜索到的信息统一处理,输入给大模型。“生成”阶段综合不同信息来源做出判断,并基于大模型的逻辑推理能力,解决信息冲突等问题,最后生成准确率较高的答案。
然而,即便经过如此缜密和富有逻辑的处理,AI给出的结果依然不具备百分百的置信度。
个体如何面对信息幻觉的挑战,我的思考如下:
如果你完全相信AI给出的信息,你很快就会陷入信息幻觉。如果你不敢轻易相信AI给出的信息,那就需要自己去分析判断,这个过程其实就是一个手动检索数据+人工逻辑确认的过程。
DeepSeek的作用是提高我们信息检索过程的效率(当然,需要明确的步骤和具体的要求),借助它的深度推理功能,可以帮你分析出可能被忽略的推理逻辑,提供更多的方法参考。
由此可以得出一个简单的结论:明确的需求、合理的提示词是必要的。
对此,DeepSeek官方也提供了专门的官方提示库。
当然,AI时代的信息平权也暴露了一个残酷的事实:许多人可能连自己的需求都想不清楚,更不用说清晰明确地表达给AI了。
如何跳出这个困境?回到最原始的方法:读万卷书,行万里路,阅人历事。
以上就是警惕DeepSeek带来的AI信息幻觉的详细内容,更多请关注楠楠科技社其它相关文章!