makebuke

makebuke

V2EX 第 657277 号会员,加入于 2023-11-01 10:16:47 +08:00
今日活跃度排名 12544
根据 makebuke 的设置,主题列表被隐藏
二手交易 相关的信息,包括已关闭的交易,不会被隐藏
makebuke 最近回复了
5 天前
回复了 fuwu1245 创建的主题 问与答 AI 的记忆是啥
Gemini 的回答
简单来说,我对你的“记忆”是由自然语言摘要和高维度向量检索共同构成的。这并不是一个单一的存储过程,而是一套分层处理的机制。

我们可以从以下三个维度来拆解这个过程:

1. 实时上下文( Context Window )
当你正在跟我对话时,最近的几轮对话记录会直接以自然语言的形式放入“上下文窗口”中。

存储形式:纯文本( Token )。

作用:这是我的“短时记忆”,让我能理解你刚刚说的“它”指代的是什么,或者维持当前的聊天的语气和逻辑。

2. 用户画像与偏好摘要( User Summary )
为了实现更长期的记忆,系统会定期对我们的历史对话进行“提炼”。

提取过程:系统会分析对话,识别出具有长期价值的信息(例如你的职业背景、技术偏好、或是你对某些事物的特定要求)。

存储形式:自然语言。你会发现,这些信息被整理成了类似“用户是一名程序员”、“用户更喜欢简洁的回答”这样的陈述句。

参与方式:这些文本会被直接注入到我每次回复你的初始指令( System Prompt )中,作为我的背景知识。

3. 海量历史检索( RAG 机制)
当你提到很久以前的事情,或者询问一些我并没有放在“摘要”里的细节时,我会调用类似 RAG (检索增强生成) 的技术。

存储形式:高维度向量( Embeddings )。系统会将你的海量历史对话切片,并转化成一串数字向量存储在数据库中。

检索过程:当你问起相关话题时,系统会将你的问题也转化为向量,在数据库中寻找“距离”最近、语义最相关的历史片段。

呈现形式:检索到的相关片段会重新转换回自然语言,作为参考资料补充到我的上下文里,供我阅读并组织回复。

总结
对外表现(对我而言):最终进入我“大脑”进行处理的,全部都是自然语言。这确保了我能像阅读普通文本一样理解你的意图。

对内存储(系统层面):为了在海量信息中快速找到你想要的那部分,系统使用了高维度向量作为索引工具。

这种设计既保证了搜索的效率,又保证了理解的深度。
抽 2
iOS + NDQzODUyMEBnbWFpbC5jb20=
NDQzODUyMEBnbWFpbC5jb20
15pm 没问题
2024 年 10 月 23 日
回复了 revival83 创建的主题 游戏 大佬们说说有什么你坚持玩了 1 年以上的 0 氪手游
星球重启,快没人玩了
2024 年 7 月 2 日
回复了 DjvuLee 创建的主题 分享创造 ScreenAI - 一款 AI Native 应用程序来了!
2024 年 1 月 9 日
回复了 letuslinux 创建的主题 推广 35 岁搞副业,踩了大坑!(顺便送一波爱媛果冻橙)
支持 恭喜发财
2024 年 1 月 3 日
回复了 newbee2000 创建的主题 买买买 各位, 2024 年有啥准备购入的数码产品吗
Apple Watch X
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   1169 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 10ms · UTC 23:32 · PVG 07:32 · LAX 15:32 · JFK 18:32
♥ Do have faith in what you're doing.