
Claude Code简单的交互逻辑及提示词分析
首轮对话 当用户发送消息时,会有两个任务被处理: 用户发送消息的总结/摘要 对用户消息的处理(t
Teamo[agent]分析
参考的示例:https://teamo.floatmiracle.com/chat/d1232254-b3fc-4141-aa00-836450639760 请求回放的 json文件:teamo-example.json 步骤1(agent):需求分析
Agent的ReAct交互模式
论文地址:https://arxiv.org/abs/2210.03629 对应的 langchain prompt hub地址:https://smith.langchain.com/hub/langchain-ai/rea
agent会话中用户主动暂停消息的处理方案
背景: 在用户与 agent聊天的时候,用户可能主动暂停当前轮次的对话,然后重新向大模型发送消息。 用户暂停会话可能带来的风险:如果此时刚好 agent发送完工具调用的指令,工具未执行完成。那么在用户的下一轮对话时,因为未响应大模型的工具调用结果,可能导致大模型调用报错。
使用 claude api遇到的问题
## 背景 在使用 new-api 的转发服务时,报错: total_tokens = oai_token_usage.get("total_tokens", input_tokens + output_tokens) &n
一些开发中使用的 linux运维命令
查看目录下的文件或者文件夹大小 du -d 1 -h 杀死某些服务 # 通过服务名称 pkill -f flask-search # 杀死占用某个端口的服务 lsof -i :5000 | awk 'NR>1 {print $2}' | xargs kill -9 查看进程或者端口的信息 # 查看
python包管理神器:UV
目前 UV 因其优势,已被大量的python开源项目使用。简单整理了一些命令,不到 UV 功能的 1/5,更多功能慢慢探索。 个人使用感受: 在一个项目下,不同的文件夹可以有多个环境。方便学习或者测试不同的内容 25年版本的pycahrm已经支持uv管理环境 管理不同版本的python更加方便 安装
ollama-大模型的部署与使用
linux curl -fsSL https://ollama.com/install.sh | sh 因为安装过程有使用github相关资源,国内访问会有问题,需要加速。或者使用docker进行安装。各大云平台都有提供docker加速方法。 ollama的所有命令 Available Comman
为jupyter增加可选的python内核
在部分提供GPU资源的平台,进行使用的时候发现提供的jupyter的内核中,与命令行默认的外部的python环境不一致,且不能选择的情况。 以下是添加conda虚拟环境到jupyter中的方法 # 或者 source myenv/bin/activate conda activate myenv
Gemini 使用过程中的一些坑
使用限制 在使用 Gemini 的时候,谷歌限制了香港和大陆不能调用 API,可以考虑新加坡区域 转发服务 主要有 one-hub、One-api、new-api。在使用one-hub在One-api 的基础上进行了一些更新。(目前个人主力用的主要是one-hub) 出现的问题 1: 转发的时候发现