Gemini 使用过程中的一些坑
使用限制 在使用 Gemini 的时候,谷歌限制了香港和大陆不能调用 API,可以考虑新加坡区域 转发服务 主要有 one-hub、One-api、new-api。在使用one-hub在One-api 的基础上进行了一些更新。(目前个人主力用的主要是one-hub) 出现的问题 1: 转发的时候发现
python中一些很好用的工具类模块
contextlib 此模块为 with 语句提供了一些工具,简化了 with的使用。 @contextlib.contextmanager 它将一个生成器函数转换为一个上下文管理器。而无需创建一个类或单独的 __enter__() 和 __e
常用的uml类图及其表示方法
介绍了常用的 7种类图
文本切分-语义分割(Semantic Chunking)
当我们使用固定长度的块大小或者一些标点符号分割文本时,其并没有考虑到块中内容的连贯性与完整性。我们可以借助 embedding 来来对文本中语义相近的句子进行聚类。 可以考虑的方法包括: 层次聚类与位置奖励:如果只使用层次聚类 (逐个的将所有句子进行聚类),当一个长句之后存在一个短句时,会存在一些问
dify 并发 及配置优化
以 docker compose 部署为例,以下是一些常用的参数优化(修改后注意观察服务器负载): 数据库连接数 当把工作流发布为工具,进行并发调用时,容易导致数据库连接失败。 # 配置文件路径:docker/.env # 每个 dify服务进程的数据库链接池数量 SQLALCHEMY_POOL_S
Typing
类型注释让python 有了更好的编辑器提示功能。 基础使用 对函数参数和返回值,进行类型注释 def surface_area_of_cube(edge_length: float) -> str: return f"The surface area of the cube is {6 *
大模型返回中json_schema与json_mode的区别
大模型返回json数据结构常用的方法有: json_schema:一种更适合大模型用的json返回格式 json_mode:openai最开始的json返回格式 function call:通过调用函数的形式,让大模型返回json 提示词 + 输出示例:纯提示词,如果模型能力较弱,可能会输出
Async
协程可以使用更少的资源实现“并发”的效果。 在开发过程中要注意协程只有在遇到await才会被切换,因此在web开发中如果出现会阻塞的代码(消耗时间的同步代码或者cpu密集型代码块)需要将其添加到其他进程或者线程,才能避免阻塞主其他的请求。 ps:与go相比,GIL锁的存在,在单线程中启动python
大模型应用开发相关包/工具
Prompt langchain提供:https://smith.langchain.com/hub/ MCP MCP中文文档:https://mcp-docs.cn/introduction Agent smolagents:一个可以通过写代码来进行agent行为的agent RAG<
deep-searcher 、deep-research对比
阅读了两个项目的源码deep-searcher 、deep-research deep-searcher,git地址:https://github.com/zilliztech/deep-searcher deep-research,git地址: