为什么要大模型连接外部世界?
大模型两大缺陷:
- 并非知晓一切
a. 训练数据不可能什么都有。垂直、非公开数据必有欠缺
b. 不知道最新信息。大模型的训练周期很长,且更新一次耗资巨大,还有越训越傻的风险。所以 ta 不可能实时训练。
ⅰ. GPT-3.5 知识截至 2021 年 9 月
ⅱ. GPT-4-turbo 知识截至 2023 年 12 月
ⅲ. GPT-4o 知识截至 2023 年 10 月 - 没有「真逻辑」。它表现出的逻辑、推理,是训练文本的统计规律,而不是真正的逻辑,所以有幻觉。
所以:大模型需要连接真实世界,并对接真逻辑系统执行确定性任务。
ChatGPT 用 Actions 连接外部世界
划重点:
- 通过 Actions 的 schema,GPT 能读懂各个 API 能做什么、怎么调用(相当于人读 API 文档)
- 拿到 prompt,GPT 分析出是否要调用 API 才能解决问题(相当于人读需求)
- 如果要调用 API,生成调用参数(相当于人编写调用代码)
- ChatGPT(注意,不是 GPT)调用 API(相当于人运行程序)
- API 返回结果,GPT 读懂结果,整合到回答中(相当于人整理结果,输出结论)
把 AI 当人看!
Function Calling 的机制
原理和 Actions 一样,只是使用方式有区别。
Function Calling 完整的官方接口文档:
https://platform.openai.com/docs/guides/function-calling
划重点:
- Function Calling 中的函数与参数的描述也是一种 Prompt
- 这种 Prompt 也需要调优,否则会影响函数的召回、参数的准确性,甚至让 GPT 产生幻觉
- 函数声明是消耗 token 的。要在功能覆盖、省钱、节约上下文窗口之间找到最佳平衡
- Function Calling 不仅可以调用读函数,也能调用写函数。但官方强烈建议,在写之前,一定要有真人做确认
1 | from math import * |
更多练习
本地单函数调用
本地多Function 调用(根据name 识别调用不同函数)
通过 Function Calling 查询单数据库
用 Function Calling 实现多表查询(把多表的描述给进去就好了)
Stream 模式(流式(stream)输出不会一次返回完整 JSON 结构,所以需要拼接后再使用,拿到什么就输出什么可减少用户等待时间,调用时client.chat.completions.create设置stream=True即可