像用GPT一样使用开源大模型.

Key Takeaway

Full Content

在本地跑开源大模型,如果只是用来简单对话,那就没什么意思了。我们肯定是希望像用GPT一样,通过Python脚本,借助LangChain、Llama Index等框架、工具,对大模型进行增强和限制,比如:

OpenAI提供API接口,让这一切变得简单许多。其实通过LM Studio这类软件,也可以在开源大模型的使用上,达到同样的效果。

在上期视频中,我介绍了LM Studio的基本用法。

你可以把它简单理解为:就像国内的游戏模拟器平台,把模拟器、游戏库全都打包好了。不需要做复杂的调试,下载好了直接可以玩。

在此基础上,LM Studio还提供了进阶用法:

作为本地服务器,提供类似于OpenAI的API接口服务。

方法很简单:

  1. 加载量化版的大模型。
  2. 启动本地服务器。
  3. 获取本地服务器的端点,设置成config_list中的base_url

如果之前有基于GPT开发应用的话,看到这个代码应该会很亲切。

它基本上就是把调用OpenAI API的部分做个替换:

脚本其它部分都不需要变动。这意味着,之前的Python脚本都可以平移过来,给到开源大模型使用。

比如,使用微软的AutoGen配置Agent,对config_list做一些改动就行,照样导入llm_config。

不依赖云端算力,不用支付token费用,基于LM Studio和开源大模型,完全可以开发一套适合自己需求的本地解决方案,这是最吸引我的地方。