翼度科技»论坛 编程开发 .net 查看内容

从0开始入门智能知识库和星火大模型,打造AI客服。

2

主题

2

帖子

6

积分

新手上路

Rank: 1

积分
6
介绍FastWiki

FastWiki是一个高性能、基于最新技术栈的知识库系统,旨在为大规模信息检索和智能搜索提供解决方案。它采用微软Semantic Kernel进行深度学习和自然语言处理,在后端使用MasaFramework,前端采用MasaBlazor框架,实现了一个高效、易用、可扩展的智能向量搜索平台。其目标是帮助用户快速准确地获取所需信息,具有智能搜索、高性能、现代化前端、强大的后端等特点。除此之外,FastWiki是开源和社区驱动的项目,采用Apache-2.0许可证,鼓励开发者和企业使用和贡献。
部署FastWiki

下面部署FastWiki将使用docker-compose进行部署,如果不存在环境则先安装docker和docker-compose的环境,由于postgresql需要使用向量插件,自己打包向量插件会过于麻烦,所以FastWiki提供了一键docker-compose的文件,内部提供的postgresql自带了vector插件了,我们只需要执行脚本即可
部署One-Api

One-Api是干什么的:

  • One-Api用于AI的中转站,由于大部分的AI工具仅支持openai的api格式,但是国内的AI的接口格式五花八门,所以我们需要通过One-Api将国内的AI转换成openai的接口格式下面我们开始部署我们的One-Api
将下面的内容复制到一个docker-compose.yml文件中
  1. version: '3.8'
  2. services:
  3.   one-api:
  4.     image: justsong/one-api
  5.     container_name: one-api
  6.     restart: always
  7.     ports:
  8.       - "3000:3000"
  9.     environment:
  10.       - TZ=Asia/Shanghai
  11.     volumes:
  12.       - ./data/one-api:/data
复制代码
我们使用最轻量级的Sqlite版本,启动容器以后打开浏览器访问:http://localhost:3000/
登录系统,默认账号为 root,密码为 123456。

  • 添加渠道



  • 添加星火大模型的渠道



  • 获取星火大模型的密钥

  • 获取到密钥 安装APPID|APISecret|APIKey的格式填写到上面One-Api的密钥当中即可,

  • 创建One-Api的Token,设置无限额度,然后点击提交。



  • 点击复制key,然后将key修改下面的compose文件中的OPENAI_CHAT_TOKEN的环境变量的值,OPENAI_CHAT_ENDPOINT的地址则修改成fast-wiki-service能访问的地址,比如你局域网的ip加端口 OPENAI_CHAT_ENDPOINT=http://ip:端口 这样即可。



下载docker-compose.yml
  1. curl -o docker-compose.yml https://raw.githubusercontent.com/239573049/fast-wiki/master/docker-compose.yml
复制代码
然后打开下载的docker-compose.yml文件,知识库依赖了第三方服务所以不能直接运行,需要修改部分参数。
  1. version: '3.8'  # 可以根据需要使用不同的版本
  2. services:
  3.   fast-wiki-service:
  4.     image: registry.cn-shenzhen.aliyuncs.com/fast-wiki/fast-wiki-service
  5.     container_name: fast-wiki-service
  6.     user: root
  7.     restart: always
  8.     ports:
  9.       - "8080:8080"
  10.     build:
  11.       context: .
  12.       dockerfile: ./src/Service/FastWiki.Service/Dockerfile
  13.     volumes:
  14.       - ./wwwroot:/app/wwwroot/
  15.     environment:
  16.       - OPENAI_CHAT_ENDPOINT=https://api.openai.com
  17.       - OPENAI_CHAT_EMBEDDING_ENDPOINT=https://ai-api.token-ai.cn/
  18.       - OPENAI_CHAT_TOKEN={您的TokenKey}
  19.       - OPENAI_CHAT_MODEL=gpt-3.5-turbo
  20.       - OPENAI_EMBEDDING_MODEL=text-embedding-3-small
  21.       - ASPNETCORE_ENVIRONMENT=Development
  22.       - OPENAI_EMBEDDING_TOKEN=sk-CpKIlADEESeOdoXnF58e72A2C8Af4e0c8b52Eb6eE7116c7a
  23.   postgres: # 当前compose服务名
  24.     image: registry.cn-shenzhen.aliyuncs.com/fast-wiki/pgvector:v0.5.0 # 拉取的数据库镜像
  25.     container_name: postgres  # 容器运行的容器名称
  26.     restart: always  # 开机自启动
  27.     environment:  # 环境变量
  28.       POSTGRES_USER: token  # 默认账号
  29.       POSTGRES_PASSWORD: dd666666 # 默认密码
  30.       POSTGRES_DB: wiki # 默认数据库
  31.       TZ: Asia/Shanghai  # 数据库时区
  32.     volumes:
  33.       - ./postgresql:/var/lib/postgresql/data # 将PostgreSql数据持久化
  34.   fast-wiki-server:
  35.     image: registry.cn-shenzhen.aliyuncs.com/fast-wiki/fast-wiki-server
  36.     container_name: fast-wiki-server
  37.     restart: always
  38.     ports:
  39.       - "2180:8080"
  40.     build:
  41.       context: .
  42.       dockerfile: ./src/Web/FastWiki.Web.Server/Dockerfile
  43.     environment:
  44.       - FAST_WIKI_SERVICE=http://知识库api的ip:8080
  45.     volumes:
  46.       - ./model.json:/app/model.json
复制代码
FastWikiService环境变量参数:

  • QUANTIZE_MAX_TASK:量化任务的最大并发数,默认为3
  • OPENAI_CHAT_ENDPOINT:OpenAI API的地址
  • OPENAI_CHAT_EMBEDDING_ENDPOINT: Embedding API的地址
  • OPENAI_CHAT_TOKEN: OpenAI API的Token
  • OPENAI_CHAT_MODEL: 对话的模型,默认gpt-3.5-turbo
  • OPENAI_EMBEDDING_MODEL: Embedding的模型,默认text-embedding-3-small
  • OPENAI_EMBEDDING_TOKEN: Embedding的Token, 默认为空,为空则使用对话的Token
FastWiki.Web.Server环境变量参数:
请注意FAST_WIKI_SERVICE环境变量一定是得外网能访问到的地址,否则在回复知识库内容的时候会导致引用的文件出现404.
FastWiki为你提供了免费的向量Api,这个地址和token仅支持向量(并且对于ip进行限流)。
创建自定义模型的json以便支持国产模型,文件需要于docker-compose.yml同级:
model.json
  1. {
  2.   "ChatModel": [
  3.     {
  4.       "label": "gpt-3.5-turbo",
  5.       "value": "gpt-3.5-turbo"
  6.     },
  7.     {
  8.       "label": "gpt-4-0125-preview",
  9.       "value": "gpt-4-0125-preview"
  10.     },
  11.     {
  12.       "label": "gpt-4-1106-preview",
  13.       "value": "gpt-4-1106-preview"
  14.     },
  15.     {
  16.       "label": "gpt-4-1106-vision-preview",
  17.       "value": "gpt-4-1106-vision-preview"
  18.     },
  19.     {
  20.       "label": "gpt-4",
  21.       "value": "gpt-4"
  22.     },
  23.     {
  24.       "label": "gpt-4-32k",
  25.       "value": "gpt-4-32k"
  26.     },
  27.     {
  28.       "label": "gpt-3.5-turbo-0125",
  29.       "value": "gpt-3.5-turbo-0125"
  30.     },
  31.     {
  32.       "label": "SparkDesk-v3.5",
  33.       "value": "SparkDesk-v3.5"
  34.     }
  35.   ],
  36.   "EmbeddingModel": [
  37.     {
  38.       "label": "text-embedding-3-small",
  39.       "value": "text-embedding-3-small"
  40.     }
  41.   ]
  42. }
复制代码
SparkDesk-v3.5则是星火大模型。
上面文件创建好了以后执行,然后就可以访问http://localhost:2180/
  1. docker-compose up -d
复制代码
登录系统默认账号admin密码Aa123456



  • 点击知识库->创建知识库 点击添加。



  • 点击创建的知识库:



  • 点击导入文件

  • 拖动需要上传的.md/.pdf/.txt的文件到这里,然后点击下一步,一直到上传数据,



  • 上传数据,点击上传,上传完成关闭弹窗。



  • 数据上传以后服务会在后台进行量化,等待上传完成以后点击应用,然后创建应用



  • 创建应用,然后打开创建的应用
    1.

  • 绑定知识库,点击选择知识库然后点击需要绑定的知识库,在关闭弹窗,然后点击保存修改即可。

  • 修改电话基础模型,修改为添加的SparkDesk-v3.5然后点击保存修改即可



  • 打开聊天然后提问上传的文档的内容,这样就可以针对性规范AI了,还可以设置超出知识库返回的时候回复内容!

开源地址

Github: https://github.com/239573049/fast-wiki
Gitee: https://gitee.com/hejiale010426/fast-wiki
在线文档:https://docs.token-ai.cn/
体验地址:https://chat.token-ai.cn/chat/share-chat?id=939b3ad2f853422db0d781bcb19a8bf1
知识库微信交流群加:


来源:https://www.cnblogs.com/hejiale010426/p/18054498
免责声明:由于采集信息均来自互联网,如果侵犯了您的权益,请联系我们【E-Mail:cb@itdo.tech】 我们会及时删除侵权内容,谢谢合作!

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x

举报 回复 使用道具