Nginx反向代理服务流式输出设置
Nginx反向代理服务流式输出设置1.问题场景
提问:为什么我部署的服务没有流式响应
最近在重构原有的GPT项目时,遇到gpt回答速度很慢的现象。在使用流式输出的接口时,接口响应速度居然还是达到了30s以上。
2.现象分析
分析现象我发现,虽然前端还是流式打印的结果,但是,好像是接口处理完了,再以流式返回到的前端。
3.解决过程记录
起初
因为新的重构项目中用MASA 的minimalAPI代替了传统的MVC。所以在接口实现上跟之前有所不同,在对Stream流的处理方式上也有不同。我以为是我处理的方式不对,为此,我的代码做过多次改进。最终的接口如下:
/// <summary>
/// 聊天接口(gpt-4)返回流
/// </summary>
/// <param name="req"></param>
/// <returns></returns>
public async Task ChatCompletionStream(ChatReq req, CancellationToken cancellationToken = default)
{
if (_httpContextAccessor.HttpContext?.Items["key"] != null)
{
req.Key = _httpContextAccessor.HttpContext?.Items["key"]?.ToString();
}
_logger.Information($"ChatStream1开始时间:{DateTime.Now},key【{req.Key}】");
var userId = long.Parse(_httpContextAccessor.HttpContext.User.FindFirstValue(ClaimTypes.UserData));
req.UserId = userId;
req.IP = _httpContextAccessor.HttpContext?.Connection.RemoteIpAddress?.MapToIPv4().ToString();
var response = _httpContextAccessor.HttpContext.Response;
response.ContentType = "application/octet-stream";
var enumerable = _chatService.ChatCompletionStream(req);
await foreach (var item in enumerable)
{
var bytes = Encoding.UTF8.GetBytes(JsonSerializer.Serialize(item, new JsonSerializerOptions()
{
Encoder = JavaScriptEncoder.Create(UnicodeRanges.All)
}) + "\n");
await response.BodyWriter.WriteAsync(bytes);
}
_logger.Information($"ChatStream1结束时间:{DateTime.Now}");
}后来
在优化代码后,本地速度提升明显。但是在服务器上速度任然不理想。让我怀疑,是不是代码问题?难道是别的问题。
与此同时,昨天,我的搭档同样向我抛出了这个问题:“聊天的接口好慢”
我说出了两种可能:1.代码,是minimalAPI的锅。2.网络,我们的服务部署在自己的服务器上,然后通过内网映射,又通过反向代理调用的OpenAI的接口,网络复杂,造成了速度慢。
最后发现问题
今天,我想到问题所在,我们的反向代理服务,是通过nginx做了反向代理的,之前我们解决过后端服务的nginx反向代理设置流式传输的问题。问题就在这里。对应的yarn服务的nginx配置同样需要设置流式传输。
2.解决问题的方法
如果你使用 ngnix 反向代理,需要在配置文件中增加下列代码:
\# 不缓存,支持流式输出
proxy_cache off;# 关闭缓存
proxy_buffering off;# 关闭代理缓冲
chunked_transfer_encoding on;# 开启分块传输编码
tcp_nopush on;# 开启TCP NOPUSH选项,禁止Nagle算法
tcp_nodelay on;# 开启TCP NODELAY选项,禁止延迟ACK算法
keepalive_timeout 300;# 设定keep-alive超时时间为65秒3 什么是代理,如何使用?
由于 OpenAI 的 IP 限制,中国和其他一些国家/地区无法直接连接 OpenAI API,需要通过代理。你可以使用代理服务器(正向代理),或者已经设置好的 OpenAI API 反向代理。
- 正向代理例子:梯子。docker 部署的情况下,设置环境变量 HTTP_PROXY 为你的代理地址(例如:10.10.10.10:8002)。
- 反向代理例子:可以用别人搭建的代理地址,或者通过 Cloudflare 免费设置。设置项目环境变量 BASE_URL 为你的代理地址。
4.搭建反向代理服务
yarn 服务反向代理GPT部署方案:yarn 反向代理
阅读如遇样式问题,请前往个人博客浏览: https://www.raokun.top
拥抱ChatGPT:https://chat111.terramours.site
开源项目地址:https://github.com/raokun/YarpProject
来源:https://www.cnblogs.com/raok/archive/2023/08/15/17631549.html
免责声明:由于采集信息均来自互联网,如果侵犯了您的权益,请联系我们【E-Mail:cb@itdo.tech】 我们会及时删除侵权内容,谢谢合作!
页:
[1]