在Owin Self-Hosing下实现每个请求中共享上下文(数据)
问题
这几天在做公司的外部WebApi网关,由于使用了OAuth2.0,所以不得不使用Owin来部署网关。
而涉及到请求上下文的问题,为了使业务层能获取到请求头的信息,又不与网关耦合,决定把请求信息写到一个访问上下文中。
在传统的Http部署下,这个问题很好解决,我们可以使用HttpContext或者Session。
然而在Owin的Self-Hosting情况下,这两者都无法使用。
虽然可以自己包装一下CallContext来解决这个问题,但不想重复造轮子。
于是在网上检索了一下,找到了很完善的解决方法。记录分享一下。
解决方案
方法一:
使用OwinContext
在你的中间件中添加如下代码
public class HelloWorldMiddleware : OwinMiddleware { public HelloWorldMiddleware (OwinMiddleware next) : base(next) { } public override async Task Invoke(IOwinContext context) { context.Set("Hello", "World"); await Next.Invoke(context); } }
在MVC或Webapi中使用:
Request.GetOwinContext().Get<string>("Hello");
方法2:
使用 OwinRequestScopeContext,这是GitHub上的一个开源项目,看了下源码,其实就是简单地包装了一下CallContxt 。
在使用前记得先上Nuget安装一下。
1,在Startup中添加,请保持它在最上层以最先激活。
app.UseRequestScopeContext();
2,在程序中加入参数
OwinRequestScopeContext.Current.Items["myclient"] = new Client();
3,然后可以在任何地方调用它了
var currentClient = OwinRequestScopeContext.Current.Items["myclient"] as Client;
参考的StackOverflow源地址:这里。
欢迎转载,注明出处即可。
如果你觉得这篇博文帮助到你了,请点下右下角的推荐让更多人看到它。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· 阿里巴巴 QwQ-32B真的超越了 DeepSeek R-1吗?
· 【译】Visual Studio 中新的强大生产力特性
· 10年+ .NET Coder 心语 ── 封装的思维:从隐藏、稳定开始理解其本质意义
· 【设计模式】告别冗长if-else语句:使用策略模式优化代码结构