今天早上看LiveSino的RSS时发现了这条隐藏在"TechEd 2008 Developers: 新闻汇总"的消息. 微软总算是推出了他们的分布式缓存(Distributed In-Memory Cache).
现在asp.net中的cache是在本机的, 如果web farm中的每台机器都要维护自己的cache, 最常用的cacheitem在每台server上都有一个copy.这样不仅浪费内存, 而且存在可能存在不同步的问题;Distributed cache解决了这个问题. 除了大型的企业应用, 在web2.0网站中Distributed cache也被广泛应用,以解决伸缩性问题. 如著名的开源软件Memcached被很多大的网站象WikiPedia , SlashDot用到;关于Distributed cache,可以google一下Memcached, 能找到很多介绍.
微软推出了Velocity(code name), 目前还是CTP1, 我google了一下, 资料也很少, 主要是这两个:
Velocity Team Blog: http://blogs.msdn.com/velocity/
.net Developers Journal: http://dotnetaddict.dotnetdevelopersjournal.com/velocity_introduction.htm
主要情况总结如下:
现在asp.net中的cache是在本机的, 如果web farm中的每台机器都要维护自己的cache, 最常用的cacheitem在每台server上都有一个copy.这样不仅浪费内存, 而且存在可能存在不同步的问题;Distributed cache解决了这个问题. 除了大型的企业应用, 在web2.0网站中Distributed cache也被广泛应用,以解决伸缩性问题. 如著名的开源软件Memcached被很多大的网站象WikiPedia , SlashDot用到;关于Distributed cache,可以google一下Memcached, 能找到很多介绍.
微软推出了Velocity(code name), 目前还是CTP1, 我google了一下, 资料也很少, 主要是这两个:
Velocity Team Blog: http://blogs.msdn.com/velocity/
.net Developers Journal: http://dotnetaddict.dotnetdevelopersjournal.com/velocity_introduction.htm
主要情况总结如下:
- 会作为Windows Service运行. 可以集群, 运行在几台Cache Server在
- 通讯走TCP
- 调用Add, Put, Get方法读/写缓存, 你可以缓存任何可以序列化的.net对象
- 除了Key-Based fetching以外, 一个很酷的功能是可以使用tag 提取缓存对象集.
- 据Team Blog所说, Velocity的目标不仅仅是为了asp.net开发, 甚至不仅仅是.net应用, 比如说非.net的IIS应用, windows Service等
- 一个目前还没有但被广泛要求的功能是Push(notification, 消息通知), Cached Item被修改了之后, 通知使用它的代码. Velocity Team说这是他们下一步要关注的(Push-based notifications is a request we’ve heard from many folks. This is certainly an area we’re looking very deeply into.)
- 目前是单独的产品, 据说是免费, 未来估计会集成到.net framework里面去
标签:
velocity
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 如何编写易于单元测试的代码
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 周边上新:园子的第一款马克杯温暖上架
· Open-Sora 2.0 重磅开源!
· 分享 3 个 .NET 开源的文件压缩处理库,助力快速实现文件压缩解压功能!
· Ollama——大语言模型本地部署的极速利器
· [AI/GPT/综述] AI Agent的设计模式综述