随笔分类 - AI时代
摘要:用来做什么? 文本生成 自然语言理解与分析 编程与代码 常规绘图 推理模型 (链式推理 vs 概率预测) 强化推理,逻辑分析和决策能力的模型。比如deepseek-r1 和gpt-o3. 提示语使用不一样,对于推理模型,只需要明确任务的目标和需求。 数学任务选推理模型,创意任务选通用模型。
阅读全文
摘要:https://platform9.com/blog/argo-cd-vs-tekton-vs-jenkins-x-finding-the-right-gitops-tooling/ implement GitOps with Kubernetes ArgoCD Tekton GitHub Star
阅读全文
摘要:https://www.redhat.com/en/topics/ai/llmops https://www.redhat.com/en/topics/cloud-computing/what-is-kubeflow https://www.kubeflow.org/docs/started/arc
阅读全文
摘要:How does AIOps work?With AIOps, your organization takes a more proactive approach to resolve IT operational issues. Instead of relying upon sequential
阅读全文
摘要:https://github.com/nomic-ai/gpt4all https://github.com/zylon-ai/private-gpt
阅读全文
摘要:KAG: A Better Alternative to RAG for Domain-Specific Knowledge Applications https://medium.com/@ahmed.missaoui.pro_79577/rag-vs-kag-a-comparative-anal
阅读全文
摘要:https://github.com/JShollaj/awesome-llm-web-ui Contents Streamlit Gradio Lobe Chat Text Generation WebUI Open WebUI (formerly: Ollama WebUI) Hugging F
阅读全文
摘要:langchain: 提供了大模型相关应用开发的所有便利。 https://python.langchain.com/docs/get_started/introduction Build your LLM application with LangChain Trace your LLM appl
阅读全文
摘要:https://docs.vllm.ai/en/latest/index.html 高吞吐量、高内存效率的 LLMs 推理和服务引擎(快速搭建本地大模型,且openAI API 兼容) vLLM is a fast and easy-to-use library for LLM inference
阅读全文
摘要:https://docs.llamaindex.ai/en/stable/module_guides/models/llms.html 可以按参数和评分来选择模型: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard ll
阅读全文
摘要:https://ollama.com/ 使用 Llama 2、Mistral、Gemma 和其他大型语言模型启动和运行。 支持windows,Linux,Mac。 支持的开源模型列表: Ollama supports a list of models available on ollama.com/
阅读全文