博客园  :: 首页  :: 新随笔  :: 联系 :: 订阅 订阅  :: 管理

2023年11月8日

摘要: chatglm.cpp的一个主要特点就是以量化的形式对大模型进行优化,使其在CPU上能够进行高效推理。 本文主要查看chatglm.cpp是如何对模型进行量化的 chatglm.cpp在使用时主要分成两步: 使用convert.py将模型进行量化,得到ggml格式 使用./build/bin/mai 阅读全文

posted @ 2023-11-08 22:00 Antel 阅读(416) 评论(0) 推荐(0) 编辑

2023年11月7日

摘要: 量化 ggml中的张量为ggml_tensor, ggml_tensor有几个值得注意的属性: enum ggml_op op 表示这个tensor是从哪个操作得到。 enum ggml_type type,为tensor的格式, ggml_type的定义如下: enum ggml_type { G 阅读全文

posted @ 2023-11-07 20:15 Antel 阅读(615) 评论(3) 推荐(0) 编辑

2023年7月25日

摘要: 在了解PPO之前,首先需要了解Policy Gradient,PPO是建立在PG上的。 ### Policy Gradient 基本参考[【强化学习2】Policy Gradient - LGC的文章 - 知乎](https://zhuanlan.zhihu.com/p/66205274)进行整理。 阅读全文

posted @ 2023-07-25 00:03 Antel 阅读(3322) 评论(0) 推荐(0) 编辑

2023年7月18日

摘要: TensorRT的使用,尝试对LLM进行加速。本文为采坑记录 环境:ubuntu20.04, cuda 12.2, pytorch 2.0.1, tensorrt 8.6.1, torch_tensorrt 1.4.0, transformer 0.6.0 设备有限,仅打算尝试[opt-1.3b]( 阅读全文

posted @ 2023-07-18 20:25 Antel 阅读(2252) 评论(5) 推荐(1) 编辑

2023年7月3日

摘要: 目录 记录下遇到的各种工具,感谢前人栽树,后人乘凉。 目录按照字母顺序,大小写不敏感 目录目录工具DeepSpeedFSDPggmllamma.cpplangchainLLVMMegatronNCCLpoetryTritonTVMXLA 工具 DeepSpeed DeepSpeed是对transfo 阅读全文

posted @ 2023-07-03 20:05 Antel 阅读(1073) 评论(0) 推荐(0) 编辑

2022年10月27日

摘要: 目录AGIAIGCCCGERF (误差函数)FLOPSHadamard product (哈达玛积)Heaviside function (赫维赛德函数)KL散度vanilla不定期更新中 AGI Artificial General Intelligence 通用人工智能 AIGC Artific 阅读全文

posted @ 2022-10-27 20:36 Antel 阅读(143) 评论(0) 推荐(0) 编辑

2022年9月16日

摘要: 一直对spark sql中的join操作感到迷惑, 如果join之前的操作没有进行persist DataFrame的话,是否会存在让之前的transformation重复执行的问题,以及重复多少次。 看一个例子 考虑在map1/map2处设置一个累加器,join之后,看看map1/map2到底执行 阅读全文

posted @ 2022-09-16 19:00 Antel 阅读(225) 评论(3) 推荐(0) 编辑

摘要: 在使用Spark,尤其是Spark SQL时,经常会出现一些奇奇怪怪的效率低下问题。比如说,如果lineage比较长的时候,或者lineage比较复杂需要shuffle的时候,可能存在一定的rdd复用问题。 通常在需要复用一个rdd的时候,建议进行persist。但是在实际情况下,又会经常出现不确定 阅读全文

posted @ 2022-09-16 18:59 Antel 阅读(428) 评论(0) 推荐(0) 编辑

2022年4月6日

摘要: 根据业务需求,需要对pyspark内存资源进行限制 本文使用的环境为pyspark 3.1.2,standalone模式 不足之处还请指出 pyspark进程说明 首先我们需要知道对pyspark进行内存限制,是限制哪部分的内存。 先看一下执行pyspark任务需要启动哪些进程 pyspark与原版 阅读全文

posted @ 2022-04-06 16:37 Antel 阅读(939) 评论(0) 推荐(0) 编辑

2022年2月18日

摘要: 最近发现,在执行pyspark任务时,对pythonFunction的CPU使用率进行限制存在问题,究其根本,还是sparkConf的参数存在问题。 梳理了下spark启动参数中关于core的设置问题 执行spark-submit -h 得到spark启动参数的说明,截取部分关于core的说明 Cl 阅读全文

posted @ 2022-02-18 15:54 Antel 阅读(468) 评论(0) 推荐(0) 编辑