03 2023 档案

摘要:首先挂上colab网址:这里. 果不其然刚开始就出现了问题. inputs = tokenizer('A cat in French is "', return_tensors="pt")["input_ids"].cuda() outputs = model.generate(inputs, ma 阅读全文
posted @ 2023-03-31 02:02 LinXiaoshu 阅读(324) 评论(0) 推荐(0) 编辑
摘要:最近在读professional cuda c programming.第三章里有一些关于nvprof的内容.记录一下过程中遇到的问题. 本书的代码可以在这里找到. 线程束分化 GPU在控制流上相对简单,相比GPU它没有复杂的分支预测机制,一个warp中所有线程在同一周期内必须执行相同指令.如果一个 阅读全文
posted @ 2023-03-30 18:31 LinXiaoshu 阅读(1033) 评论(0) 推荐(0) 编辑
摘要:今天我们来讲解一下CUDA当中,Runtime和Driver的联系与区别. 上图表示了CUDA程序调用中间API的层次结构和所处设备情况. 可以看出,CUDA提供的接口分三个层次: CUDA Library, CUDA Runtime 和CUDA Driver. 而我们的程序可以在任意一个层次上调用 阅读全文
posted @ 2023-03-28 19:59 LinXiaoshu 阅读(218) 评论(0) 推荐(0) 编辑
摘要:torch梯度计算图 计算图中,默认只有叶子结点的梯度能够保留,如果要访问非叶子结点p的梯度数据,需要执行p.retain_grad(). torch计算图中requires_grad与detach的区别 requires_grad是torch.Tensor中的属性,表示该张量是否需要计算梯度.而d 阅读全文
posted @ 2023-03-27 20:48 LinXiaoshu 阅读(30) 评论(0) 推荐(0) 编辑
摘要:如何与github相连 在shell中输入 ssh-keygen -t rsa -C "youremail" 连续回车,成功后提示 our identification has been saved in xxx 进入github,添加密钥.随后在本地shell进行验证: ssh -T git@gi 阅读全文
posted @ 2023-03-27 03:04 LinXiaoshu 阅读(41) 评论(0) 推荐(0) 编辑
摘要:HW3 G:大整数 //Your Code 补全类 BigInt。它代表一个大整数,你可以通过 + 运算符对大整数做加法。 大整数应当以 C 风格字符串的形式存放在成员 data 所指向的内存中。我们已经为这个类实现了operator<<和operator>>来实现输入输出。 此外,我们提供了一些工 阅读全文
posted @ 2023-03-26 00:15 LinXiaoshu 阅读(18) 评论(0) 推荐(0) 编辑
摘要:Petals系统阅读报告 负载均衡 Kademila:P2P 网络核心技术:Kademlia 协议 Kademlia协议这篇文章有些混淆了xor和dis的区别.dis是xor之后的lcp. distance是xor之后的公共前缀长度.distance越大,距离越近. Server/ Tree: se 阅读全文
posted @ 2023-03-21 00:33 LinXiaoshu 阅读(95) 评论(0) 推荐(0) 编辑
摘要:这是在阅读petals源码的异步编程时,与必应的对话. async, await和async with async, await 和 async with 是Python中用于编写异步代码的关键字¹²³。它们的含义如下: async 用于定义一个协程函数,即一个可以在执行过程中暂停和恢复的函数²³。 阅读全文
posted @ 2023-03-19 01:25 LinXiaoshu 阅读(74) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示