摘要:
HuggingFace使用 可以在这里找到此网站的文档,非常详细. 安装transformers库:pip install transformers 导入所需的模型、tokenizer和configuration:from transformers import AutoModel, AutoTok 阅读全文
摘要:
首先挂上colab网址:这里. 果不其然刚开始就出现了问题. inputs = tokenizer('A cat in French is "', return_tensors="pt")["input_ids"].cuda() outputs = model.generate(inputs, ma 阅读全文
摘要:
最近在读professional cuda c programming.第三章里有一些关于nvprof的内容.记录一下过程中遇到的问题. 本书的代码可以在这里找到. 线程束分化 GPU在控制流上相对简单,相比GPU它没有复杂的分支预测机制,一个warp中所有线程在同一周期内必须执行相同指令.如果一个 阅读全文
摘要:
今天我们来讲解一下CUDA当中,Runtime和Driver的联系与区别. 上图表示了CUDA程序调用中间API的层次结构和所处设备情况. 可以看出,CUDA提供的接口分三个层次: CUDA Library, CUDA Runtime 和CUDA Driver. 而我们的程序可以在任意一个层次上调用 阅读全文
摘要:
torch梯度计算图 计算图中,默认只有叶子结点的梯度能够保留,如果要访问非叶子结点p的梯度数据,需要执行p.retain_grad(). torch计算图中requires_grad与detach的区别 requires_grad是torch.Tensor中的属性,表示该张量是否需要计算梯度.而d 阅读全文
摘要:
如何与github相连 在shell中输入 ssh-keygen -t rsa -C "youremail" 连续回车,成功后提示 our identification has been saved in xxx 进入github,添加密钥.随后在本地shell进行验证: ssh -T git@gi 阅读全文
摘要:
HW3 G:大整数 //Your Code 补全类 BigInt。它代表一个大整数,你可以通过 + 运算符对大整数做加法。 大整数应当以 C 风格字符串的形式存放在成员 data 所指向的内存中。我们已经为这个类实现了operator<<和operator>>来实现输入输出。 此外,我们提供了一些工 阅读全文
摘要:
Petals系统阅读报告 负载均衡 Kademila:P2P 网络核心技术:Kademlia 协议 Kademlia协议这篇文章有些混淆了xor和dis的区别.dis是xor之后的lcp. distance是xor之后的公共前缀长度.distance越大,距离越近. Server/ Tree: se 阅读全文
摘要:
这是在阅读petals源码的异步编程时,与必应的对话. async, await和async with async, await 和 async with 是Python中用于编写异步代码的关键字¹²³。它们的含义如下: async 用于定义一个协程函数,即一个可以在执行过程中暂停和恢复的函数²³。 阅读全文
摘要:
git clone https://github.com/CodedK/CUDA-by-Example-source-code-for-the-book-s-examples-.git 首先是报错 nvcc -o ray ray.cu In file included from ../common/ 阅读全文