文章分类 - AI-人工智能系列 / AI-深度学习
摘要:例子如下: 场景1: import numpy as np a = np.array([ [[1, 2, 3, 4], [5, 6, 7, 8], [9, 10, 11, 12]], [[13, 14, 15, 16], [17, 18, 19, 20], [21, 22, 23, 24]], [[
阅读全文
摘要:def convert_one_hot(corpus, vocab_size): N = corpus.shape[0] if corpus.ndim == 1: one_hot = np.zeros((N, vocab_size), dtype=np.int32) for idx, word_id
阅读全文
摘要:首先原理如下: 然后代码如下: def cross_entropy_error(y, t): if y.ndim == 1: t = t.reshape(1, t.size) y = y.reshape(1, y.size) if t.size == y.size: t = t.argmax(axi
阅读全文
摘要:只需要记住注释部分的总结规律即可,以后便可以很快举一反三 import numpy as np input_data = np.array( [[[[1, 2, 3], [4, 5, 6], [7, 8, 9]]]]) # pad = 0 print(np.pad(input_data, [(0,
阅读全文
摘要:Q1:深度学习的Dropout技术中,为什么所有神经元输出乘以 1−dropout_ratio? 解释: 一图胜千言:【秒懂】 接下来详细解析图片中提到的Dropout技术,特别是“对于各个神经元的输出,要乘上训练时的删除比例后再输出”这句话,并结合代码和通俗语言解释其含义。 1. Dropout技
阅读全文
摘要:Q1:截图1 解释如下: Q2:是否存在L3, L4, L5...... 这样的范数?
阅读全文
摘要:NPU的概念 NPU(Neural Processing Unit),即神经网络处理单元,是一种专门为神经网络计算任务设计的硬件加速器。NPU的设计目标是提高深度学习模型,尤其是在推理(Inference)过程中,运算的效率和速度。它在人工智能(AI)应用中发挥着至关重要的作用,尤其是在处理大量并行
阅读全文
摘要:一句话总结:新的CUDA的版本是兼容旧的CUDA版本,反之则不一定成立。 我系统的CUDA版本,用cmd+nvidia-smi命令查看 现在问题是我应该去PyTorch官网安装什么对应的版本的torch,才能够实现GPU调用。 虽然我的系统中安装的驱动程序是 CUDA 12.3,但安装支持 CUDA
阅读全文

浙公网安备 33010602011771号