文章分类 -  AI-人工智能系列 / AI-深度学习

摘要:例子如下: 场景1: import numpy as np a = np.array([ [[1, 2, 3, 4], [5, 6, 7, 8], [9, 10, 11, 12]], [[13, 14, 15, 16], [17, 18, 19, 20], [21, 22, 23, 24]], [[ 阅读全文
posted @ 2025-05-20 19:27 AlphaGeek 阅读(36) 评论(0) 推荐(0)
摘要:def convert_one_hot(corpus, vocab_size): N = corpus.shape[0] if corpus.ndim == 1: one_hot = np.zeros((N, vocab_size), dtype=np.int32) for idx, word_id 阅读全文
posted @ 2025-05-19 21:23 AlphaGeek 阅读(7) 评论(0) 推荐(0)
摘要:首先原理如下: 然后代码如下: def cross_entropy_error(y, t): if y.ndim == 1: t = t.reshape(1, t.size) y = y.reshape(1, y.size) if t.size == y.size: t = t.argmax(axi 阅读全文
posted @ 2025-05-19 15:54 AlphaGeek 阅读(48) 评论(0) 推荐(0)
摘要:只需要记住注释部分的总结规律即可,以后便可以很快举一反三 import numpy as np input_data = np.array( [[[[1, 2, 3], [4, 5, 6], [7, 8, 9]]]]) # pad = 0 print(np.pad(input_data, [(0, 阅读全文
posted @ 2025-05-14 19:55 AlphaGeek 阅读(26) 评论(0) 推荐(0)
摘要:Q1:深度学习的Dropout技术中,为什么所有神经元输出乘以 1−dropout_ratio? 解释: 一图胜千言:【秒懂】 接下来详细解析图片中提到的Dropout技术,特别是“对于各个神经元的输出,要乘上训练时的删除比例后再输出”这句话,并结合代码和通俗语言解释其含义。 1. Dropout技 阅读全文
posted @ 2025-05-11 18:07 AlphaGeek 阅读(124) 评论(0) 推荐(0)
摘要:Q1:截图1 解释如下: Q2:是否存在L3, L4, L5...... 这样的范数? 阅读全文
posted @ 2025-05-11 16:47 AlphaGeek 阅读(25) 评论(0) 推荐(1)
摘要:NPU的概念 NPU(Neural Processing Unit),即神经网络处理单元,是一种专门为神经网络计算任务设计的硬件加速器。NPU的设计目标是提高深度学习模型,尤其是在推理(Inference)过程中,运算的效率和速度。它在人工智能(AI)应用中发挥着至关重要的作用,尤其是在处理大量并行 阅读全文
posted @ 2025-01-16 15:49 AlphaGeek 阅读(2938) 评论(0) 推荐(0)
摘要:一句话总结:新的CUDA的版本是兼容旧的CUDA版本,反之则不一定成立。 我系统的CUDA版本,用cmd+nvidia-smi命令查看 现在问题是我应该去PyTorch官网安装什么对应的版本的torch,才能够实现GPU调用。 虽然我的系统中安装的驱动程序是 CUDA 12.3,但安装支持 CUDA 阅读全文
posted @ 2024-11-29 17:14 AlphaGeek 阅读(7073) 评论(0) 推荐(0)