摘要: 上一篇扒了single-core的实现,这篇记录一些扩展到多核的思路。 1. 单个AIE core 对于单核,这里假设矩阵乘计算的输入输出为A[m*k] x B [k*n] = C[m*n] 2. 扩展成一条chain:级联 k的维度是需要乘累加起来的,假设k为2048,分到2个核上,每个核就只需要 阅读全文
posted @ 2021-12-06 11:56 chaob 阅读(349) 评论(0) 推荐(0) 编辑
摘要: ref: https://github.com/Xilinx/Vitis-Tutorials/blob/2021.2/AI_Engine_Development/Feature_Tutorials/07-AI-Engine-Floating-Point/MatMult/aie/aie_kernels 阅读全文
posted @ 2021-12-03 12:11 chaob 阅读(383) 评论(0) 推荐(0) 编辑
摘要: ref: https://www.xilinx.com/html_docs/xilinx2020_2/vitis_doc/yii1603912637443.html https://www.xilinx.com/support/documentation/sw_manuals/xilinx2020_ 阅读全文
posted @ 2021-12-02 12:19 chaob 阅读(174) 评论(0) 推荐(0) 编辑
摘要: 记录一下,至少玩过 截图于以下链接 https://www.xilinx.com/support/documentation/architecture-manuals/am009-versal-ai-engine.pdf https://www.xilinx.com/support/document 阅读全文
posted @ 2021-12-01 11:51 chaob 阅读(226) 评论(0) 推荐(0) 编辑
摘要: leetcode https://github.com/labuladong/fucking-algorithm C++面试问题 https://github.com/huihut/interview https://www.cnblogs.com/LUO77/p/5771237.html 阅读全文
posted @ 2021-11-26 11:05 chaob 阅读(321) 评论(0) 推荐(0) 编辑
摘要: 最近看了ncnn的源码,代码风格清爽, 遂想先抛开VULKAN记录一下它的推理流程。 1. 先看个yolov2 demo csdn上的帖子https://blog.csdn.net/sinat_31425585/article/details/83243961, 其文末还附了福利直接可用的模型htt 阅读全文
posted @ 2019-08-31 21:38 chaob 阅读(3632) 评论(0) 推荐(0) 编辑
摘要: 深度神经网络可以按层被拆分为许多基本操作,而这些基本操作通过不同的组合方式也就构建多种多样的DNN。例如最常见的[INPUT - CONV - RELU - POOL - FC]组合。 简单记录一下卷积神经网络中的基本操作: 卷积conv 池化pool Elementwise Deep-Wise卷积 阅读全文
posted @ 2018-07-27 01:06 chaob 阅读(1209) 评论(0) 推荐(0) 编辑
摘要: 01. Stanford CS class CS231n: Convolutional Neural Networks for Visual Recognition. 02. Tutorial on Hardware Architectures for Deep Neural Networks ht 阅读全文
posted @ 2018-07-17 10:29 chaob 阅读(149) 评论(0) 推荐(0) 编辑
摘要: 【摘要】 TAGE被认为是最有存储效率的全局历史信息分支预测器。Andre就指出TAGE加上statistical corrector(SC)和loop predictor会更加高效。CBP-4traces下,32Kbits:3.315MPKI,256Kbits:2.365MPKI,no-limit 阅读全文
posted @ 2016-07-13 16:56 chaob 阅读(2330) 评论(0) 推荐(0) 编辑
摘要: 源码链接:https://github.com/sjdesai16/tage 【摘要】:CBP2004上实现的简单TAGE分支预测器。TAGE集成了PPM和OGHEL两类分支预测的优势。使用PPM中的partial tage,OGHEL中的几何级数增长的全局历史长度。 OGEHL 利用了跨度在100 阅读全文
posted @ 2016-07-12 15:12 chaob 阅读(5023) 评论(0) 推荐(0) 编辑