摘要: 2016ICLR最佳论文 Deep Compression: Compression Deep Neural Networks With Pruning, Trained Quantization And Huffman Codin 主要针对神经网络模型巨大,在嵌入式机器中比较难运行的问题。 abs 阅读全文
posted @ 2017-04-10 16:31 牧马人夏峥 阅读(1899) 评论(1) 推荐(0) 编辑