上一页 1 2 3 4 5 6 ··· 176 下一页
摘要: 利用tirpc库实现简单的客户端和服务端 来源 https://www.hlovefp.cn/blog/post/125.html 演示系统:openEuler release 22.03 LTS 1. 准备环境 Bash yum install rpcgen -y # rpcgen命令 yum - 阅读全文
posted @ 2024-09-11 15:46 lsgxeva 阅读(81) 评论(0) 推荐(0) 编辑
摘要: qtchooser -install qt6 $(which qmake6) https://askubuntu.com/questions/1460242/ubuntu-22-04-with-qt6-qmake-could-not-find-a-qt-installation-of In Ubun 阅读全文
posted @ 2024-07-18 13:18 lsgxeva 阅读(82) 评论(0) 推荐(0) 编辑
该文被密码保护。 阅读全文
posted @ 2024-06-24 09:34 lsgxeva 阅读(0) 评论(0) 推荐(0) 编辑
摘要: mcc mnc list 来源 https://www.mcc-mnc.com/ MCCMNCISOCountryCountry CodeNetwork 289 68 ge Abkhazia 7 A-Mobile 289 88 ge Abkhazia 7 A-Mobile 289 67 ge Abk 阅读全文
posted @ 2024-06-06 14:56 lsgxeva 阅读(39) 评论(0) 推荐(0) 编辑
该文被密码保护。 阅读全文
posted @ 2024-05-17 18:46 lsgxeva 阅读(0) 评论(0) 推荐(0) 编辑
摘要: KAN: Kolmogorov–Arnold Networks 学术论文全译 来源 https://zhuanlan.zhihu.com/p/696001648 KAN: Kolmogorov–Arnold Networks https://arxiv.org/pdf/2404.19756 讨论Ap 阅读全文
posted @ 2024-05-12 09:54 lsgxeva 阅读(2013) 评论(0) 推荐(0) 编辑
摘要: 经典译文:Transformer--Attention Is All You Need 来源 https://zhuanlan.zhihu.com/p/689083488 本文为Transformer经典论文《Attention Is All You Need》的中文翻译: https://arxi 阅读全文
posted @ 2024-05-12 09:52 lsgxeva 阅读(320) 评论(0) 推荐(0) 编辑
摘要: Berkeley vLLM:算力减半、吞吐增十倍 来源 https://zhuanlan.zhihu.com/p/697142422 随着大语言模型(LLM)的不断发展,这些模型在很大程度上改变了人类使用 AI 的方式。然而,实际上为这些模型提供服务仍然存在挑战,即使在昂贵的硬件上也可能慢得惊人。 阅读全文
posted @ 2024-05-12 09:45 lsgxeva 阅读(696) 评论(0) 推荐(0) 编辑
该文被密码保护。 阅读全文
posted @ 2024-05-09 19:25 lsgxeva 阅读(0) 评论(0) 推荐(0) 编辑
摘要: Qt | 一文总结QObject 来源 https://zhuanlan.zhihu.com/p/608004472 一、QObject的重要知识 QObject是Qt对象模型的核心。这个模型的核心特性是一个强大的无缝对象通信机制,即信号和槽。可以使用connect()将信号连接到槽函数,并使用di 阅读全文
posted @ 2024-04-13 22:11 lsgxeva 阅读(378) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 ··· 176 下一页