08 2023 档案
摘要:在jupyter notebook中好像只能用调整浏览器的缩放来调整字体的大小。 在jupyter lab中有了改进,有2种方法可以调整字体的大小。 1、settings -> theme -> increate code font size 每点击一次,字体增大一点,多次点击调整到自己喜欢的程度。
阅读全文
摘要:现在有个问题,conda没有国内源了,但conda的管理工具很好用,所以,安装初始大礼包用conda,后续安装用pip。 在windows下,如果遇到编译错误,可以在这个网站下载编译好的windows二进制包进行安装。 https://www.lfd.uci.edu/~gohlke/pythonli
阅读全文
摘要:DistilBertModel( (embeddings): Embeddings( (word_embeddings): Embedding(30522, 768, padding_idx=0) (position_embeddings): Embedding(512, 768) (LayerNo
阅读全文
摘要:首先是安装python,更新pip源到清华源。安装transformer pip install transformer 安装jupyter lab,也简单一行 pip install jupyterlab 现在不想用anaconda了,因为国内没有源了,国外的又慢。直接用pip吧。 然后开始体验之
阅读全文
摘要:梯度下降法是一个用于优化多变量函数的迭代方法。在深度学习和机器学习中,通常用它来优化损失函数,从而找到一个模型的最优参数。 以下是梯度下降法的原理详解: 1. **目标**:我们的目标是找到函数 的最小值,其中 是一个参数向量。在机器学习中,这个函数通常是损
阅读全文
摘要:Hugging Face 是一个在自然语言处理(NLP)领域非常活跃的公司和开源社区,它对于普及化和简化现代NLP工具和模型做出了巨大的贡献。以下是有关 Hugging Face 的一些基本介绍: 1. **Transformers 库**: - Hugging Face 最为人所知的可能是它们的开
阅读全文
摘要:BERT(Bidirectional Encoder Representations from Transformers)是自然语言处理领域的一个重要里程碑。以下是BERT的发展历史概述: 1. **背景**: - 在BERT之前,研究者们已经开始认识到预训练模型在多种任务中的潜力。例如,UlmFi
阅读全文
摘要:Transformer 模型在深度学习领域,尤其是自然语言处理(NLP)中,起到了革命性的作用。以下是其发展历程的简要概述: 1. **背景**: - 在 Transformer 出现之前,循环神经网络(RNN)及其更先进的版本,如长短时记忆网络(LSTM)和门控循环单元(GRU)是处理序列任务的主
阅读全文