摘要: 本篇是总会用到的系列第一篇:绕不开的装修。根据自己的装修经历,先讲解了装修的几种方式,主要是自己装和外包给别人装。其中外包给别人装又分成全包和半包。其中推荐半包,自己买装修主材,然后装修公司出辅材和装修人力。应该来说是性价比最高的方式了。然后讲解了下装修中主要的几个过程,从选装修公司、买主材、水电改造等等流程。最后分享了下自己的经验教训和建议。希望能帮助到有需要的朋友。 阅读全文
posted @ 2020-03-01 12:15 数据拾光者 阅读(190) 评论(0) 推荐(0) 编辑
摘要: 摘要:上一篇读吴晓波的《腾讯传》,我们了解了腾讯如何从互联网舞台的一个花脸小厮变成今天的互联网双雄之一的整个历程,也回忆了我们的青葱岁月。本篇读《穷爸爸和富爸爸》则让我们理解穷人和富人最本质的差别。富人不为钱工作,而是让钱为自己工作。如何更好的理解资产和负债的关系,明白复利的力量,让我们更早的进入财务自由。 阅读全文
posted @ 2020-03-01 12:10 数据拾光者 阅读(120) 评论(0) 推荐(0) 编辑
摘要: 摘要:之前广告行业中那些趣事系列2:BERT实战NLP文本分类任务(附github源码),我们通过BERT构建了二分类器。这里根据实际项目需要使用BERT构建多标签标注模型,可通过一个模型识别多类标签,极大提升建模效率。实际项目中会根据业务需要同时使用二分类器和多标签标注模型完成文本识别任务。 阅读全文
posted @ 2020-03-01 12:05 数据拾光者 阅读(421) 评论(0) 推荐(0) 编辑
摘要: 摘要:上一篇广告行业中那些趣事系列3:NLP中的巨星BERT,从理论的角度讲了下NLP中有里程碑意义的BERT模型。BERT具有效果好和通用性强两大优点,其中效果好最主要的原因就是使用了Transformer作为特征抽取器。本篇主要详解下这个从配角到C位出道的Transformer,主要从宏观和微观的角度分析Transformer,讲下它的核心注意力机制Attention,然后以翻译任务举例讲下Transformer是如何进行工作的。 阅读全文
posted @ 2020-03-01 12:03 数据拾光者 阅读(279) 评论(0) 推荐(0) 编辑
摘要: 摘要:上一篇广告行业中那些趣事系列2:BERT实战NLP文本分类任务(附github源码)通过项目实战讲解了如何使用BERT模型来完成文本分类任务。本篇则从理论的角度讲解BERT模型的前世今生。BERT虽然在模型创新的角度来说并不是非常出色,但它是近几年NLP领域杰出成果的集大成者。BERT大火最重要的原因是效果好,通用性强两大优点。可以说BERT的出现是NLP领域里具有里程碑意义的大事件。本篇主要讲解NLP里面的Word Embedding预训练技术的演化史,从最初的Word2Vec到ELMO、GPT,再到今天的巨星BERT诞生,还会讲解如何改造BERT模型去对接上游任务以及BERT模型本身的创新点。 阅读全文
posted @ 2020-03-01 11:58 数据拾光者 阅读(205) 评论(0) 推荐(0) 编辑
摘要: 摘要:上一篇广告中那些趣事系列1:广告统一兴趣建模流程,我们了解了如何为广告主圈人群以及如何刻画用户的兴趣度。要想给用户打标签,我们需要构建数据源和标签的关联,也就是item-tag。针对数量较少的app数据源我们可以使用人工打标的方式来识别,但是对于news、用户query等数量较多的数据源则需要通过机器学习模型来进行打标。实际项目中我们使用NLP中鼎鼎大名的BERT模型来进行文本分类。 阅读全文
posted @ 2020-03-01 11:54 数据拾光者 阅读(724) 评论(0) 推荐(1) 编辑