微信扫一扫打赏支持

记忆规律

记忆规律

打赏

 

一、总结

一句话总结:

上面强调了很多,其实就是复习最重要
所以【5、经常短期复习】才显得如此重要

 

1、LTP(long-term potentiation)?

LTP(long-term potentiation)是神经元之间的联系被长期激活了,大脑的“记忆之源”

 

 

2、LTP是神经元【反复受刺激产生的】

海马体觉得反复需要看的东西是关乎生死的,所以必须加入进长期记忆,这个和【5、经常短期复习】是一致的

 

3、复习的时间规律?

首次复习的时间:海马体1个月整理1次新信息

 

第一次复习:学习后的第2天
第二次复习:首次复习的1周后
第三次复习:第2次复习的2周后
第四次复习:第3次复习的1月后

 

4、复习的用功程度?

复习要和学习时候一样用功,让海马体觉得这是忧关生死的

 

5、复习的内容相同?

让海马体以为是一样的东西

 

6、兴趣?

θ波出现的时候,只需要1/10的刺激,即可达到相同效果
θ波只有在感兴趣的时候才会释放,如果对学的东西不感兴趣就会消失

 

7、一次学很多会产生记忆的干扰,让海马体混乱?

解决方法是【5、经常短期复习】

 

8、记忆总结?

1、反复刺激
2、神奇的0波
3、情绪记忆法
4、狮子记忆法
5、睡个好觉

 

 

 

 

二、记忆规律

 

 

 

 

上面强调了很多,其实就是复习最重要

posted @   范仁义  阅读(879)  评论(0编辑  收藏  举报
编辑推荐:
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
阅读排行:
· 10年+ .NET Coder 心语 ── 封装的思维:从隐藏、稳定开始理解其本质意义
· 地球OL攻略 —— 某应届生求职总结
· 提示词工程——AI应用必不可少的技术
· Open-Sora 2.0 重磅开源!
· 周边上新:园子的第一款马克杯温暖上架
历史上的今天:
2020-09-23 Tensorflow2(预课程)---9.1、循环神经网络实现输入一个字母,预测下一个字母
2020-09-23 循环神经网络总结
2020-09-23 200813_tensorflow2---6、LSTM的用途(杂)
2020-09-23 CNN网络架构演进:从LeNet到DenseNet
2020-09-23 Dropout VS Batch Normalization
2020-09-23 Batch Normalization
2020-09-23 权重初始化的选择
侧边栏

打赏

点击右上角即可分享
微信分享提示