摘要: 针对大型数据集,数据过大无法加载到内存,使用增量训练方式 sklearn def generator(all_file_path): for filename in all_file_path: try: bytedata = open(filename, "rb").read() except: 阅读全文
posted @ 2022-01-25 10:24 鱼与鱼 阅读(1249) 评论(0) 推荐(0) 编辑