Pytorch入门-dataloader

DataLoader(dataset, batch_size=1, shuffle=False, sampler=None,
           batch_sampler=None, num_workers=0, collate_fn=None,
           pin_memory=False, drop_last=False, timeout=0,
           worker_init_fn=None, *, prefetch_factor=2,
           persistent_workers=False)
  1. dataset (Dataset): 提供数据的数据集对象。
  2. batch_size (int, optional): 每个批次中包含的样本数。默认为 1。
  3. shuffle (bool, optional): 是否在每个 epoch 开始时打乱数据。默认为 False。
  4. sampler (Sampler, optional): 定义从数据集中抽取样本的策略。如果指定,shuffle 必须为 False。
  5. batch_sampler (Sampler, optional): 与 sampler 类似,但直接返回批次的索引,而不是单个样本的索引。如果指定,batch_size, shuffle, sampler, 和 drop_last 必须不被指定。
  6. num_workers (int, optional): 用于数据加载的子进程数。0 表示数据将在主进程中加载。默认为 0。
  7. drop_last (bool, optional): 如果数据集大小不能被 batch_size 整除,设置为 True 后将丢弃最后一个不完整的批次。默认为 False。
posted @   cxy8  阅读(16)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 【自荐】一款简洁、开源的在线白板工具 Drawnix
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 无需6万激活码!GitHub神秘组织3小时极速复刻Manus,手把手教你使用OpenManus搭建本
· C#/.NET/.NET Core优秀项目和框架2025年2月简报
· DeepSeek在M芯片Mac上本地化部署
点击右上角即可分享
微信分享提示