Minkowski坐标管理
Minkowski坐标管理
坐标键
classMinkowskiEngine.CoordsKey(D)
__init__(D)
初始化self. See help(type(self))有关准确的签名。
getKey()
getTensorStride()
isKeySet()
setKey(key)
setTensorStride(tensor_stride)
坐标管理器
Class MinkowskiEngine.CoordsManager(num_threads : int = -1,memory_manager_backend : MinkowskiEngineBackend.MemoryManagerBackend = None,D : int = -1)
__init__(num_threads : int = -1,memory_manager_backend : MinkowskiEngineBackend.MemoryManagerBackend = None,D : int = -1)
初始化self. See help(type(self))有关准确的签名。
create_coords_key(COORDS : torch.IntTensor,tensor_stride : INT = 1,force_creation : BOOL = False,force_remap : BOOL = False,allow_duplicate_coords : BOOL = False) → MinkowskiCoords.CoordsKey
get_batch_indices()
get_batch_size()
get_coords(coords_key_or_tensor_strides)
get_coords_map(in_key_or_tensor_strides,out_key_or_tensor_strides)
提取映射到输出坐标索引的输入坐标索引。
sp_tensor = ME.SparseTensor(features, coords=coordinates)
out_sp_tensor = stride_2_conv(sp_tensor)
cm = sp_tensor.coords_man
# cm = out_sp_tensor.coords_man # doesn't matter which tensor you pick
ins, outs = cm.get_coords_map(1, # in stride
2) # out stride
for i, o in zip(ins, outs):
print(f"{i} -> {o}")
get_coords_size_by_coords_key(coords_key)
get_kernel_map(in_key_or_tensor_strides,out_key_or_tensor_strides,stride = 1,kernel_size = 3,dilation = 1,region_type = 0,region_offset = None,is_transpose = False,is_pool = False,on_gpu = False)
获取指定坐标键或张量stride的内核出入映射。
get_mapping_by_tensor_strides(in_tensor_strides,out_tensor_strides)
get_row_indices_at(coords_key,batch_index)
返回指定批处理索引的torch.LongTensor行索引
sp_tensor = ME.SparseTensor(features, coords=coordinates)
row_indices = sp_tensor.coords_man.get_row_indices_at(sp_tensor.coords_key, batch_index)
get_row_indices_per_batch(coords_key,out_coords_key =None)
返回每个批次的行索引List。
相应的批处理索引可通过get_batch_indices访问。
sp_tensor = ME.SparseTensor(features, coords=coordinates)
row_indices = sp_tensor.coords_man.get_row_indices_per_batch(sp_tensor.coords_key)
get_union_map(in_keys : List[ MinkowskiCoords.CoordsKey ],out_key : MinkowskiCoords.CoordsKey)
生成坐标集的并集,并将映射从输入集返回到新的输出坐标。
精氨酸:
in_keys (List [CoordsKey]):在其上创建并集的坐标键List。
out_key (CoordsKey):生成的并列坐标散列图的坐标键的占位符。
返回值:
in_maps(List [Tensor [int]]):长张量的List,其中包含从输入到联合输出的映射。请参阅示例以获取更多详细信息。 out_maps(List [Tensor [int]]):长张量的List,其中包含从输入到联合输出的映射。请参阅示例以获取更多详细信息。
例:
>>> # Adding two sparse tensors: A, B
>>> out_key = CoordsKey(coords_man.D)
>>> ins, outs = coords_man.get_union_map((A.coords_key, B.coords_key), out_key)
>>> N = coords_man.get_coords_size_by_coords_key(out_key)
>>> out_F = torch.zeros((N, A.F.size(1)), dtype=A.dtype)
>>> out_F[outs[0]] = A.F[ins[0]]
>>> out_F[outs[1]] += B.F[ins[1]]
initialize(COORDS : torch.IntTensor,coords_key : MinkowskiCoords.CoordsKey,force_creation : BOOL = False,force_remap : BOOL = False,allow_duplicate_coords : BOOL = False,return_inverse : BOOL = False) →torch.LongTensor
permute_label(label,max_label,target_tensor_stride,label_tensor_stride = 1)
print_diagnostics(coords_key : MinkowskiCoords.CoordsKey)
reduce()
set_origin_coords_key(coords_key : MinkowskiCoords.CoordsKey)
stride(coords_key : MinkowskiCoords.CoordsKey,stride: Union [ int , collections.abc.Sequence , numpy.ndarray , Torch.Tensor ],force_creation : bool = False)
transposed_stride(coords_key : MinkowskiCoords.CoordsKey,stride: Union [ int , collections.abc.Sequence , numpy.ndarray , torch.Tensor ],kernel_size : Union [ int , collections.abc.Sequence , numpy.ndarray , torch.Tensor ],dilation: Union [ int , collections.abc.Sequence , numpy.ndarray , Torch.Tensor ],force_creation : bool = False)
坐标GPU内存管理器
classMinkowskiEngine.MemoryManagerBackend
Members:
CUDA
PYTORCH
(self: handle) -> str
MinkowskiEngine.MinkowskiCoords.set_memory_manager_backend
(backend:MinkowskiEngineBackend.MemoryManagerBackend)
设置GPU内存管理器后端
默认情况下,Minkowski引擎将使用pytorch内存池分配临时GPU内存插槽。这使pytorch后端可以有效地重用pytorch后端和Minkowski引擎之间共享的内存池。给定固定的GPU内存,它倾向于允许以较大的批处理量进行训练。但是,pytorch内存管理器往往比直接使用原始CUDA调用分配GPU慢。
默认情况下,Minkowski引擎 ME.MemoryManagerBackend.PYTORCH用于内存管理。
例:
>>> import MinkowskiEngine as ME
>>> # Set the GPU memory manager backend to raw CUDA calls
>>> ME.set_memory_manager_backend(ME.MemoryManagerBackend.CUDA)
>>> # Set the GPU memory manager backend to the pytorch memory pool
>>> ME.set_memory_manager_backend(ME.MemoryManagerBackend.PYTORCH)
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 记一次.NET内存居高不下排查解决与启示
· 探究高空视频全景AR技术的实现原理
· 理解Rust引用及其生命周期标识(上)
· 浏览器原生「磁吸」效果!Anchor Positioning 锚点定位神器解析
· 没有源码,如何修改代码逻辑?
· 全程不用写代码,我用AI程序员写了一个飞机大战
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· .NET10 - 预览版1新功能体验(一)