摘要: https://blog.csdn.net/gitblog_00071/article/details/139555390 https://raschka-research-group.github.io/coral-pytorch/api_subpackages/coral_pytorch.lay 阅读全文
posted @ 2024-07-04 09:16 cup_leo 阅读(2) 评论(0) 推荐(0) 编辑
摘要: tensorflow-estimator==1.15.1!pip install pandas==1.1.0 scikit-learn==0.23.1numpy==1.19.0 tensorflow-estimator==2.5.0!pip install pandas==1.1.0 scikit- 阅读全文
posted @ 2024-05-24 14:51 cup_leo 阅读(153) 评论(0) 推荐(0) 编辑
摘要: import numpy as np import matplotlib.pyplot as plt from sklearn.metrics import confusion_matrix def calculate_net_benefit_model(thresh_group, y_pred_s 阅读全文
posted @ 2024-02-04 16:38 cup_leo 阅读(235) 评论(0) 推荐(0) 编辑
摘要: import os import random import shutil def split_data(source_dir, train_dir, val_dir, test_dir): # 确保目标文件夹存在 os.makedirs(train_dir, exist_ok=True) os.m 阅读全文
posted @ 2024-01-20 21:22 cup_leo 阅读(13) 评论(0) 推荐(0) 编辑
摘要: import pandas as pd import numpy as np #导入你的数据 data = pd.read_csv('./yourdata.csv') vals = np.unique(data[['origin_x', 'origin_y']]) # 同时取出两列,作为节点 df 阅读全文
posted @ 2023-12-01 15:33 cup_leo 阅读(22) 评论(0) 推荐(0) 编辑
摘要: pd.set_option('expand_frame_repr', False) # True换行显示, False不允许换行 pd.set_option("display.max_columns", None) # dataFrame的列, None显示完整的列, 数字表示显示最大列数 pd.s 阅读全文
posted @ 2023-11-08 22:11 cup_leo 阅读(24) 评论(0) 推荐(0) 编辑
摘要: # 定义可用的颜色 # colors = ['red', 'blue', 'green', 'yellow','Orchid','purple','cyan','black', # 'LightPink','Violet','Indigo','LightSlateGray','Aqua','Teal 阅读全文
posted @ 2023-10-18 09:38 cup_leo 阅读(154) 评论(0) 推荐(0) 编辑
摘要: 默认的,cross_val_score只能计算一个类型的分数,要想获得多个度量值,可用函数cross_validate >>> from sklearn.model_selection import cross_validate >>> from sklearn.metrics import rec 阅读全文
posted @ 2023-10-15 11:33 cup_leo 阅读(130) 评论(0) 推荐(0) 编辑
摘要: import pandas as pd data = pd.read_csv("data.csv") grouped_data = data.groupby("Group") sampled_data = grouped_data.apply(pd.DataFrame.sample, n=200, 阅读全文
posted @ 2023-09-11 16:21 cup_leo 阅读(54) 评论(0) 推荐(0) 编辑
摘要: 1、环境配置教程:地址 2、测试代码示例 import os import findspark os.environ['JAVA_HOME'] = 'D:\Java\jdk1.8.0_311' # 这里的路径为java的bin目录所在路径 spark_home = "D:\spark-3.0.3-b 阅读全文
posted @ 2023-08-17 16:02 cup_leo 阅读(22) 评论(0) 推荐(0) 编辑