scala加载spark MLlib等所有相关jar的问题

1、找到spark安装目录

  E:\spackLearn\spark-2.3.3-bin-hadoop2.7\jars

  里面放的是spark的所有依赖jar包

2、从idea里面javalib导入即可调用里面的function

 

posted @ 2019-06-04 15:55  洺剑残虹  阅读(802)  评论(0编辑  收藏  举报