摘要: 前言 有时候我们在使用Spark中执行Join时候,结果集出现重复的列名,从而导致References ambiguous问题。我们可以用以下方式来解决。 实例 首先模拟一些数据 为了防止出现重复列名的问题,首先可以指定使用哪张表的列,如下: 当然我们也可以使用别名alias: 除此之外,我们还可以 阅读全文
posted @ 2019-04-11 10:53 LestatZ 阅读(2189) 评论(0) 推荐(0) 编辑