Spark命令行中正常执行的代码,用Maven编译报错
Hi,all
我在idea中编写Spark程序,使用Maven编译会报错,但是将这段报错的代码贴到Spark-shell中能正常执行。这个问题很奇怪,求各位大神帮忙看下!
spark-shell中执行效果
使用Maven编译的报错结果信息
代码如下:
case class ontime_table_schema(ratio: Double, score: Int)
//准时率配置表
val ontime_table_arr = Array(
Array(0.00, 0),
Array(0.90, 80),
Array(0.97, 120)
)
//生成准时率DataFrame
val ontime_table_rdd = sc.parallelize(ontime_table_arr)
val ontime_table_df = ontime_table_rdd.map(p => ontime_table_schema(p(0), p(1).toInt)).toDF()
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
toDF不是RDD类型的方法,在shell中能用,说明是经过隐试转换的。
spark-shell中你可以看下当前scope下的隐试转换:
找到隐试转换之后,import到你的代码里应该就可以了