当条件不起作用时使用多个 Pyspark
我的数据集看起来像这样
我编写了以下代码:
flightData2015.select("*",when(flightData2015['count']>200,'above200')
.when(flightData2015['count']>400,'above400').otherwise("below").alias("new count")).show()
my data set looks like this
I wrote this code:
flightData2015.select("*",when(flightData2015['count']>200,'above200')
.when(flightData2015['count']>400,'above400').otherwise("below").alias("new count")).show()
output :
red line does not follow my logic, I want to know why the second "when" condition is not working
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
首先,条件“>200”也将满足大于400的项目,因此这就是不使用第二个when的原因。
其次,嵌套的when else 子句应该有效。
Firstly, the condition ">200" will satisfy items that are greater than 400 also, so that is why the second when is not used.
Secondly, a nested when otherwise clause should work.