我试图找出 PySpark 中 DataFrame 的大小/形状。我没有看到可以做到这一点的单一功能。
在 Python 中,我可以这样做:
data.shape()
PySpark 中是否有类似的功能?这是我目前的解决方案,但我正在寻找一个元素
row_number = data.count()
column_number = len(data.dtypes)
列数的计算并不理想…
原文由 Xi Liang 发布,翻译遵循 CC BY-SA 4.0 许可协议
我试图找出 PySpark 中 DataFrame 的大小/形状。我没有看到可以做到这一点的单一功能。
在 Python 中,我可以这样做:
data.shape()
PySpark 中是否有类似的功能?这是我目前的解决方案,但我正在寻找一个元素
row_number = data.count()
column_number = len(data.dtypes)
列数的计算并不理想…
原文由 Xi Liang 发布,翻译遵循 CC BY-SA 4.0 许可协议
4 回答4.4k 阅读✓ 已解决
4 回答3.8k 阅读✓ 已解决
1 回答3k 阅读✓ 已解决
3 回答2.1k 阅读✓ 已解决
1 回答4.5k 阅读✓ 已解决
1 回答3.8k 阅读✓ 已解决
1 回答2.8k 阅读✓ 已解决
您可以通过以下方式获得它的
shape
: