用python做spark开发
IDE用pycharm,在pycharm中加断点debug的时候,会跳转到对应python的spark部分实现。
但是我想看看scala的源码,scala原生源码和python的实现部分源码,有什么不同?
对spark运行调度和内核的实现是否一样?对学习的理解有什么差别?
用python做spark开发
IDE用pycharm,在pycharm中加断点debug的时候,会跳转到对应python的spark部分实现。
但是我想看看scala的源码,scala原生源码和python的实现部分源码,有什么不同?
对spark运行调度和内核的实现是否一样?对学习的理解有什么差别?
不想自己setup scala的IDE的话可以用insight.io看apache spark的源码,比如这个是RDD的实现
https://insight.io/github.com...
spark的核心代码都是scala写的,python的spark只是把核心代码进行了封装。
4 回答4.4k 阅读✓ 已解决
4 回答3.8k 阅读✓ 已解决
1 回答3k 阅读✓ 已解决
3 回答2.1k 阅读✓ 已解决
1 回答4.5k 阅读✓ 已解决
1 回答3.8k 阅读✓ 已解决
1 回答2.8k 阅读✓ 已解决
pyspark 其实底层就是 scala,只是写了一些接口封装一下,建议看一眼源码,,