我正在尝试过滤基于如下的 RDD:
spark_df = sc.createDataFrame(pandas_df)
spark_df.filter(lambda r: str(r['target']).startswith('good'))
spark_df.take(5)
但是出现以下错误:
TypeErrorTraceback (most recent call last)
<ipython-input-8-86cfb363dd8b> in <module>()
1 spark_df = sc.createDataFrame(pandas_df)
----> 2 spark_df.filter(lambda r: str(r['target']).startswith('good'))
3 spark_df.take(5)
/usr/local/spark-latest/python/pyspark/sql/dataframe.py in filter(self, condition)
904 jdf = self._jdf.filter(condition._jc)
905 else:
--> 906 raise TypeError("condition should be string or Column")
907 return DataFrame(jdf, self.sql_ctx)
908
TypeError: condition should be string or Column
知道我错过了什么吗?谢谢!
原文由 Edamame 发布,翻译遵循 CC BY-SA 4.0 许可协议
DataFrame.filter
是DataFrame.where
的别名,期望 SQL 表达式表示为Column
:或等效的 SQL 字符串:
我相信您在这里尝试使用
RDD.filter
这是完全不同的方法:并且不会受益于 SQL 优化。