当数据量过大的时候,大概超过8000个点,在使用sklearn的DBSCAN算法进行密度聚类的时候会出现内存溢出,导致运行程序被kill,也就无法获取正确的聚类结果。请问有什么办法解决这种情况吗?如果使用自定义的dbscan算法,运行时间又会特别慢,而且也无法选择出合适的eps和min_sample。
当数据量过大的时候,大概超过8000个点,在使用sklearn的DBSCAN算法进行密度聚类的时候会出现内存溢出,导致运行程序被kill,也就无法获取正确的聚类结果。请问有什么办法解决这种情况吗?如果使用自定义的dbscan算法,运行时间又会特别慢,而且也无法选择出合适的eps和min_sample。
4 回答4.4k 阅读✓ 已解决
4 回答3.8k 阅读✓ 已解决
1 回答3k 阅读✓ 已解决
3 回答2.1k 阅读✓ 已解决
1 回答4.5k 阅读✓ 已解决
1 回答3.8k 阅读✓ 已解决
1 回答2.8k 阅读✓ 已解决