elasticsearch写入去重的问题

我有一些数据,可能有很多重复的,比如username,ip,UA等等,这些数据是实时产生的,也就是说可能是产生的时间是不一样的。

目前是用logstash来实时写数据进elasticsearch的,我想问的是

如何确保写入elasticsearch的数据是不重复的。

logstash在写数据之前,是否可以先到elasticsearch查询一下然后在决定写入不写入呢?

阅读 8.3k
2 个回答

Hi,你的问题解决了吗,我现在也有同样的问题。

应该根据某个字段值进行加密算法,生成唯一的id,通过id反查,可去重

撰写回答
你尚未登录,登录后可以
  • 和开发者交流问题的细节
  • 关注并接收问题和回答的更新提醒
  • 参与内容的编辑和改进,让解决方法与时俱进