elasticsearch 应该是主流了。虽然 es 本身不支持中文分词,但是有一堆 es 的中文分词插件。我只会用 ik(elasticsearch-analysis-ik),但不知道算不算最好,你也可以自行百度查找其他插件。然后索引和搜索都可以通过 es 的官方包完成,很简单。推荐就是核心竞争力了,目前在 node 下实现的算法基本是空白,这也不是 node 擅长的领域。你想啊,算法工程师有几个用 node 作为主语言的?前端转过来的有几个懂算法?更不要说 node 本身在效率上也处于劣势。个人建议 node 作为中间服务器,后端还是用 python 吧,现成的资源比 node 丰富很多。
既然是特地指定平台,可能不好接受重新换语言搭建的成本,不然Python的是比较多几年前有搜过Nodejs的,搜到一个结巴分词,刚刚去看看还在更新 github NodeJieba是"结巴"中文分词的 Node.js 版本实现, 由CppJieba提供底层分词算法实现, 是兼具高性能和易用性两者的 Node.js 中文分词组件。 词典载入方式灵活,无需配置词典路径也可使用,需要定制自己的词典路径时也可灵活定制。 底层算法实现是C++,性能高效。 支持多种分词算法,各种分词算法见CppJieba的README.md介绍。 支持动态补充词库。
elasticsearch 应该是主流了。虽然 es 本身不支持中文分词,但是有一堆 es 的中文分词插件。我只会用 ik(elasticsearch-analysis-ik),但不知道算不算最好,你也可以自行百度查找其他插件。
然后索引和搜索都可以通过 es 的官方包完成,很简单。
推荐就是核心竞争力了,目前在 node 下实现的算法基本是空白,这也不是 node 擅长的领域。你想啊,算法工程师有几个用 node 作为主语言的?前端转过来的有几个懂算法?更不要说 node 本身在效率上也处于劣势。个人建议 node 作为中间服务器,后端还是用 python 吧,现成的资源比 node 丰富很多。