这就是一款浏览器翻译插件,非常好用,并且支持自定义本地大模型接口的配置。
配置如下:
- 翻译服务: 必须使用OpenAi,这里并不是使用OpenAi的服务,而是使用他的接口协议格式。
- 自定义API Key: 因为我用的本地模型是使用ollama启动的服务,所以这里根据插件说明,配置key为
ollama
- 模型:根据自己下载的模型填写即可,经过测试,我这里用的是openchat:7b最好,理论上gemma:7b要更好一些,但是其输出的格式在网页中比较乱,所以不适合配置到这款插件里使用(也肯能是我的proms写的不好:是默认的,维修改)
- 每秒最大请求:建议设置在5以下,越大,并发越多,翻译的越慢。太少的话同一屏内页面如果有较多需要翻译的,不够用。
- 自定义 API 接口地址: http://127.0.0.1:11434/v1/chat/completions
其他参数不变。
配置好之后,会自动保存,然后将翻译服务切换成OpenAi,就可以使用了。
以上教程的使用场景:
- 测试模型的性能和功能完善度时。
- 有较多文案文档或私密文档需要翻译时。
- 无法科学上网的。
其他情况下还是使用微软和谷歌这类开放的翻译api就行了。
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。