Reader-LM 是由 Jina AI 于 2024 年开发的一系列小型语言模型,专门用于将网络中的原始 HTML 内容转换为清晰、整洁的 Markdown 格式。这些模型包括 Reader-LM-0.5B 和 Reader-LM-1.5B,它们在处理长文本和多语言内容方面表现出色,支持高达 256K 字节的上下文长度。
使用云平台:OpenBayes
http://openbayes.com/console/signup?r=sony_0m6v
登录到 OpenBayes 平台后,打开「公共教程」,找到「Reader-LM:快速高效将 HTML 转为 MarkDown」的教程。
进入到教程界面后,点击右上角「克隆」。
平台在克隆过程中以自动为我们配置好了模型文件,点击「下一步:选择算力」。
平台会自动选择合适的算力资源和镜像版本,这里使用的是英伟达 RTX 4090 的算力和 PyTorch 的镜像,点击「审核并执行」。可以使用文章开头的邀请链接,获得 RTX 4090 使用时长!
确认模型信息无误后,点击「继续执行」。
稍等片刻,待系统分配好资源,状态栏显示为「运行中」后,将鼠标悬停在 API 地址处,点击链接进入模型。进入 API 地址需要先进行实名认证~
进入之后,先在「Model」处选择模型,然后在「HTML」中输入一段文本,最后点击「Submit」生成。
可以看到上方的一栏是由「Reader LM」生成的,下方一栏是由「Markdownify」生成的。
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。