公共资源速递
5 个模型:
* Mistral-Large-2
* Llama-3.1 系列
* Llama-3.1-8B-Instruct
* Llama-3.1-70B-Instruct
* Llama-3.1-70B-Instruct-AWQ-INT4
* Llama-3.1-405B-Instruct-AWQ-lNT4
2 个教程:
* 使用 Open WebUI 一键部署 Mistral Large 2 / Llama 3.1 405B
* 一键部署 Mistral Large 2 / Llama 3.1 405B 模型 OpenAI 兼容 API 服务
5 个数据集:
* Taptap reviews 游戏评论数据集
* TinyStories 短篇故事合成数据集
* CCPD Dataset 中国车牌检测数据集
- LAB Bench 生物学基准数据集
- NuminaMath-CoT 数学竞赛问题数据集
访问官网立即使用: openbayes.com
公共模型
该模型是 Mistral AI 发布的新一代旗舰 AI 模型 Mistral-Large-Instruct-2407-AWQ,拥有 123B 个参数,具备 128k 的上下文窗口,支持包括中文在内的数十种语言以及 80 多种编程语言,如 Python、Java、C、C++、JavaScript 和 Bash 等。在多语言能力、数学、推理、代码编写等方面都有显著提升,并在 MMLU 上的准确度达到了 84.0% 。
直接使用:
https://go.openbayes.com/quG7Y
该模型是 Meta 开源的 Llama-3.1 系列的 8B 参数大小指令调优版,适合在消费者级 GPU 上进行高效部署和开发。Llama 3.1 的新特点是指令模型在工具调用方面进行了微调,适用于 Agent 用例。
直接使用:
https://go.openbayes.com/ZwpAF
该模型是 Llama-3.1 系列的 70B 参数大小指令调优版模型,适合大规模 AI 原生应用。
直接使用:
https://go.openbayes.com/RV6AR
4. Llama-3.1-70B-Instruct-AWQ-INT4
该模型是 Llama-3.1 系列的 70B 参数大小指令调优版,并采用了 AWQ 量化技术,将模型的权重量化到 INT4 精度,在保持性能的同时减小模型大小,提高了推理速度。
直接使用:
https://go.openbayes.com/VY962
5. Llama-3.1-405B-Instruct-AWQ-lNT4
该模型是 Llama 3.1 系列大型语言模型中的 405B 参数大小指令调优版,并采用了 AWQ 量化技术,将模型的权重量化到 INT4 精度。它是当前最大的开源模型之一,支持多语言输入和输出,增强了模型的通用性和适用范围,同时引入了更长的上下文窗口,能够处理更复杂的任务和对话。
直接使用:
https://go.openbayes.com/lWtUz*
📌 Tips:以上模型都可以在算力容器中一键 input,既不占用个人存储空间,又省去了上传下载的复杂流程。
公共教程
1. 使用 Open WebUI 一键部署 Mistral Large 2 / Llama 3.1 405B
该教程是使用 OpenWebUI 一键部署 Mistral Large 2 / Llama 3.1 405B,相关环境和配置已经搭建完成,只需克隆启动容器即可进行推理体验。
https://go.openbayes.com/jJIDR
https://go.openbayes.com/Qjurp
2. 一键部署 Mistral Large 2 / Llama 3.1 405B 模型 OpenAI 兼容 API 服务
该教程为使用 OpenAI 兼容 API 部署 Mistral Large 2 / Llama 3.1 405B。「OpenAI 兼容 API」意味着第三方开发者可以使用与 OpenAI 相同的请求和响应格式,将类似的功能集成到自己的应用程序中。启动该教程后可以在任何 OpenAI 兼容的 SDK 对该模型进行连接。
https://go.openbayes.com/on5iz
https://go.openbayes.com/pVjcV
为了方便大家的理解,我们录制了详细的操作视频,小白也可以快速上手!
公共数据集
该数据集包含手游 App TapTap 上约 300 款游戏的标签评论,共 4,888 个数据示例。其中用户评论低于 3 星(最多 5 星)被视为 0(不满意),其他为 1(满意)。这两个类别的比例大约是 1:1,可用于情感分析的应用 。
直接使用:
https://go.openbayes.com/1jyEm
该数据集是一个由 GPT-3.5 和 GPT-4 生成的短篇故事合成数据集,包含的词汇量限定在 3 至 4 岁儿童理解的范围内。它专为训练和评估小型语言模型而设计,旨在训练模型生成流畅、一致、多样化且语法近乎完美的短故事。
直接使用:
https://go.openbayes.com/4rMUc
该数据集主要在中国合肥市的停车场采集得到,包含了多种复杂环境下的车牌照片,例如模糊、倾斜、阴雨天和雪天等,使得数据集在车牌识别任务中更具挑战性。数据集分为两个部分,CCPD 2019 和 CCPD 2020,其中 CCPD 2019 包含普通车牌(蓝色车牌),而 CCPD 2020 则包含新能源车牌(绿色车牌)。
直接使用:
https://go.openbayes.com/vGRJD
该数据集包含 2,400 多道选择题,用于评估人工智能系统在一系列实用生物学研究能力方面的表现,包括文献检索和推理能力、数据解读能力、接入和导航数据库的能力、理解控制 DNA 以及蛋白质序列的能力等等。
直接使用:
https://go.openbayes.com/CaErP
该数据集是 AI-MO 于 2024 年提出,包含 860k+ 数学竞赛问题-解答对,每个解答都使用了思维链 (Chain of Thought, CoT) 推理模板。数据集的来源包括中国高中数学练习题、美国和国际数学奥林匹克竞赛题。数据主要收集自在线试卷 PDF 和数学讨论论坛。
直接使用:
https://go.openbayes.com/rzGow
以上就是小贝上周在 OpenBayes 的全部更新内容啦~
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。