本周公共资源更新
5 个模型:
*phi-2
*Qwen-1.8B
*Qwen-1.8B-Chat
*Qwen-72B-Chat-Int8
*IP-Adapter-FaceID
2 个数据集:
*Conceptual Captions 概念数据集
*CrossDock2020 生物分子数据集
小贝快讯:
*NVIDIA RTX A6000 强势上线
*优质创作者招募计划火热进行中
访问官网立即使用:openbayes.com
公共模型
- Phi-2
Phi 是微软发布的一系列参数规模在几十亿的大模型。Phi-2 是当前最新的 27 亿参数的 Transformer 模型。 在对通识、语言理解和逻辑推理进行基准测试时,Phi-2 在不到 130 亿参数的模型中展现了接近最先进水平的性能。
- Qwen-1.8B
通义千问-1.8B (Qwen-1.8B) 是阿里云研发的通义千问大模型系列的 18 亿参数规模的模型。Qwen-1.8B 是基于 Transformer 的大语言模型, 在超大规模的预训练数据上进行训练得到的。
- Qwen-1.8B-Chat
该模型是研究团队在 Qwen-1.8B 的基础上,使用对齐机制打造的基于大语言模型的 AI 助手 Qwen-1.8B-Chat。
- Qwen-72B-Chat-Int8
通义千问-72B (Qwen-72B) 是阿里云研发的通义千问大模型系列的 720 亿参数规模的模型。该模型是在 Qwen-72B 的基础上,使用对齐机制打造的基于大语言模型的 AI 助手 Qwen-72B-Chat。
- IP-Adapter-FaceID
该模型可以仅通过文本提示,生成多种风格的面部图像。目前推出的是 IP-Adapter-FaceID 的实验版本。
公共数据集
- Conceptual Captions 概念标题数据集
Conceptual Captions 是一个包含(图像-URL、标题)对的数据集,用于训练和评估机器学习图像标题系统。
- CrossDock2020:ResGen 研究处理的数据集
该数据集的初始数据包含超过 2,200 万个蛋白质-小分子配对 (protein–ligand pairs),该数据集可用于蛋白质-小分子相互作用研究,特别是用于评估分子对蛋白质口袋的结合能力。
NVIDIA RTX A6000 强势上线
随着大模型参数规模日益膨胀,大显存的 GPU 需求也在持续攀升,为了满足用户在实际场景中的使用需求,OpenBayes 平台现已上线大量单卡、双卡、四卡、八卡 NVIDIA RTX A6000 资源, 即日起只需登录 http://OpenBayes.com,即可自由租用相关资源。
OpenBayes 优质创作者招募计划
OpenBayes 平台「优质创作者招募计划」火热进行中 。
如果您愿意以图文或视频的形式,分享在 OpenBayes 平台上的实操过程,都可以加入我们~
凡加入「优质创作者招募计划」的开发者,发布内容后将根据内容质量均可获得 10-100 小时 NVIDIA RTX 4090、A6000、RTX 3090、A100 等免费算力资源。
感兴趣的小伙伴可以添加小贝总「OpenBayes001」,了解更多招募详情~
以上资源都可在 OpenBayes 平台一键 input 使用啦!还没注册过OpenBayes 的新用户使用专属邀请链接注册,可获得 60 分钟 RTX 4090 使用时长哦~支持累积,永久有效:用我的专用邀请链接,注册 OpenBayes,双方各获得 60 分钟 RTX 4090 使用时长,支持累积,永久有效:
https://openbayes.com/console/signup?r=antonia0912_2Qud
快来点击查看详情吧~
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。