SF

python后端实战经验分享

python后端实战经验分享

注册登录
关注博客注册登录
主页
关于
RSS

关注到一个 airllm 的项目

头像
universe_king
    2024-10-11 浙江
    阅读 1 分钟
    0

    from 8G显存运行Llama 3.1 405B!

    项目地址 https://github.com/lyogavin/airllm

    然后我有一个疑问留在这里了:https://github.com/lyogavin/airllm/discussions/189

    算法机器学习人工智能深度学习llm
    阅读 785发布于 2024-10-11

    头像
    universe_king
    3.5k 声望716 粉丝

    « 上一篇
    whistle 安装证书之后无法抓包的一种可能: rootca.pro 内容变更
    下一篇 »
    mac 查看充放电功率的方法

    引用和评论

    推荐阅读
    头像
    避坑指南:升级到 rabbitmq3.13.7 后队列 State crashed

    universe_king阅读 281

    头像
    一文掌握 MCP 上下文协议:从理论到实践

    陈明勇赞 6阅读 1.9k

    头像
    LRU算法,你别跑,我就要吃透你

    夕水赞 3阅读 4.4k

    头像
    AdventureX 2025 正式启动:五天四夜,120小时极限创造!一起在杭州点燃青年创新之火!

    思否编辑部赞 2阅读 5.2k

    头像
    大模型时代,后端程序员如何避免被AI卷死?

    王中阳讲编程赞 4阅读 2k

    头像
    MCP 协议为何不如你想象的安全?从技术专家视角解读

    Baihai_IDP赞 2阅读 472

    头像
    🔥吐血整理 Bolt.diy 部署与应用攻略

    北京宏哥阅读 6.1k

    0 条评论
    得票最新
    头像
    评论支持部分 Markdown 语法:**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用。你还可以使用 @ 来通知其他用户。
    ©2025 python后端实战经验分享
    除特别声明外,作品采用《署名-非商业性使用-相同方式共享 4.0 国际》进行许可
    SF使用 SegmentFault 发布
    SegmentFault - 凝聚集体智慧,推动技术进步
    服务协议隐私政策浙ICP备15005796号-2浙公网安备33010602002000号