我如何跟上 AI 进展(以及你为什么也必须这样做)

这是一份关于生成式 AI 的信息汇总,包括其发展现状、常见误解、信息来源及相关人士等方面:

  • 更新时间与现状:生成式 AI 是作者有生之年发展最快的技术,但也被严重误解,已有大型公司和政府推出功能失调甚至危险的 AI 产品,部分人因对其应用理解错误导致负面后果。
  • 常见误解:常见错误是低估(认为只是炒作)或高估(认为无需程序员),根源是对技术及其发展缺乏深入理解。
  • 信息来源

    • 一般指南:靠近源头,远离噪音,默认报道有误,除非来自主要来源或推荐人士;关注值得信赖的评论者。
    • 起始点

      • Simon Willison 的博客:技术人员的最佳起点,涵盖 AI 能力前沿、应用案例、安全伦理等,如《The Lethal Trifecta》《LLMs in 2024》。
      • Andrej Karpathy:特斯拉 AI 主管,OpenAI 创始成员,能概述模型工作原理,视频对非技术人员也易理解,如《Deep Dive into LLMs like ChatGPT》《How I Use LLMs》。
      • Every’s Chain of Thought:Dan Shipper 撰写,可了解 AI 模型日常应用,如《Vibe Check: Codex》《Vibe Check: o3》。
    • 官方公告等:各 AI 实验室的公告、博客、论文等有价值信息,如 OpenAI、Google DeepMind 等,同时要警惕烹饪书可能并非最佳实践,可关注较小玩家如 Nous Research 等。
    • 高信号人士

      • Hamel Husain:机器学习工程师,提供关于 AI 系统评估和改进的优秀文章,如《Your AI Product Needs Evals》《LLM Eval FAQ》。
      • Shreya Shankar:UC Berkeley 研究员,撰写关于 AI 工程的文章,如《Data Flywheels for LLM Applications》《Short Musings on AI Engineering and “Failed AI Projects”》。
      • Jason Liu:独立顾问,ML 工程师,创建 Instructor,有关于 RAG、评估等的详细文章,如《The RAG Playbook》《Common RAG Mistakes》。
      • Eugene Yan:亚马逊 Principal Applied Scientist,深入探讨 LLM 基础和数学,如《Task-Specific LLM Evals that Do & Don’t Work》《AlignEval》《Intuition on Attention》。
      • What We’ve Learned From A Year of Building with LLMs:多位从业者总结的关于使用 LLM 构建的经验。
      • Chip Huyen:ML 工程师,著有关于 ML 系统和 AI 工程的书籍,提供关于构建 AI 系统的评论和建议,如《Common pitfalls when building generative AI applications》《Agents》。
      • Omar Khattab:Databricks 研究科学家,创建 DSPy,有关于更好抽象的文章,如《A Guide to Large Language Model Abstractions》。
      • Kwindla Hultman Kramer:Daily 首席执行官,创建 Pipecat 框架,关注实时语音/视频 AI 能力前沿,如《Voice AI and Voice Agents: An Illustrated Primer》《Advice on Building Voice AI in June 2025》。
      • Han Chung Lee:机器学习工程师,有关于 ML 技术和 AI 应用的文章,如《MCP is not REST API》《Poking around Claude Code》《MLOps Lessons from ChatGPT’s ‘Sycophantic’ Rollback》。
      • Jo Kristian Bergum:vespa.ai 创始人,关注 RAG 中的“R”,如《Search is the natural abstraction for augmenting AI with moving context》。
      • David Crawshaw:Tailscale 联合创始人,有关于软件工程和使用 AI 编程的文章,如《How I program with LLMs》《How I program with Agents》。
      • Alexander Doria / Pierre Carl-Langlais:在 Pleias 训练 LLM,有关于训练过程等的文章,如《The Model is the Product》《A Realistic AI Timeline》。
      • Nathan Lambert’s “Interconnects”:ML 研究员,有关于 AI 训练等方面的长文分析,如《What comes next with Reinforcement Learning》《Reinforcement learning with random rewards actually works with Qwen 2.5》。
      • Ethan Mollick:研究 AI 对工作等的影响,有关于 AI 工具日常使用等的指南,如《Using AI Right Now: A Quick Guide》《Making AI Work: Leadership, Lab, and Crowd》。
      • Arvind Narayanan 和 Sayash Kapoor’s “AI Snake Oil”:普林斯顿 CS 教授,分析 AI 影响,如《AGI is not a milestone》《Evaluating LLMs is a minefield》。
    • 新闻和媒体

      • Twitter / X:关于 AI 发展的大型社交平台,虽可能有毒但可善用,如 swyx 的 Latent Space newsletter 和 AI news by smol.ai 网站。
      • Dwarkesh Patel 的播客:问题研究深入,无废话。
    • 神秘领域

      • LessWrong / AI Alignment Forum:有关于 AI 对齐、治理和安全的深入讨论,如《Claude plays Pokémon breakdown》《The Waluigi Effect》。
      • Gwern:百科全书式写作,关于 AI 内容丰富且深度链接,如《The Scaling Hypothesis》《Proposal: “You could have invented transformers” tutorial》。
      • Prompt Whisperers 和 Latent space explorers:独立匿名研究人员群体,通过特殊提示探索 LLM 行为,如《Anomalous tokens reveal the original identities of Instruct models》《the void》。
  • 总结:跟上所有信息看似工作量大,但实际并非如此,可像看报纸一样浏览 Twitter 等,作者认为这是有趣的“探索”,希望这份列表能让读者兴奋起来。同时提供了包含上述推荐的 Twitter 列表链接,即将推出 RSS 友好列表。
阅读 157
0 条评论