我与 LLM 的编码经验—kokada

主要观点:AI 疲劳真实存在,AI 内容泛滥,但大型语言模型(LLM)可以是有用工具,如在解决编码问题方面。谷歌搜索质量下降,作者逐渐依赖 LLM,此文聚焦 LLM 的优缺点,特别是在解决编码问题上。并以 ChatGPT 为例,分享与它的互动经历,包括好的、惊人的、坏的和丑陋的方面。
关键信息:

  • 作者不买 ChatGPT 订阅,示例多基于 GPT-3.5 或 GPT-4o mini。
  • 在 Go 语言中,ChatGPT 能正确推断语境并提供较好的连接处理代码,比作者自己的代码更好,但未提及设置读取超时和重用底层连接的陷阱,且丢弃了读取的字节数。与在 StackOverflow 搜索到的结果对比,ChatGPT 给出更好答案。
  • 为 Goldmark 写扩展以重写链接的代码,ChatGPT 给出几乎正确的代码,但有未使用和缺失的导入以及编译错误,该代码仍用于博客。
  • 对于在 IntelliJ 中通过项目配置 VM 选项的问题,ChatGPT 给出的sbt-idea-plugin方案错误,该插件不能根据 SBT 配置生成项目文件。
  • ChatGPT 对一些问题的回答有误,如误认 Go+没有 map,称 IntelliJ 宏可参数化 VM 选项等。
    重要细节:
  • 作者在不同场景下与 ChatGPT 的互动及代码示例,如 Go 语言的连接处理代码、Goldmark 扩展代码、IntelliJ 配置 VM 选项等。
  • 提及各种工具如 Google Search、GitHub Copilot 等,以及它们与 ChatGPT 的比较。
  • 强调即使 LLM 有好的表现,仍需有人验证答案,因为 LLM 会幻觉且有时需要额外输入。
阅读 10
0 条评论