我认为我现在已经完成了对通用人工智能(genAI)的思考。

作者是一位自称“Holmesian”天才的自我风格思考型程序员,后来意识到自己更像“Monkesque”。他介绍了自己处理问题的方式,即通过思考和摆弄直到写出有逻辑的文字或开源包,但对 genAI 却无法做到这一点,决定停止思考。

一、反反 genAI 内容
最近有很多“genAI 讨论很糟糕”的文章,从实用主义者角度希望怀疑论者更有针对性,但这些文章大多只是在指责“坏的 genAI 批评”,而没有真正涉及到实质性的批评,比如“气候影响”和“虚假信息”等问题。作者认为这些作者的批判性思维能力有所下降,虽然他理解他们不想点名批评,但这样的讨论缺乏实质内容。

二、审美方面
作者对 genAI 的事实分析存在严重的负面偏见,认为其大部分审美属性令人不悦,包括输出的美学元素、写作、视觉设计等。虽然有一些获奖的美学输出,但作者认为这更多是幸存者偏差或抄袭。他更关注与 genAI 系统交互的过程,认为这是一种令人痛苦的体验,比如使用 genAI 生成整个工作系统时,输出往往混乱、自相矛盾且充满错误,无法真正提高效率,反而可能产生“净负生产力程序员”。作者还以自己审查代码的经历为例,说明与“代理”LLM 一起编码的过程是去除代码审查好处的过程,令人极其不满。

三、功能方面
LLMs 能更快地生成更多文本,这是它们的一个功能,但这可能会导致一些问题,比如阻止基本问题的解决,使基础设施团队陷入遗留代码的困境。

四、经济方面
作者认为当前对 genAI 技术的狂热将导致崩溃和“冬天”,投资巨大但投资者几乎无法收回投资,这不仅是一个行业范围的经济威胁,还会导致管理层的恐慌行为,带来大量的人员变动和财富损失。

五、能源使用方面
作者最初认为 genAI 的能源影响被夸大,但最近了解到实际情况非常糟糕,虽然可能有节能的版本,但目前公众使用的并非如此。

六、教育影响
LLMs 使学术作弊猖獗,破坏了教育的结构,学生可以轻松通过而不学习任何东西,这对学习非常有害。

七、侵犯隐私方面
使用大的云模型与 ChatGPT 交流会将私人信息发送给他人,存在隐私风险,作者已经看到一些女性在 YouTube 上这样做并推荐给观众。

八、窃取方面
LLMs 的训练数据是窃取的,其爬虫无视规范和法律获取数据,破坏了他人的基础设施。

九、疲劳方面
LLMs 难以用常规的启发式方法建模和理解,讨论中存在“motte-and-bailey”现象,各种问题相互矛盾且难以解决。同时,产品化的固有模糊性也使得理解 LLM 变得困难。

十、挑战方面
作者对 genAI 工具经验不足,尝试后结果不佳,且听说的关于其使用的主观体验也不一致。同时,存在伦理和法律问题,如没有道德来源的训练数据和正在进行的诉讼,这使得他难以进一步参与相关项目。

十一、投降方面
作者写这篇文章是为了让自己放弃这个话题,他认为证明 genAI 是垃圾需要巨大的成本,而自己没有这个能力和精力。他甚至在理智上承认也许支持者是对的,也许 genAI 并没有那么糟糕,但内心仍无法完全相信。

最后,作者感谢赞助者,并表示希望读者能更谨慎地使用 genAI 工具,考虑其可能带来的危害。

阅读 11
0 条评论