这不是魔法。这是人工智能。而且它很出色。

几周前,作者发布了一个谷歌表单,问题简单得近乎可笑:“发布你最愚蠢的与 AI 相关的疑问,就像什么是 AI 一样愚蠢?”收到的回答很精彩,如“AI 有大脑吗?”“ChatGPT 怎么知道东西?”“AI 只是一个高级搜索引擎吗?”“AI 在思考吗?”“AI 能感觉吗?”这些问题看似愚蠢,却代表着更深层次的东西,即当某些事物模糊不清时我们都有的不安。作者回忆起第一次学习编程时,虽明白代码的逻辑,但不知代码运行时实际发生了什么,渴望像了解机械系统一样了解代码。

以汽车刹车为例,能清晰看到因果关系。要理解代码的实际运行,需退一步问更简单的问题,如在计算器上按 3 + 4 = 时发生了什么。计算器按键下的小穹顶会塌陷连接电路让电流通过,电流到达芯片(计算器的“大脑”),芯片将 3(0011)和 4(0100)视为特定的电模式,这些二进制数传递到算术逻辑单元(ALU),像由逻辑门组成的小机器,它通过翻转开关来实现加法,得到 7(0111)并将结果发送到控制显示器的芯片,屏幕显示 7。代码也类似,只是更多层、更复杂的电信号和逻辑编排。

而对于 AI,再次让人感到模糊,问三个人什么是AI,会得到三个模糊的答案。比如输入“总结这篇关于气候变化的文章”,机器能理解并给出有意义的总结,但不知其原理。输入的句子变成二进制,通过云端的数据中心的 GPU 运行神经网络进行处理,先拆分成片段(令牌),每个令牌转化为数字,然后通过层层的人工神经元进行处理,每个神经元根据训练学到的东西调整输出,信号越深,表征越抽象,最终输出下一个最可能的单词,让人感觉像理解了,但其实是在预测,是基于看到的万亿模式进行计算。

现代 AI 基于三个大的升级,更好的数据、更智能的架构(如 Transformer)和人类反馈,所以今天的 AI 感觉很敏锐,不是因为理解,而是因为记住了足够多来近似理解。现在我们正处于更有能力的边缘,进入 AI 代理时代,工具能采取行动、规划多步任务、使用其他工具并反思改进,我们要思考能否信任它,像 Watsonx 这样的平台正在努力平衡性能和责任。作者希望人们明白 AI 不是魔法,只是数学和概率,是我们自身语言、逻辑和局限性的反映,虽好奇和困惑是正常的,但深入了解后会发现是大规模的逻辑,是可以理解的。从基本计算器到云端的 AI 代理,这是现代计算的发展轨迹,现在的转变是朝着构建更智能、更安全的系统,让 AI 不仅能响应,还能推理、规划,甚至赢得信任。

阅读 175
0 条评论