2 个回答

大预言模型并不是推理模型,只是按照你给出的上下文,基于语料库生成一个的回答内容。
在数学方面就是基于近似检索的能力“伪造”推理,让你感觉到他像是“理解”了你的问题,然后作出对应回答。


一个简单的例子:

Queen = King-Man + Woman
词向量示意图

说的简单容易理解一些就是你提供的上下文的字词进行向量计算,计算出来一个结果。


所以当语料有错误的时候,大语言模型给出的会是一个错误的回答。
我们在实际开发的过程中其实也遇到过,比如说在询问 ChatGPT 某一个类库是否有一个API可能实现对应的功能时,在看似一本正经的回答中对应的API其实并未在这个类库中出现过。

image.png

kimi不错

宣传栏