我所理解的大模型:语言的幻术

 

写在前面
在我看来,我们使用 AI,尤其通过 Prompt 来使用 AI,本质是用自然语言来编排上下文,引导模型的注意力,以生成我们期待的回应。
于是,我们可以思考的更深一些。

一|大模型

常用的 AI,或者说大模型产品,无论是 ChatGPT、DeepSeek 还是其他,这些大模型都并不真正理解信息,只是在大量语言中学习到了如何复现特定的表达。

它处理的是形式,不是含义;擅长的是预测,而不是理解。大模型是通过无数次的语言关联,形成了一种“看起来像是懂了”的能力。

所谓“智能”,更多是语言表象的聪明,而非意识层面的思考。


二|Prompt

Prompt,并不是对 AI 提问,而是在设定它该如何回答。

人与 AI 的“交流”不是两个意识体的互动,而是我们用自然语言来构建上下文,引导它进入特定的语境,让它在我们设定的轨道中自动完成回应。

一个有效的 Prompt,是把 AI 限定在一个可控的思维框架里。


三|大模型的能力

AI 给出的回答,是建立在它“见过足够多”的基础上,进行“下意识二创”,让人误以为它“懂了”:

但它并不知道自己在说什么,只是在复现类似语境中人类可能说的话。

它输出的不是“真理”,而是“最有可能被说出来的话”。


四|大模型的问题

连贯的语言容易赢得信任,但信任感并不等于可靠性。

AI 经常会说错,却不会意识到自己错了。毕竟对它来说,没有“正确”或“错误”,只有“哪种说法在这个语境中最可能”。

它的逻辑听起来像是真的,其实只是它在模仿你说话的方式。

你越肯定,它看起来就越有道理。


五|人机交互

AI 的表现,很大程度上取决于提问。

你越擅长构建 Prompt,它就越像专家:不是 AI 聪明了,而是你在代替它思考。

我们训练的不只是模型,更是在训练自己如何提问、如何引导、如何设定目标。


六|技术的背后

AI 是工具,但它的“话语权”掌握在能操控输入的人手里。

模型本身并不自带偏见,但它学的是现实,而现实本身就是偏的。

AI 的输出看似中立,其实只是默认。

而所谓“默认”,往往就是主流、常规和权力所定义的样子。


七|未来

AI 改变的不只是我们的工作方式,它正在重塑我们的表达、思考和判断习惯。

我们以为是在向它获取答案,其实也在接受它划定的问题边界。

它不仅在帮我们回应世界,也在悄悄改变我们理解世界的方式。

 

(文:赛博禅心)

欢迎分享

《我所理解的大模型:语言的幻术》有1条评论

发表评论