当前位置:   article > 正文

AI大语言模型成功是否支持维特根斯坦“意义即使用”立场?

AI大语言模型成功是否支持维特根斯坦“意义即使用”立场?

比特币为啥有用?不是它代表多少财富,而是有人使用它,只要被使用就有价值,而不在于该符号本身有多少价值。

我们所说的 "成功 "是指当前的人工智能/LLM 能够生成被人类读者认为连贯、翔实甚至令人信服的文本。

维特根斯坦的立场是:
对于使用 "意义meaning "一词的大部分情况(尽管不是全部情况)这个词可以这样解释:

  • 一个词的意义就是它在语言中的用法

来自在他的 《哲学研究》

请注意,这个问题:

  • 不是关于 "机器理解吗?机器会思考吗?它有思想/意识吗?"或诸如此类的问题,他自己说:"但机器肯定不会思考!"

  • 而只是关于语言的问题。

例如,既然机器根据统计分析生成了文本,而且这些文本在我们看来是 "有意义的",那么 "意义 "真的只是使用吗?

网友观点:
1、我认为这确实说明了一些重要的问题,也暗示了维特根斯坦的观点--但这绝对不能证明维特根斯坦的观点。

我认为它所表明的最大问题是,乔姆斯基 反对斯金纳的许多论点(在他对《言语行为》的评论中)都是有缺陷的。

乔姆斯基声称,言语行为无法通过刺激和反应的统计模式来理解:

  • 因为在这里无法理解概率,
  • 因为任何语词的概率都太小了,无论如何都无法在任何训练集中显示出来,
  • 因为我们无法将训练分为语言的一部分和世界的一部分,
  • 还因为有些语法正确的语词由于语义缺陷而从未显示出来(例如 "无色的绿色想法睡得正香colorless green ideas sleep furiously")。

LLM大模型 表明:

  • 事实上有一种方法可以使统计训练的模型产生可信的文本,包括产生从未出现过的全新语篇,从而使概率变得有意义。

  • 事实上,该模型只是看到词语对其他词语的反应,并没有一个带有真值条件的语义模块

  • 这表明,与真值条件模型相比,维特根斯坦的模型更适合产生可信的语篇。

但事实上,LLM大模型并没有交流的意图,而且(大多数情况下)也没有语言之外的感官模式,这意味着无论它们在做什么,都不太可能是人类所从事的全部意义活动。

网友讨论
1、维特根斯坦可能会第一个提出这样的论点:

  • 一个正常运行的大语言模型的存在本身并不具有任何哲学意义。

  • 构建大型语言模型是一个数学或工程问题。

此外,考虑到最近大型语言模型的发展在很大程度上是由于克服了硬件、规模和盈利能力等基础设施上的纯粹实用限制所造成的障碍,因此请抑制你的热情;理论基础设施已经存在了很长时间。如果认为对这些技术的大规模资金投入预示着任何哲学证据,那就太愚蠢了(一台正常运行的量子计算机能证明多重世界的解释吗?)

此外,大模型与 "意义即使用 "的问题没有明显的关系,因为大模型并不是维特根斯坦意义上的 "使用"。

"使用一个词 "是一系列复杂的活动和社会制度,远远超出了将一个词插入 "正确 "位置以生成一个连贯的句法串的机械过程,而这个句法串是对由确定的输入参数从外部精心设计的人为语境上下文做出反应的。

一个词的_意义_就是在不同的语言游戏中使用它。

2、来自 SEP Wittgenstein 3.3 作为使用的含义:
MeanUse>https://plato.stanford.edu/entries/wittgenstein/[**MeanUse**](/query/searchAction.shtml?query=MeanUse)

然而,对(一个词、一个命题)的使用的确定,并不是像《逻辑哲学论》中那样,被赋予任何建构性的理论构建。相反,在研究意义时,哲学家必须 "看一看 "词的各种用途。与工具的类比揭示了词语的本质。当我们想到工具箱中的工具时,我们不会看不到它们的多样性;但 "词语的功能就像这些物体的功能一样多种多样"(PI 11)。

根据上下文,单词可以具有不同的含义
使用工具类比,螺丝刀在驱动螺钉时具有一种含义,在撬开一罐油漆时具有不同的含义。

问 ChatGPT:
螺丝刀相当于撬棒吗?

答案:
虽然螺丝刀和撬杆都可以用作杠杆作用,但它们的主要用途不同。螺丝刀主要用于将螺钉拧入或拧出材料,而撬杆专门设计用于撬开或抬起物体。虽然螺丝刀在某些情况下有时可以用作临时撬杆,但这不是它的预期用途,并且这样使用它可能会损坏螺丝刀,甚至可能损坏您正在处理的物体。通常,将工具用于其预期目的更安全、更有效。

基于这个答案,ChatGPT使用的LLM大模型既支持又融合了维特根斯坦的立场。

3、根据后维特根斯坦的逻辑哲学论:

  • 词语是“意义家族”;一个词的具体“含义”取决于(或者可能是)它在上下文中的使用。
  • 说话者和听者必须共享该上下文的一部分,以免他们无法沟通(参见“私人语言”讨论,例如调查中单个人特有的感觉)。

从这个意义上说,大模型所写的单词和句子肯定是有意义的。

  • 大模型接受过大量文本的训练,其中的单词出现在不同的上下文中;这些模型“吸收”了这些背景并将其内化。
  • 当他们构建文本时,他们会根据这些存储的上下文使用单词。

在某种程度上,它们是一群原始人类说话者和听众之间的中介。

他们使用这些词的方式与原作者使用它们的方式相同;

  • 这就是为什么生成的文本中的单词具有可理解的含义,即使模型没有意识并且“不知道它在说什么”;
  • 事实上,“知道”这个词绝对不适用,因为除了单词上下文之外,机器中没有任何了解的设施。

但它却产生了意义,确实属于维特根斯坦的意思!

声明:本文内容由网友自发贡献,转载请注明出处:【wpsshop】
推荐阅读
相关标签
  

闽ICP备14008679号