语意记忆(Semantic memory),又称语义记忆字义记忆,是一种记忆的型态。它是一种对于一般知识的事实与概念的了解,透过语言、文字、数字、算法等抽象性的了解来形成记忆。语意记忆通常是经由情节记忆发展而来,是一种客观性的知识,与个人经验无关。

外显记忆(或陈述性记忆 )是对事实或事件的记忆,可以被清晰地储存及提取,外显记忆有两种类型,而语意记忆是其中之一。[1]在我们一生中所累积的世界的一般性知识即为语意记忆。[2]这种常识性知识(common knowledge) (事实、观念、意义和概念)会依赖于文化,并与经验交织在一起。语义记忆与情节记忆有所区别,情节记忆会记录生活中所发生的经历和特定事件,我们可以由此重建任何给定的点。[3]例如,语义记忆可能包含与猫有关的资讯,而情节记忆则可能包含抚摸某只猫的具体记忆。通过过去所学的知识,我们可以学得新的概念。[4]陈述性或外显记忆对应的是非陈述性记忆内隐记忆[5]

模型

语义记忆的本质不同于情节记忆,它的内容不像情节记忆那样与任何特定的经历联系在一起。相反地,在语义记忆中所储存的是经验的“主旨”,这是一种适用于各种经验对象的抽象结构,描述对象之间的分类和功能关系。[6]因此,完整的语义记忆理论不仅必须说明此类“主旨”的表征结构,还必须说明如何从经验中提取它们。目前已经提出了多种语义记忆模型,总结如下。

网络模型

在许多语义记忆理论中,各种网络都扮演着不可或缺的角色。一般而言,网络是由一组节点所组成,节点之间以链路联结。节点可以表示概念、单词、知觉特征,或者根本不代表什么。这些链路可能是有权重的,使得某些链路比其他链路更强,或者等效地说,链路有着不同的长度,使得穿过某些链路比其他链路更耗时。这些网络的特征都已被用于语义记忆模型中,其示例如下。

可教学的语言理解者(TLC)

第一个语义记忆网络模型的示例是“可教学的语言理解者”(TLC)。[7]在此模型中,每个节点都是单词,代表着一个概念(如“鸟”)。每个节点都储存着一组属性(例如“可以飞翔”或“具有翅膀”)以及指向其他节点(例如“鸡”)的指标(即链路)。节点会直接链结到其子类别或超类别的节点(换言之,“鸟”将同时连接到“鸡”和“动物”)。因此,TLC是一种分层知识表征,其中高级节点代表大型类别,该节点会(通过子类别的节点,直接或间接地)连接到许多该类别的实例,而代表特定实例的节点处于较低级别,仅与其超类别连接。此外,属性会被储存在它们所适用的最高类别级别。例如,“黄色”将与“金丝雀”一起储存,“具有翅膀”将与“鸟”(向上一级)一起储存,“可以移动”将与“动物”(再上一级)一起储存。节点还可以储存对其上级节点的属性的否定(即“ 无法飞翔”将与“ 企鹅”一起储存)。这就提供了一种表征经济性,因为属性仅储存在必不可少的类别级别上,也就是说,该属性会成为这个点上的关键特征(请参阅下文)。

TLC中的处理是某种形式的扩散激活[8] 换言之,当一个节点变为激活态时,该激活透过节点之间的链接传播到其他节点。在这种情况下,回答“鸡是鸟吗?”这个问题的时间是 “鸡”和“鸟”节点之间的激活必须扩散到多大程度的函数,即“鸡”和“鸟”节点之间的链接数量。

原始版本的TLC并没有对节点之间的链接进行加权。虽然这版本的TLC在许多任务中的表现与人类相当,但是没有预测到,人们比起那些不太典型的例子,会更快地回答更典型类别的问题。[9]科林斯和Quillian随后修改了TLC,纳入了加权链接来解决这个问题。[10]新版的TLC能够解释熟悉效果典型性效果 。它的最大优点是它清楚地说明了促发 :“如果相关资讯(即 “促发物”)在很短的时间内已经呈现过,那么更有可能从记忆中提取资讯。”还有一些记忆现象是TLC无法解释的,像是当相关节点在网络中相隔很远的时候,为什么人们能够快速反应明显错误的问题(如“鸡是流星吗?”)。[11]

语义网络

TLC是一类更通用模型的实例,该模型称为语义网络。在语义网络中,节点代表着特定的概念、单词或特征。也就是说,每个节点都是一个“符号”。语义网络一般不会像神经网络那样采用分布式的概念表征。语义网络的定义性特征是它的链接几乎总是定向的(也就是说,它们仅指向一个方向,即从基点到目标),且链接有着许多不同的类型,每一种类型都代表着任何两个节点之间的特定关系。[12]语义网络中的处理过程通常采用扩散激活的形式(请参见上文)。

语义网络在篇章分析逻辑理解模型以及人工智能的应用最为广泛 。[13]在这些模型中,节点对应的是单词或词根,而链接代表它们之间的句法关系。语义网络在知识表征中计算实作之范例,请参见Cravo和Martins(1993)。[14]

特征模型

特征模型认为,语义类别是由相对散乱的特征集所组成。Smith、Shoben和Rips(1974)提出的语义特征比较模型英语Semantic_feature-comparison_model[15]认为,记忆是由不同概念的特征列表所组成。根据这种观点,我们无法直接提取类别之间的关系,而是透过间接的方式计算出来。例如,主体可能透过比较代表主谓概念的特征集来验证一个句子。这种计算特征比较模型的提出者包括Meyer(1970)[16]、Rips(1975)[17]、Smith等人(1974)。[15]

早期对知觉和概念分类的研究工作假设类别具有关键特征,而类别成员可以透过特征组合的逻辑规则来确定。较近期的理论则认为,类别可能具有不明确或 "模糊 "的结构[18],并提出了概率模型或全局相似性模型来验证类别成员的资格[19]

关联模型

关联为两个资讯之间的关系,是心理学中的一个基本概念。对于记忆和认知模型而言,不同层次的心理表征之间的关联至关重要。记忆里的项目之间的关联集相当于网络中的节点之间的链路,每个节点对应于记忆中的唯一项目。事实上,神经网络和语义网络可以被描述为认知的关联模型。然而,关联通常被更清楚地表示为一个N×N矩阵,其中N是记忆中项目的数量。因此,矩阵的每个单元对应于行项和列项之间的关联强度。

关联学习一般被认为是个赫布过程;也就是说,每当记忆中有两个项目被同时激活,这两个项目之间的关联就会越来越强,如果越是激活其中一项,那么另一项也激活的可能性就越大。关联模型的具体操作方法见下文。

搜索联想记忆(SAM)

搜索联想记忆(SAM)模型是采用关联方法的标准记忆模型[20],虽然SAM最初是为了对情节记忆建模,但其机制也足以支援一些语义记忆的表征[21],SAM模型包含短期储存(STS)和长期储存(LTS),STS是LTS中短暂激活的资讯子集。STS的容量有限,并且透过对可采样的资讯量、采样子集的激活时间作出限制,进而影响提取过程。LTS中的提取过程具有线索依赖性和概率性,亦即线索会启动提取过程,并从记忆中随机选择资讯。抽样概率取决于线索与被提取项之间的关联性强弱,随着抽样资讯关联性增强,最终会选出一个资讯。缓冲区的大小被定义为r,这并非一个固定的数字,当项目在缓冲区中排练时,其关联强度随缓冲区内总时间而线性增长[22]。在SAM中,当任何两个项目同时占据一个工作记忆缓冲区时,其关联强度就会递增。因此,经常同时出现的项目之间的关联强度更加强健。在SAM中,项目也与特定的语境相关联,而这种关联的强度由每个项目在特定语境中存在的时间长短决定。因此,SAM的记忆是由记忆中的项目与项目之间,以及项目与语境之间的关联所组成。一组项目和语境的出现,更有可能唤起记忆中某些项目的子集。项目对其他项目的唤起程度(无论是由于共同语境,亦或者是同时发生)都是项目语义关联性的指标。

在SAM的更新版本中,已经存在的语义关联使用语义矩阵来解释。在实验过程中,语义关联保持不变,显示出语义关联不受实验的情节经验影响之假设。SAM模型中有两种方法衡量语义关联性:“潜在语义分析”(Latent semantic analysis,LSA)和“词语关联空间”(Word association spaces,WAS)[23]。LSA方法指出,单词之间的相似性是透过单词同时在局部语境中出现来反映。[24]WAS则是透过分析自由关联规范的数据库来发展的。在WAS中,具有相似关联结构的词会被放置在相似的空间区域中。[25]

ACT-R:生产系统模型

ACT(英语:Adaptive Control of Thought,思想的自适应控制)[26],以及后来的ACT-R理论(Adaptive Control of Thought-Rational,思想的自适应控制-理性)[27]使用“意元”(chunk)来表示陈述性记忆(语义记忆是该记忆的其中一种),“意元”是由一个标签、一组与其他意元的明确关系(即 “这是一个__。”或“这个有一个__。”)、任意个意元特有的属性所组成。那么,鉴于每个节点都是一个具有独特属性的意元,而每个链路都是意元与另一个意元的关系,因此可以将意元映射为一个语义网络。在ACT中,意元的激活度会随着该意元的创建时间增加而减少,并随着该意元在记忆中的提取次数上升而增加。意元也可以从高斯噪声以及它们与其他意元的相似性中获得激活。例如,如果用“鸡”作为提取线索,那么“金丝雀”将凭借其与该线索的相似性(即两者都是鸟类等)来接收激活。当从记忆中提取物品时,ACT会查看记忆中最活跃的意元,如果高于阈值,该意元就会被提取出来,否则就发生了 “遗漏错误”(error of omission),即该项目会被遗忘。此外,还有一个提取潜伏期,它与被提取的意元对提取阈值的激活超出量成反比。这个潜伏期可被用来衡量ACT模型的响应时间,与人类的表现相比较[28]

虽然ACT是种一般性的认知模型,而不是记忆模型,但如上文所述,它提出了记忆结构的某些特征。特别是,ACT将记忆建模为一组相关的符号意元,可以透过提取线索来触接记忆。虽然ACT中使用的记忆模型在某些方面与语义网络相似,但所涉及的处理方式更类似于关联模型。

统计模型

潜在语义分析(LSA)

语言超空间类比(HAL)

语义记忆的其他统计模型

相关条目

延伸阅读

外部链接

Wikiwand in your browser!

Seamless Wikipedia browsing. On steroids.

Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.

Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.