Learn Beyond Limits

解构语义:从词向量到神经分类|Decoding Semantics: Word Vectors and Neural Classification

第一节:NLP 分类任务的本质挑战 在自然语言处理(NLP)的演进过程中,我们始终在解决一个核心矛盾:语言的离散符号本性与语义的连续复杂性之间的冲突。 从离散符号到分布式表示 早期的 NLP 依赖于独热编码(One-hot encoding),这种方式将单词视为孤立的符号,无法捕捉词与词之间的相似性

bolin bolin 发布于 2026-01-03

词向量——从 Word2vec 到 GloVe 的演进之路|Word Embeddings: The Evolution from Word2vec to GloVe

第一节:机器如何“理解”语义? 在深度学习统治自然语言处理(NLP)之前,计算机看待单词的方式非常简单:每一个词都被视为一个孤立的符号。通常我们使用 One-hot 编码,即给每个词一个极长的向量,其中只有一个位置是 1,其余全是 0。 但这种方法有一个致命的缺陷:它无法表达词与词之间的关系。在 O

bolin bolin 发布于 2026-01-02

词向量 —— 从 WordNet 到 Word2Vec 的演进|Word Embeddings —— The Evolution from WordNet to Word2Vec

第一节:计算机如何理解“意义”? (How do we represent meaning?) 在深入研究复杂的算法之前,我们需要先思考一个哲学问题:什么是“意义”(Meaning)? 1. 语言学中的“意义” 根据《韦伯斯特词典》的定义,意义通常指一个词、短语所代表的“思想”(Idea)。在传统

bolin bolin 发布于 2026-01-01