2.4 嵌入矩阵(Embedding Matrix)

当应用算法来学习词嵌入时,实际上是学习一个嵌入矩阵

假设某个词汇库包含了10000个单词,每个单词包含的特征维度为300,那么表征所有单词的embedding matrix维度为300 x 10000,用EE来表示。某单词ww的one-hot向量表示为OwO_w,维度为10000 x 1

则该单词的嵌入向量(embedding vector)表达式为:

ew=EOwe_w=E\cdot O_w

只要知道了embedding matrixEE,就能计算出所有单词的embedding vector ewe_w

不过上述这种矩阵乘积运算EOwE\cdot O_w效率并不高,矩阵维度很大,且OwO_w大部分元素为零。通常做法是直接从EE中选取第ww列作为ewe_w

Last updated