DeepLearning.ai深度学习课程笔记
Ctrlk
  • Introduction
  • 第一门课 神经网络和深度学习(Neural-Networks-and-Deep-Learning)
  • 第二门课 改善深层神经网络:超参数调试、 正 则 化 以 及 优 化 (Improving Deep Neural Networks:Hyperparameter tuning, Regulariza
    • 第二门课 改善深层神经网络:超参数调试、正则化以及优化(Improving Deep Neural Networks:Hyperparameter tuning, Regularization and
  • 第三门课 结构化机器学习项目(Structuring Machine Learning Projects)
    • 第三门课 结构化机器学习项目(Structuring Machine Learning Projects)
  • 第四门课 卷积神经网络(Convolutional Neural Networks)
    • 第四门课 卷积神经网络(Convolutional Neural Networks)
  • 第五门课 序列模型(Sequence Models)
    • 第五门课 序列模型(Sequence Models)
      • 第一周 循环序列模型(Recurrent Neural Networks)
      • 第二周 自然语言处理与词嵌入(Natural Language Processing and Word Embeddings)
        • 2.1 词汇表征(Word Representation)
        • 2.2 使用词嵌入(Using Word Embeddings)
        • 2.3 词嵌入的特性(Properties of Word Embeddings)
        • 2.4 嵌入矩阵(Embedding Matrix)
        • 2.5 学习词嵌入(Learning Word Embeddings)
        • 2.6 Word2Vec
        • 2.7 负采样(Negative Sampling)
        • 2.8 GloVe 词向量(GloVe Word Vectors)
        • 2.9 情感分类(Sentiment Classification)
        • 2.10 词嵌入除偏(Debiasing Word Embeddings)
        • Operations on word vectors
        • w2v_utils.py
        • Emojify
        • emo_utils.py
      • 第三周 序列模型和注意力机制(Sequence models & Attention mechanism)
Powered by GitBook
On this page

Was this helpful?

  1. 第五门课 序列模型(Sequence Models)
  2. 第五门课 序列模型(Sequence Models)

第二周 自然语言处理与词嵌入(Natural Language Processing and Word Embeddings)

2.1 词汇表征(Word Representation)2.2 使用词嵌入(Using Word Embeddings)2.3 词嵌入的特性(Properties of Word Embeddings)2.4 嵌入矩阵(Embedding Matrix)2.5 学习词嵌入(Learning Word Embeddings)2.6 Word2Vec2.7 负采样(Negative Sampling)2.8 GloVe 词向量(GloVe Word Vectors)2.9 情感分类(Sentiment Classification)2.10 词嵌入除偏(Debiasing Word Embeddings)Operations on word vectorsw2v_utils.pyEmojifyemo_utils.py
PreviousImprovise a Jazz Solo with an LSTM NetworkNext2.1 词汇表征(Word Representation)

Last updated 6 years ago

Was this helpful?