查看原文
其他

Stanford CS224n追剧计划-Week2(附追剧计划详细攻略)

夕小瑶 夕小瑶的卖萌屋 2021-02-05

一只小狐狸带你解锁NLP/DL/ML秘籍


前言

上周我们组织的Stanford CS224n追剧计划开启,很快收到了上千名志同道合的小伙伴的加入。在这一周的时间里,我们根据各位小伙伴的反馈和建议,制定了这个“开源追剧计划”的完整攻略


首先,重要的事情说五遍!

 

该计划纯开源!纯公益!无任何收费!!!

该计划纯开源!纯公益!无任何收费!!!

该计划纯开源!纯公益!无任何收费!!!

该计划纯开源!纯公益!无任何收费!!!

该计划纯开源!纯公益!无任何收费!!!

 

请认准活动唯一组织方「夕小瑶的卖萌屋」和唯一github项目地址:


https://github.com/xixiaoyao/CS224n-winter-together

课程大纲


课程计划一共持续11周,如下:

  • week1:Introduction and Word Vectors
  • week2:Word Vectors 2 and Word Senses/Word Window Classification and Neural Networks
  • week3:Matrix Calculus and Backpropagation/ Linguistic Structure :  Dependency Parsing
  • week4:The probability of a sentence? Recurrent Neural Networks and Language Models/ Vanishing Gradients and Fancy RNNs
  • week5:Machine Translation, Seq2Seq and Attention/ Practical Tips for Final Projects
  • week6:Question Answering and the Default Final Project/ ConvNets for NLP
  • week7:Information from parts of words (Subword Models) and Transformer architectures/ Contextual Word Representations: BERT
  • week8:Modeling contexts of use: Contextual Representations and Pretraining/ Natural Language Generation
  • week9:Reference in Language and Coreference Resolution/ Fairness and Inclusion in AI
  • week10:Constituency Parsing and Tree Recursive Neural Networks/ Recent Advances in Low Resource Machine Translation
  • week11:Future of NLP + Deep Learning

我们将每周推送两集课程视频(中英双语字幕)和官方学习资料(官方ppt/笔记/推荐阅读材料),并发布课后作业

 

我们鼓励大家将个人笔记和课后作业发布到以下开源开放课程平台,与其他小伙伴交流学习并提供参考。优质笔记和作业解决方案(务必保证原创)还可通过我们的公众号分发给更多的NLPers,提升个人品牌在业界的影响力。


开源开放课程平台


1 夕小瑶@Stanford CS224n追剧群

目前已有上千志同道合的同期小伙伴加入,加入讨论群可以提问问题、交流课程与课后作业、分享资料、助教答疑、连线斯坦福等。扫码添加夕小瑶微信,回复口令「追剧」获取入群邀请。

扫码添加好友后,

回复追剧入群

2 CS224n-winter-together开源项目

我们发起了 CS224n-winter-together github开源项目,每节课发布后,鼓励大家将自己的课后作业解决方案和课程学习笔记以markdown,pdf或jupyter notebook的格式发布到该开源项目中,与其他小伙伴分享,并获得个人品牌和github主页的曝光。


此外,开源项目会定期收录讨论群中的优质问题和解决方案,更多详情见项目README。项目github地址:

 

https://github.com/xixiaoyao/CS224n-winter-together


3 夕小瑶的卖萌屋

「夕小瑶的卖萌屋」每周一次推送CS224n追剧进展,除了包含一周的学习资料以外,还会对上一周的学习内容进行回顾总结,内容包括

  • 精选github和追剧群中的问题集中解答

  • 精选同期学员优质笔记和课程作业发布

  • CS224n追剧结束后,根据同期学员在github上提交的笔记、课程作业、project质量和讨论群的表现挑选若干名优秀学员!有惊喜等着大家哦

Week2


本周的学习内容一共有两课:Word Vectors 2 and Word Senses(词向量与词义)、Word Window Classification and Neural Networks(词窗分类与神经网络)根据讨论群中小伙伴的反馈,从这次推送开始,我们的学习视频为中英双字,结合起来学习更方便!

Word Vectors 2 and Word Senses

 

课后作业:无

 

Word Window Classification and Neural Networks

 注:感谢@gongle提供中文字幕


课后作业:

https://github.com/xixiaoyao/CS224n-winter-together/tree/master/%E4%BD%9C%E4%B8%9A/Assignment%202

 

也可在订阅号【夕小瑶的卖萌屋】后台回复【week2】获取本周课程ppt、官方笔记、参考资料和课后作业。



上周问题汇总答疑


Q1:有没有对HMM比较好的讲解?

A:感谢群友@Ember L轩 的提供支持,链接:
https://www.bilibili.com/video/av24132174?p=1 
里面对HMM的讲解是中文的,最详细的一个tutorial

Q2:有没有 word2vec 中的数学原理详解?

A:感谢群友@风雪夜归人语 提供笔记,如下
https://www.cnblogs.com/peghoty/p/3857839.html,
对哈夫曼树不是很了解的小伙伴可以看一下《算法导论》

Q3:这种根据中心词来预测中心词的上下文,有什么比较直观的解释吗?像CBOW那种,上下文预测中心词,脑海里想起来比较直观,好理解一些,但是skip-gram模型脑海里却想不到直观的解释,有什么想法或者参考资料吗?A:来自@华人助教 举个例子吧,给你若干个词,让你扩展成一句话,就类似于 skip-gram 模型,只是没有的窗口的概念,而且中心词不止一个。另一个相关的模型是训练句子向量用的 skip-thought,给定一个句子,去生成前一个句子和后一个句子。


拉上身边的小伙伴,快快上车叭~~

扫码添加好友后,

回复【追剧】入群





夕小瑶的卖萌屋

_

关注&星标小夕,带你解锁AI秘籍

内容过于专业,胆小者慎入

    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存