星期一大家都很高兴我们要走了
今天开始，通过审查开始
从上周开始的烘烤结果如此
就像上周的一次复习一样
是在进行情绪分析的任务
是的，这是三级任务
积极的中立和消极我们是
评估斯坦福大学的情绪
树库
测试集共有2,200个
句子嗯我们使用宏f1 
得分作为评价指标是的
基本上就像准确的
每个班级，然后平均所有
那些是的，所以我们有一个非常不平衡
测试集与900的积极
和负面的例子，然后400 
中性，一般来说最差
表现出现在中立
这是一种预期给予的类
这个阶级不平衡，所以这里是一个
你们得分的直方图
提交是的，但是最高分是
几乎像0.7，模式就在附近
 0.5 0.55你可以看到像
与我们相比，你落在哪里
只是基本你知道克加softmax 
基线实际上有点像
在这个桃子之上这么漂亮
有趣的是，你知道基本知道
克可以帮你到目前为止
是的，所以我们有赢家
烘烤哦之前那会是什么
将高分与低分区分开来
得分，所以我们看了一下
喜欢出现在中的令牌
提交我们的最高分
有点被定义为分数
约25/8以上，你可以看到它
就像你知道的那样
深度学习方法和人
杠杆bert表示是啊和
然后在低分中它是一种
混合袋，你看到一些像
特征函数的基线
在最初的任务中以及
像一些发光
令牌很有意思
伯特超越你所知道的程度如何
甚至都不是真的
过时了，但就像你知道的那样
我们去年刚刚使用的那些
就像赢得烘烤一样，现在就是你
知道在这个低分部分这样的
非常有趣，是的
现在我们的第一名小组如此
祝贺第十三组
获得第六点九分的得分
使用他们的平衡数据集和
端到端的Burt方法是的，所以组
十三使用了一些聪明的数据
首先是流程预处理
平衡数据供应过采样
这是非常聪明的数据
设置不平衡，我之前提到过
然后实际上喜欢重新加入
数据集中的收缩，这是
有点像Burt是如何的神器
训练有趣，喜欢
你知道这就像你知道撤消
实际上是预处理的
帮助了一点点
表现然后他们训练了
 Burt模型和结束基本上就像
为情绪微调Burt 
分类任务是的，所以一个好工作
现在为我们的第二名队伍
团队组51 um采用了类似的方法
使用Burt创造未来
表示然后使用神经
除此之外的净分类器
祝贺51组
你知道，得分为0.65 
做类似的微调
 Bert在SST然后进行推理
为每个人生成功能
句子，然后喂入我们的
火炬或房子火，他们也使用
类似上采样的策略
来自中立阶层的例子
在课堂上更好，我们也想要
指出其他一些有趣的
除了我们的前两个之外的方法
团队，所以我们想喊出团队
实际上做得非常好的九个
得到我们与我们相同的分数
顶级球队，但不幸
我们没有资格赢得这场比赛
因为他们实际上使用了子树
标签，但它仍然是一个非常有趣的
方法所以我们想指出来
这个小组实际上制定了任务
作为使用序列排序任务的序列
就像包含句子的字符串一样
注释和街道树结构
作为输入序列，然后是
情绪标签作为输出序列
长度1这样很酷
基本上是唯一可以想到的群体
以这种方式制定问题
实际上是其中一个唯一的群体
顶级球队不使用Bert或Elmo 
然后只使用两层
用于分类的双向STM 
然后我们也想喊出来
任何尝试未来工程的人
不幸的是功能工程
没有成为像顶部的任何一个
评分系统，但这很有趣
对我们说教学团队因为最后
实际上，这两年的前两个系统都是
使用手工打造的基于单词的包
具有简单物流逻辑的功能
回归分类器虽然今年
很多顶级球队都很依赖
学习它就像班次一样
在这个领域是的，所以这些都是顶级的
从去年开始的这两支队伍
分数与今年不相上下
因为他们是为了二元任务
我们在做三元任务
今年但是我们的教学团队是
在这里很好地代表，但在第一位
去年
 Jada的团队使用了预处理
就像删除标点符号一样
字符Engram各种功能
长度以及TF ID，然后只是
逻辑回归分类器和那
设法变得非常好
在这个任务上得分，所以是的
很有意思，就像你知道的那样
我们去年的表现如何
像未来工程手册一样
就像完全取代了这种
年创造大规模计算
预先培训的Burtt表示和
第二名，露西的团队大喊大叫
露西也用在某种地方
特征工程方法
你有非常非常丰富的功能
知道克克否定词
利用情绪词汇是的
这也是一个喜欢的方向
它肯定会去，我相信你
做情绪任务可能就像在你的
类项目或类似的东西
是的，我认为那就是任何人
对上周的问题有任何疑问
我在这里排名前两位球队
想知道这些是否有点
从理论上讲，它是相同的系统
听起来像是第一支使用Byrd和
在顶部使用PI火炬层来适应
分类器可能是深刻的和
第二名的队员刚用过我们的
分类器而不是那个
释放的美德让我不知道是不是
只是他们是如何的差异
优化或实际可能有一个
我有更深层次的差异
俯瞰，但他们看起来非常相似
是的，因为他们一定是那个团队的一员
只是没有使用火炬外壳和他们的
自己的分类器而不是那种东西
每个PI火炬诞生的一部分
代码发布是的，这意味着这个群体
就像调整决赛一样
伯特模型的层次像
像PI一样预先存在
实施是的，看看我们的深刻
你在网上学习代码
在代码中的某个文件中
基地有人做了一些非常小心
预处理大概是这样的
有点适当进入伯特
词汇或东西是的我是谁
今天真的好奇这个
您应该首先阅读第一页
你的令牌让它看起来更宽广
文本
谢谢，是的，我有我的
幻灯片和一切也许这将是
我的新解决方案很好，所以谢谢你
首先是我想要的烘焙材料
说亚马逊给了我们足够的代码
我们可以为AWS提供50美元的代码
第一个赢得烘烤的人
团队获得了他们的代码并获胜
团队会得到代码，我们会保留
它必须只是顶部
因为我们在数字上得分系统
一些人没有那么多额外的东西
更多的团队可能获得额外的信贷
但是我们可以奖励它很好
最顶级的团队其他烘焙的东西
所以我想在广场上发布了3号烤肉
它看起来很像是直截了当的
烘烤程序1 
感觉你需要下载一些
数据，然后你几乎
只是运行你的代码
书面
但当然可以在Piazza上发布
是我还想要的任何问题
提到有一个PI火炬和
星期五和团队的numpy教程
为我制作了很棒的笔记本
认为这是特别的
所以我在主页上发布了这些
在第一天的顶部有点
修正主义但它有点像
介绍木星笔记本和
现在你有numpy和pi的东西
火炬，我认为时机是
非常好，因为你们可能会
考虑你想做的项目
对于您可能想要的项目
潜入PI火炬一点点
那么我想在这里做的最后一件事
在我潜入nli之前就是这样
介绍作业四和烘烤
以及我想先做的原因
是工作，这是一种逆转和
我们打算谈谈我们要谈谈
关于整周的自然痛苦推断
本周和烘烤是关于
自然语言推断，但因为
真正好的和盟友的数据集是
巨大的我不想要你做
为了烘烤，因为它会
消耗了大量的时间和很多
资源，所以而不是作业四
我们要做的只是做四个
单词级别和tailmon任务，这是
有点好，因为它就像一个
整个nli问题的缩影吧
只是消除了很多开销
处理大型数据集，它的种类
在某些方面受到很好的限制
有趣的方式让我开始吧
介绍它是因为它们有点像
我有两三个知识分子的东西
认为值得一提的是第一个
整个问题集的框架
培训实例将是
像河马和哺乳动物这样的对话
人们实际上已经开发了标签
数据集只是告诉你这些
在单词级别是否第一
需要第二个基本上是
任务所以它是一个二进制任务
这样的词汇基本上是因为
它只限于你拥有的单词
这里只做一些决定
第一种类似于烘烤你的人
需要决定你将如何
代表那对话
河马和哺乳动物只是你的物品
词汇但你可以查看它们
一些嵌入空间首先和
你可以决定嵌入空间和
它可以是任何嵌入空间我想
基于过去的烘烤的聪明举措
是使用像伯特或埃尔莫这样的东西
抱歉，我的手机是硬连线的
很快关闭
尽量避免这样，所以你要看
河马和哺乳动物的嵌入
空间你也可以决定你的方式
我认为他们会代表他们
就像我在这里建议的那样
连接但你可以做点什么
否则，如果你想要差异或
乘法或某些你
我想这样做
所以嵌入然后表示和
然后从那里你会想要适合
某种模式对，所以最简单
事情就像适合基本的
分类器，但你也可以
非常深的网络在那里很多
隐藏的表示，我会
完全由你自己决定
我希望在那里做一个基线
一种浅层深度学习模型
但你可以做任何你想做的事
那是有道理的烘烤
你可以看到这是一个缩影
整个nli问题因为之后
所有这些都只是河马和
哺乳动物都可以是完整的句子
是非常复杂的名词短语但是在
最后我们还有三个标签
你会看到我们的输出空间但是
从根本上说这是同一种
问题只是意味着你可以
迭代得更快，因为
数据集较小，而且数量较少
处理那里有另一个微妙之处
我想在这里指出你
有一个附带的数据集
笔记本已经存在于您的数据中
文件夹和有两个条件
我称之为第一个边缘
不相交，这只是意味着
对你进行训练和测试
训练和开发，但也测试哪些
我将作为制作的一部分发布
在边缘层面，事物是不相交的
这意味着你可以看到一个
在火车和火车上有很多相同的词汇
测试时间就像河马和哺乳动物一样
如果你在训练中看到它们，你就不会
确实看到那对，但你可能有
看到河马与其他单词配对
哺乳动物与其他词汇配对
这种标准配方
问题，但它很容易获得
你知道系统的感觉
结果往往看起来非常好
性能条款，但你可能会怀疑
他们是否真的学会了
概括，因为它可能是那样
他们只是学会了
在空间内进行三角测量
他们在
在测试集和你做得很好
有点可以看到因为一些
基准，我要告诉你
关于以后往往是非常高的
这个问题就好像我只给你一样
第二个字我们只称之为
假设也许你得到80％所以我
不会专注于那项任务
相反，我们会专注于此
我称之为单词不相交的条件
这意味着什么是火车
和开发以及测试
词汇是不相交的，所以这意味着
如果你看到河马，哺乳动物和训练
你不会看到这两个词
在测试时，因此需要
你不会看到你没有
在右边看到那些边缘，所以这是
一个严格的问题，真的
不仅测试你的网络能力
做好现场的话，但也要
从中推广到其他部分
词汇是的，你提到了一点
以上是其中一种可能性
嵌入只是一个随机嵌入
我们正在努力工作
当然可以随机嵌入它
不是的，你的直觉是完全正确的
如果你有一个随机的首字母
嵌入然后你将产生随机
结果在边缘上的结点不相交
你可以做得很好
你会不相干但是不相交
比目鱼，这意味着你
需要用丰富的空间进行初始化
你会在我的基线中看到
放下这里，我做了手套，但很亲切
令人震惊和有趣的事情
关于这是初始化
我和Bert和Elmo一起假设的手套
真的给你很大的牵引力
这个问题甚至在M字上不相交
条件所以我走过去了
在这里向您展示更多细节
笔记本这两个数据集是什么
喜欢和我有点建立这个
在这里争论为什么我们可能想要
我也使用单词disjoint条件
设置使用这些手套的基线
这里的矢量就像那种
这些词的基本表示
你只是以一种方式进行手套查找
你们已经完成了早期的问题
以及我的基线组合功能
对于我刚刚使用的两个词
连接然后为
正如我在使用这个火炬之前说的那样
浅层神经分类器
当然回购50维隐藏
表示的数量适中
迭代，你们可能也是如此
习惯于此时我们有这个
那种小实验包装
应该让你很容易
运行实验，所以你知道模型是
您想要测试它的模型
可能是什么
手套vac和vet连接那些
真的是你想要的三点
变化，你可能只是
想要使用火车和开发人员因此你的
你的发展阶段对我而言
基线我得到了宏观的第六点
九，这很好但很明显
你做完作业的目标
而烘烤是为了看你有多少
可以用a构建那个基线
更丰富的网络或更有趣
表示或更多不同的表示
将两个单词向量组合成的方法
形成你的输入表示
到目前为止任何问题都有意义
评论关注它应该是一个有趣的
因为你可以真正开发模型
快，所以你应该能够尝试很多
不同的东西，这是一种
期待我想要的东西
为你讨论，但让我走吧
通过家庭作业的理由
所以第一个被称为假设
正如你所看到的那样只有基线
通过物质人们发现了一个
几年前你可以做到
如果你真的很好的nli数据集
把我的河马中的第一部分丢掉了
哺乳动物对只是扔出河马和
让你的分类纯粹在
哺乳动物这个词的基础和我想要的
和我讨论，因为我认为
这是一件有趣的事情
在这些数据中混合可能是一些工件
设置但也是一个非常深刻的事实
词典是如何组织的以及它是什么
意味着享有权利
关系我的意思是你想到的
哺乳动物并不奇怪
会更有可能发生在
权利和蕴涵对比
离开是因为它的普遍性哦和
实际上这只是关于假设的事实
基线是由一名学生发现的
这个课我认为真的很酷
据我所知，他是第一个
有人为SN Li观察这个
数据集很大
蕴涵数据集是一个项目
这个课程在2015年然后
随后还有其他一些团体
发现它并量化它是什么
我们要求你这里做的就是
看看假设有多强
基线是针对此数据集的
我们试图发出信号
如果你有这些以前的工作
然后基本上解决了一个问题
你应该只适合一个假设
基线，因为随机不是你的
基线根本就是这个
所以它要求你这样做那很漂亮
直截了当然后它只是问
你本着自由思考的精神
关于这个探索替代方案
表示串联以便
你可能会想到一些有趣的东西
你可以采用哪种先验方式
结合两个表示
也许差异很有意思
蕴涵空间或乘法或
类似的东西然后就是这样
 PI火炬教程可能会来的地方
在我要请你做一点
一点点的工作分类
我们的PI火炬课程和添加
基本上是另一层和辍学
层作为一种形式退出
正规化很容易
在pi火炬中实施我有点儿
这里提供了数学细节
但我想你会发现的
重要的是只使用PI 
火炬文件，以弄清楚如何
添加到您的顺序模型中
出层然后你就会离开
再次奔跑的精神就是这样
让你思考如何
您的网络的正规化可能
是一种要避免的强大技术
过度拟合和类似的东西，我
有点开始你并给你一些
说明，我们很乐意谈谈
和你谈谈最好的战略
这是广场上的编码然后
最后通常你会做你的原创
系统我们会看到会发生什么
我不认为我必须施加任何规则
在这个你可以从下载矢量
你可以在网上下载代码
只要你像做某事一样
原创它和我能的原因
说这是因为烘烤会
在我提供的数据集上进行的
没有给你所以你可以做到这一切
我们想要的数据开发
提供只是不要太过分
因为那样你会在考试时间受到打击
在烘烤
合理
在我们潜水之前对此有任何疑问
进入常规材料，这是一个
你可以瞥见一下这个问题
正在探索，但我们要去做什么
关注本周是其中的问题
丰满这个自然的问题
语言推断我认为这是一个
奇妙的问题因为我认为
得到真正深刻的东西
我们正试图在NLU和那里做
是一个非常有趣的丰富
此时数据集因为该字段
有一种三角测量
有趣的收集方法
这些数据集和人们都找到了
众议院很容易
好的我的意思是有一些问题
我们将讨论但总的来说
有点生产dand所以
你有多个数据集
相同的格式使它很容易
实验所以我不鼓励有
这门课程的默认项目是因为
我认为这对你们来说很有意思
获得创意，但如果有默认值
项目我当然会说它应该
与nli有关，因为它测试
我们有很多概念
介绍了一个非常广阔的空间
你可以探索的模型和这些
数据集非常好，我也想说
有很多特殊的联系
这个课程对于nli所以它曾经是
称为RTE直到法案出现为他的
论文他开始称之为自然
语言推理和建设很多
空间的开创性工作
探索如何应用自然
具有非常丰富的代数的逻辑
与NLP任务的推理关系
在这个空间，所以他喜欢比尔
部分兴趣重新抬头
这个问题然后萨姆鲍曼是一个
这门课程的学生也是我的
学生和我认为完整的历史
这就是理查德如此肯定来了
做了关于你知道树的讲座
情绪化的结构化网络
分析它是关于我们的时间
正在发展斯坦福大学的情绪
我认为，银行和山姆被迷住了
 Sam当时没有专注于NLU 
对于他的研究，但这是一种
他想要的重要时刻
因为我认为他是在努力工作的
赞赏比尔的工作，他喜欢
像水泥协助一样思考
但是没有真正好的数据集
他觉得有点被那些人所困扰
是可以的，他只是做了
非常令人钦佩和雄心勃勃的事情
说让我们收集一个海量数据集
对于nli，我们可以测试这些新的
深度学习模型因为一个人
在这一点上坚持不懈的是
可用的数据集也很有用
小到真正测试这些深度学习
因此Sam开发了SN Li和
剩下的就是任务所具有的历史
被重新命名的人再说RTE了
我们有这些有趣的数据集
和萨姆一直是一个真正的强者
开发新的条款所以他是
负责SN Li和多和
李是我们的两个数据集
集中注意力，然后只是
虽然我在这方面我想提一下
还有，他们都在工作
现在很难解决李的问题
用它来压力测试神经系统
看看他们真正在学习什么
关于使用它们作为测试平台的语义
对于有趣的新神经模型
他正和一些研究人员一起开发
 IBM所以我们有很多人
教学团队都对此感兴趣
和你谈论n Li这里是我的
概述嗯，我会给你一些
关于这个问题的背景，我要去
介绍这两个数据集SN Li和
李多，然后我们会做的
对此有一种标准叙述
当然我会告诉你一些
我手工打造的功能
认为真的很好，也很有趣
问题的基线和有
那样做，然后我会告诉你
我们在课程中有一个很好的回复
对所有人进行实验的框架
这些SN Li风格的数据集来自
在那里我们将开始关注
深度学习模型和n是
与情绪相比有趣
因为基本上你有两个文本
与前提和假设一起工作
这开辟了许多有趣的东西
因为你做建模的途径
可以考虑如何建模前提
和假设分开，如何
将它们联系起来然后最终如何适应
一个分类器，所以我们看看句子
编码模型链式模型
那种主要的类然后作为一个
正交发展我要展示
你注意到了一些东西
最近突然变得突出我认为
盟友和机器翻译
一种激励性的问题
在NLU注意，我们将谈谈
那些东西，你怎么样
将它们添加到您的系统中即可
更好，然后我们最后谈谈
错误分析这些事情会
可能在周三来，我们会看到如何
事情发生但我想再次因为
 nli是非常丰富的基础
语言学你有一些非常
思考的有趣途径
错误分析及其相关性
语言模式和逻辑
模式和类似的东西，所以
我们像往常一样完整的情节我们有很多
材料所以NL IGI是你的主要模块
既可以做作业，也可以
使用这些更大的数据集和
那么有两个笔记本这样的任务
数据一介绍SN Li和multi 
和李，并告诉你我们的代码
必须与他们合作然后
第二个笔记本是很多
建模代码让你开始
如果你想完成这项任务我们就是
完成了作业4和烘烤4和
然后我会提到核心
在我看来，我们发布了更多内容
但我会说核心读数是
 2015年博曼引入了SN Li 
并设置一些初始基线和
那么这个Rock techel就是一个
关于介绍的开创性论文
逐字注意注意力
 n Li问题并表明了它
可能会带来巨大收益，然后我也会
推荐一些exodia读数所以
 Goldberg 2015是深度入门的
学习模型，我也推荐
在最后一个单位这样的
特别是对于n Li而言是分开的
困扰根本是非常重要的
或多或少的基础论文
然后介绍了RTE的任务
麦卡特尼和曼宁认为这很不错
介绍这种自然逻辑
比尔开发的方法然后
威廉姆斯根本就是那篇论文
介绍了多和Alli，那就是
对你而言，另一个很好的资源
基线和方面
了解该数据集中的内容
这些都是典型的和李的例子
从战略上挑选了一下
只是为了给你一种感觉
我们看到的变化是最重要的
在那里你会说乌龟和
语言学家
预测彼此将是
在我们的作业中我们的标签
只是有/不是蕴含但是在
我们今天将关注的数据集
星期三
你有三方标签矛盾和
我们会说，尾巴和中性
乌龟和语言学家各自相互矛盾
其他已经有一些复杂性
因为你可以很容易想象一个
一些乌龟的可能世界
有资格作为语言学家
那是你可以看到的那种
我们不打算处理
逻辑矛盾的概念但是
而是更接近常识的东西
基于世界知识的推论a 
乌龟跳了，乌龟移动了
实际上可能更接近于成为一个
真正的蕴涵事实是因为
舞蹈与舞蹈之间的词汇关系
移动你需要的唯一假设
带来这两只乌龟
是同一只乌龟，实际上就是这样
当你到达时，一个敏感点
自然数据，我会回来
它，但我们正在做的事情
正在对事件做出一些假设
或实体共同参照
跨越前提和假设并在
那个案子舞蹈和故事移动，所以我们
得到恳求是的，所以你在假设
我想要小心一点
我不是假设乌龟舞，但是
相反，如果一只乌龟跳舞，那么
龟移动我认为味道很多
更像那样但又有一些
资格，因为这是
你可以看到自然数据
实际上基于图像标题等
这个场所有一些承诺
是现实的我想我只是喜欢
乌龟，这就是我选择它的原因
喜欢因为你在解释饮食
和他一样，是的，那么公平
你可能是异常值
和Tator 
如果你被要求做注释
但你有一个可辩护的观点
我的逻辑学家想说你知道
那肯定不是矛盾的
第一个，第二个不是
必须包含在内，除非我有
恰当的存在关闭两者
变量跨越前提和
假设是的，这就是那种
我必须习惯的事情
说它不是那么多检查共同点
感知知识，承认这一点
这在这项任务中是普遍存在的
你甚至可能想到的方式
关于nli问题就像你所知道的那样
这需要了解共同点
感觉推理和世界的种类
知识和那促进了
系统在这些问题上做得很好但是
它真的很难，因为a 
龟盘然后暗示在
至少有些尾巴移动，如此永恒
就像任何古老的乌龟舞蹈那样
是一些乌龟移动是的那个
公平的是，每个爬行动物都跳起一只乌龟
吃了那些会再次保持中性的
这是一个合乎逻辑的事实我
想一些乌龟走路没有乌龟移动
那些相互矛盾，这是
法案论文的一个典型例子
 James Byron Dean拒绝离开
蓝色牛仔裤和尾巴詹姆斯迪恩没有
没有裤子的舞蹈
我想法案不仅突出强调
那种语言的复杂性
这个推理任务因为它可能
花一点时间看看那些是
在成就关系中，但也
你可能必须这样做
解决一些事情，比如搞清楚
 James Byron Dean和James Dean是
同一个人，你可能需要
很多世界知识的特定
亲切，但我认为那些更多
或者逻辑上我们不需要太多
那里的常识推理会
是非常不同的
所以三菱汽车尸体新
美国汽车销量下降40％下降46％ 
六月份和三菱销量增长46％ 
哦，没有那个直截了当的
只是一个矛盾的堕落和崛起我
我猜我们必须做出一些假设
关于这些索赔的领域和
我会回到那个但总的来说
那些似乎与每个人相矛盾
其他
下一个肯定涉及共同点
感觉推理Acme公司
据报道，其首席执行官辞职并尾巴
 Acme首席执行官辞职
它肯定不是因为公司
可以报​​告任何他们想要的东西
有时他们报告虚假的事情
严格来说，如果我们是水泥
 Isis我们会说这个报告有
没有相关的蕴涵
补充他们的Acme首席执行官辞职但是
再一次，这是一种常识性的事情
鉴于我们知道这家公司
这可能是一个可靠的来源
我们可能会推断出那种信息
蕴涵或注释者可能是
鼓励推断蕴涵罚款线
在这里因为假设同一个人
因为以乔治为例
 w bush乔治，如果你做的话，它会做点什么
叫一个峡谷丛林，另一个叫你
不得不指出是的
也许就是在你的背后
介意你应该认为有
这是一个实际的方面
我们想要能够阅读的系统
以报纸文本为例
弄清楚蕴涵是什么或
逻辑关系是什么和
在这种情况下，这不是问题
忽略我们需要的系统
对这种区别敏感
那知道乔治布什的人数
有一些隐含的水平和
也可以解决这些问题
实体，但你们的不确定性
感觉这听起来很精彩
像语言学家一样，这是语言学家
对这个问题的反应通常都没有
这些东西都有这些
逻辑关系它都是中立的
因为我可以想到边缘情况在哪里
它崩溃了，我必须旋转
退回到我们善良的想法
试图掌握你的作为
读者会从这些文本中推断出来
来自
一对句子有办法
重新定义任务以便它可以检测到
模糊性或报告的或类似的
真的会，如果是这样，你会怎么样
关于做一些更精细的事情
逻辑蕴涵之间的区别
和常识推理和绑架
以及所有这些其他概念
在这里玩我想是的，所以这就是这种
总结这个和II将参考
你对这三篇文章这是一个
这些都是来回的
斯坦福人或他们曾经
一切都代表着人们的拥有
关于多少不合逻辑的辩论
推理我们应该允许进入
这个问题，所以我想我不会
解决它，但这是一个有趣的
讨论我确实认为
这种情况的顶部总结了这一观点
我试图传达哪些是
这个前提证明了对推理的理由
假设有一些常识
关于世界和世界的假设
发言者和我们的意图等等
是的，这是它的核心，然后是它的核心
这个问题的其他方面是
一直关注当地的那种
推论或只是前提和假设
并且有很多重点
捕捉这些变化
表达方式与您的方式不同
可能是指人们不同的方式
同样的概念可能是
如此清晰，等等
想想如果你想成为会发生什么
严格要求并说你是
只看逻辑蕴涵
是问题变得那么小
并限制它基本上就像
真正可靠的词汇关系
然后即使那时语言学家也会进来
并说等一下再说一句话
含糊不清让我怀疑
你认为这件事是坚实的
蕴涵然后它所有的下跌
分开，这就是为什么我的故事
告诉自己它为什么会这样做
把这看作是一种常见的感觉
尽可能地感觉推理任务
像逻辑推理这是一种
很好，这是来自那篇重要的论文
由Ito doggin及其同事说
介绍了RTE，我们现在称之为nli和
我只是看了这个看起来很重要
根据需要推断多个
应用程序确实可以用来表达
因此，文本蕴涵我们
假设纹理
尾部识别是合适的
评估和评估的通用任务
比较应用的语义推理
模特最终这样的努力可以
促进蕴涵的发展
可能提供的识别引擎
有用的通用模块
应用程序我觉得这很好
 nli as a dream的梦想
任务的想法是，如果我们能得到我们的
系统真的很擅长这种
基本但普遍的逻辑推理
然后他们的能力会
适用于很多域名
当然，我作为一个水泥引起了共鸣
协助，因为我有点想到
蕴涵和矛盾
对我们的思考方式至关重要
语言我们如何推理我们如何
使用它等等，是的，我的意思是你
用模糊的语言说话吧
键入他的框架，也就是说
就像你知道具有挑战性的问题
也许他们可能会误解
或者我们可以实际减少的改革
他们进入了一项任务，那就是
很棒，因为如果我们可以的话
我今天向你展示的模特会有
更多的适用性所以我不确定
正是你的意思，但我真的
对此我是开明的，我实际上
试图在这里做一些这个
实际上取自IDO的狗狗文章
你知道释义检测很好
你能想到的已知任务
只是说文的任务是
它所声称的释义在某些方面是平等的
扩展常识推理意识
或总结会说
输入文本需要摘要
就像说我们至少想要的那样
对摘要的约束
结果比一般更为笼统
输入信息检索可以进入
反方向你可以
可以制定说你的意思
我想基本上回来
需要查询的文档
延伸nli然后问题
回答是你基本上可以做到的
减少说你想要的
答案需要
如果你愿意按摩的话
将问题转化为声明形式a 
例如，如果你是这样的话
愿意用英语替换所有WH 
定义内的词语让谁离开了
成为某人离开然后你有一个
直截了当的nli任务，你就是
真的说你想要一个答案
像沙质离开，需要有人离开
你会称之为你的概念
回答引擎盖，我认为还有其他
你可以尝试的那些任务
减少到相同的形式，那就是
鼓舞人心的想法，我们真的走了
在某种程度上，这与金属有关
了解推理和语言
适用于许多不同的
再次通过背景的方式这是
有点有趣这是一个景观
人们有不同的方法
因为我在这里遇到了nli问题
有逻辑和定理证明那些是
一种最早的方法受到启发
通过语言学的逻辑，我已经把
他们的深度非常高
表示当然是访问
他们给你非常高的保真度
数据的图片，但沿着
 x轴我有
效果有点像
你给我一大堆数据呢
这个模型做得很好而有趣
用它全面的方式
逻辑和主要的限制
定理证明系统是因为它们
往往是手工制作，他们很高兴
 y轴但x轴构造低
开发了这种自然逻辑方法
这是一种中间，所以它是
逻辑非常丰富，但因为
逻辑是在自然语言中定义的
你有很多权力的话语
将它应用于更大的数据集等等
有点把我们带到了右边
 x轴有一些牺牲
表达的深度，但仍然
非常丰富，我把语义
图表是另一种
手工制作的方法，取决于很多
在非常高的保真度对齐之间
前提和假设再次得到
更有效的一些牺牲
解释能力等等
然后我在这里顶部
巧妙的手工打造的功能
在该生产系统中举例说明
称为兴奋开放平台
是一种很好的经典系统
解
 nli问题，然后在下面
我把Engram的变化放在了我们身上
今天看看其中的一些
那点你那些非常有效
模型可以非常强大但非常低
在他们提供深刻的方面
了解nli问题
基本上你只是有很多
肤浅的联想然后
有趣的事情发生了，所以我
因为在那里深入学习2015年
 2015年我们真正介绍了这个任务
深入学习课程
模特并不是真正的扣篮
有点像之前或当时
 SNL我被介绍并且由和
这些系统被大肆打败了
手工制作的我认为它是安全的
说到现在2019年的深度学习
模特已经超过手工打造
那些甚至为了
你在我看来的小实验
笔记本等等很容易
为你打败一个非常强大的
手工制作的功能基线使用了一些
深度学习技术然后我
提到有很多数据
这里设置了很多这样的
 fracas文本推理测试套件是
历史上有趣，因为那是
试图将数据集放在哪里
基本上你一直被限制在
至少对于我们正在谈论的部分
即将出现逻辑推理问题
它很小但我认为还是真的
有趣的是作为一种测试集，如果你
想要困扰你的系统测试
例子然后预先SNL我有一个
很少有数据集像SEM eval 2013到
关于2014年的7个是病态数据
设置我实际分配的部分
该课程的数据集是因为
 Sam Bowman把它变成了SN Li格式
所以如果你想玩的话就在那里
有了它，但它又有点小
有一些特质，那是
在SNL之前，然后在s noi之后你
拥有繁荣的数据集
在同一个模具中所以med nli是为了
医疗用品非常具有挑战性
非常丰富的词汇X和李是
多语言和李数据集
来自ulta noi的一组人
 facebook多样的自然语言
推理收集再次真实
规模大
来自一个非常多样化的问题
 Hopkins Scytale的小组是我喜欢的SNL 
但它来自科学问题
和多项选择问题
网络文字，所以也是如此
挑战，然后我把 - 只是为了
有点让你想到这一点
任何一个小狗的模式都如此
 factoid问题答案语料库可以
如果被认为是一种nli问题
你想把它放进那个模具或者
笔释义数据库只是一个简单的
您正在尝试的nli版本
然后获得一个关系
真的很有趣这是一个更新的
开发胶水基准是
由Sam Bowman和他的团队发布
他们所做的是它是一大堆
 nli任务我认为其中五个然后
一大堆其他没有的任务
严格意义上的问题，但意味着
有点测试doggone的假设
如果你有一个好的n li系统那么
这些陈述将转移到
其他任务和很多人都有
那天工作的时间很多
现在进展的胶水
这是一个非常雄心勃勃的决赛的基准
项目你可以解决整个问题
或者在某种程度上我认为我会跳过这个
这些是一些不同的标签集
多年来一直在探索
无论好坏，我们都有
在这个三方合并
因为SN Li但在那之前
是四向版本，更简单
你会探索的双向版本
我之前提到过的作业
因为这与...有关
我正在测试你的作业
假设是的，所以登陆凯塞尔曼
这个课程为他的决赛提供了刺激
项目观察了实力
假设只是基线而且一直存在
由一群其他团体证实
其中包括Sam Bowman的一个
有趣的是，为什么这样做才有
这就是为什么你能得到任何东西
如果你刚刚出现，那就完全是牵引力
假设和前提假设
最初看起来非常令人担忧
是的，因为它听起来像是
关于这个问题的一些问题
允许你离开的数据
这么多你的例子仍然如此
我认为这是值得担心的事情
但我不是很担心
因为我认为这有原则性
或多或少的解释
我的问题本身就是基础
总结说，在这三个
这里的陈述是如此具体的主张
可能是蕴含的前提
对我来说真的很容易的案例
想象一下，如果我想到net这个词
等级所以我们网是基本上的
巨大的蕴涵关系等级
因为名词所在的东西
层次结构的那个高度的底部
是非常具体的事情，如小狗和
小猫，它们几乎涵盖了一切
层次结构中的其他其他内容
对象如果我有，如果你只是告诉我
小狗或小猫这个词我非常喜欢
很好的猜测它是否在
前提或假设相反如果
你告诉我一些非常一般的东西
哺乳动物或物体或狗然后它是非常的
可能在那对中右边
只因为我从中提取了另一个词
这个词汇不太可能超越
它是因为那么少的话然后
这也延伸到矛盾所以我
认为具体的事情更多
可能会导致矛盾
 SN Li游戏的那种规则因为
我们对事件做了一些假设
共同参与等等，如果你已经
描述了一些非常具体的内容
在这些方面它可能
排除了大多数其他索赔，所以再次
非常具体的事情可能会引导你
我两边都是矛盾的
认为这是这三者的结果
观察正在推动很多
只有假设的力量
如果您相信，现在基线
论证意味着这不是真的
我们将能够做的事情
因为这个事实，自然会因素而出
关于蕴涵等级是
我们想要我们的系统的东西
了解它是一个重要的语义
事实上，如果你决定这样做
你会通过平衡摆脱它
你的数据集，以便每个单词都有
出现的可能性相等
前提或假设你可能会削弱
基线上的假设，但它是
由此产生的不太清楚
系统将解决问题
我们在世界上遇到它并且为了
这是因为我对此的回应是正确的
说让我们总是在顶部
我们的结果表只是一个假设
基线，以便我们知道起点
我们的任务
这是有意义的，任何人都想要推迟
就是这样，他只做了一个前提
基线做任何你的事情
探险家，如果你相信我的
概括它应该更好
而不是随意的，因为我觉得有
信息就是那个部分
但是我没有太多地探索过它
代码应该让它变得非常容易
探索好吧这是很好的时机让我们
深入研究这些数据集的含义
所以我们要看看SN Li和多
和谎言是一种常见的
像这样的数据集模具
这是一个简短的总结
鲍曼在2015年全部发布
该处所是来自的图像标题
 Flickr 30k数据集，这是真的
重要的是要记住因为形象
字幕是一种不寻常的东西
语言，它也意味着所有
这些东西在某种程度上适合人们
谁生产他们的基础是
特定形象，我认为有
塑造假设所有的数据
由人群工作者写的所以这是一个
非常大的众包任务因为
这有超过500,000个例子
那些假设是由
人，然后是数据集的一部分
我被其他人评估过
应该注意一些句子
反映刻板印象这是一篇很好的论文
从霍普金斯小组再次指出
你可能会想到那些人
正在做很多人群的工作
依靠生产的一些捷径
矛盾和蕴涵对和
副产品是他们最终的结果
依赖有问题的刻板印象
这是我们想要的
从这些数据集中消除，因为我们
不想让这些问题永久化
但是现在我可以说你了
应该知道这是如此
 550个培训示例10k dev和10k 
测试我已经给出了一些信息
就像例子的平均长度一样
条款的类型，所以他们不是全部
句子中的一些是名词短语
它的词汇量相当大
差不多有40,000个单词然后就有了
约60,000的较小子集
由for验证的示例
如果你想要额外的注释器
增加了对标签的信心
这是正确的，那里很顺利
是一个非常高水平的协议
标签，然后最终在这里
有一个真正的排行榜
现在压倒性的论文数量
我认为这很难消化
我们已经过了你想要的那一天
希望你是最高排
我会考虑更多
灵活地说我已经把它分开了
进入几个不同的模型类和
你可以考虑一下你想去的地方
插入然后另一个区别
已经出现的只是否是
你会说你的模型是一个整体
对于SNL我特别是我们
进入了合奏模型的阶段
只是做得最好，这是一个
有趣的游戏，如果你想要
追求原始表现，但这是一种
你正在做的不同的事情
建模意义比挑选单一
你认为反映的模型
关于数据或问题的直觉
本身并尽可能地追求它
所以，以一种细致入微的方式思考如何
你正在使用你的系统
尊重排行榜这是一个
屏幕截图的人群采购
使用它的方法
小它就像文档一样
显然对于一群人来说我们
不能告诉他们嘿构建一个
需要前提的句子
与前提相矛盾，因为那是一个
一种专门的逻辑概念所以我
我认为我们找到了一种方法来构建它
很清楚我们是什么
之后但更自然，但如果你
想深入了解数据
实际上这意味着这很重要
信息，因为这是开始
指出这些例子是怎样的
这里构建的是一些实际的
例子就是那些
文章中给出了一个人检查
一些东亚人的身材制服
国家所以记住这是标题
一个图像，然后矛盾
工人想出的一双是
我是那个正在睡觉的男人
后续验证阶段全部五个
人们一致认为那是一个
矛盾标签
我认为这些非常简单
无论如何，你可以看到它看起来
喜欢矛盾是非常一致的
而且还有更多的细微差别
围绕中性类别的意思
我认为这在数据中得到了证实
这是我再次选择的案例
重新提出这个想法，但事实并非如此
如此明显我们如何定义这一点
这些不是来自的实际例子
语料库，但我认为他们遵守
这里采用的标准是这样的
一艘船在太平洋沉没的想法
海洋和一艘船在大西洋沉没
海洋会被贴上标签
当然矛盾那两件事
可能会一起发生，所以没有
逻辑意义上的这些是
矛盾，但如果我们假设什么
我们正在谈论的是一个单一的
像你所知道的那样的形象
图像Flickr 30k数据集然后它
可能这些相互矛盾
只有其中一个可能
是的，这就是这种感觉
是矛盾关系，这是一个
 Sam想出了一个更极端的案例
所以Ruth Bader Ginsburg被任命为
最高法院和我有一个三明治
按照这种逻辑今天吃午饭你会的
说那些再次相互矛盾
不是因为他们不可能都是真的
也许他们对你或你都是对的
我，但他们不能
在某种意义上描述相同的事件
这是否有意义我这个棘手的东西
意味着更多或更少的怜悯
我们拥有但所有数据的怜悯
这值得记住，好吧
然后其他数据说我想
引入多重谎言
威廉姆斯在2018年发布了它
它的设计非常相似
一些新的细微差别首先是培训
集合是从一堆不同的
类型小说政府报道
 slate网站切换词语料库和
一些旅游指南，然后去了
开发者设置你有一个条件
测试那些相同的类型和另一个
你在哪里测试一些
完全不同的流派和那些
是9/11报告
面对面是一些叙事
筹款非小说和
关于语言学的文章
这是一个非常酷的主意，因为
你可能会认为这是一种方式
压力测试您的强制系统
它不在训练之外
再次体验它已经非常大了
同样的另外一种
用于验证的注释然后是
这里的一个转折就是我想避免
那种很多爬山的人
测试集仅发布测试集
作为凯格尔竞争的一种减少
人们可以的次数
评估它，你可以看看
项目页面我认为它链接到一个
排行榜和其他一些信息
如果图像前提的标题是
就像一个男人踢球，像个男人一样
正在观看比赛或其他事情
这就是他们在这里发生的事情
同样的照片，这是一个很好的问题
基本上我们可以多么全面
依靠我认为你的字幕
不能指望任何我认为的形象
字幕是反映的奇怪事物
人类认为什么是显着的
他们有自己有趣的偏见
并且有过一些尝试
斯坦福大学有视觉基因组
项目做一个图像字幕
那真的不那么自然
全面标明其中的内容
图像，但这不是做了什么
 image flickr 30k还有更多
自然主义，所以你开始
一个有趣的社会和语言
空间，然后建立在它的顶部
一个不寻常的方向，这是长期和
没错，我一直在想
这里有机会
是你可以利用实际的
图像已经完成并经常进行
或者根本没有，但你可以想象
你没有通过推理解决问题
只是关于图像标题的前提
而且还有一个代表
图像本身对手机做的抱歉
那
这是另一个非常有趣的事情
关于多nli数据集，所以Sam in 
他们发布的数据组
为...设置了一堆注释
各个例子的属性如此
例如，他们只标记了一些
是主动被动对
前提和假设，这是真的
有趣，因为你期望这样
保持意义，但它是
一个开放的问题，你的系统是否可以
对那种敏感
转型或类似的类别
是否存在类似的信念谓词
相信或声称或说是否存在
条件是否是共同参与
至关重要，因为许多系统都忽视
有点像代词但是蕴涵
通常可以取决于那些的性质
共同引用旧关系是一种
长句是否包含模态
这两件事情可以否定
被称为释义的是什么
这些句子中的量词
一种量化语义的方法
例子的难度和这是
非常好，你以后会看到这个
我们做空气分析你可以使用这些
一种开箱即用的类别
错误分析你可以要求一堆
不同系统中的哪些
类别是他们在和
他们在哪里失败，而且往往是失败的
非常有启发性，只是为了圆
这就是你知道的
这些笔记本也在这里
处理这些数据集的代码
你基本上有SNL我训练读者
 SNL I dev读者多NL I列车阅读器
然后你有两个开发者
匹配和不匹配等等
对你来说应该是很好的方式
与数据交互并将其输入
机器学习系统我认为
只有你必须习惯的是
他们产生了所谓的例子
你可以看到发生的对象我
在这猜猜那是因为
基础数据不仅包含字符串
和关系，但如果是的话
乘以注释的所有决定
注释器制作，也是二元和
非二进制解析的例子
是自动解析来自
斯坦福的coronel P包但是
你知道他们是很好的解析
它总体而言运作良好
让您访问非常丰富的树
结构如果你想利用
他们，所以这是一个小小的一瞥
你如何处理这些示例对象
这是另一个例子，我知道它很小
但它是你的下载和
如果你愿意，请查看，然后点击这里
刚才显示的一些额外代码
你是我们提供的界面
用于处理带注释的子集
你没有障碍
利用它因为我认为是
真的很激动，压力测试你的
系统通过查看它是如何做的
不同类别的问题，他们已经
使我们非常轻松优秀
关于那些数据集的问题
在我们开始潜入之前的水平
建模部分的这种方式
然后开始我们熟悉的情节
我们要做的第一件事就是看看
一些手工制作的功能和
某种经典线性模型和
然后我们将深入学习什么
我在这里做的只是定义了两个
简单的基线，这是我做的很好
你看到的那个更大了
文学首先是我所说的
单词重叠Phi，它只是创造
每一个单词的每一个特征
既发生在前提，也发生在
假设让你漂亮
稀疏模型，它们非常小
因为你真的只是在看
你可以对比的重叠词
用单词交叉产品和什么
这样做是为每个人创造一个功能
在前提中出现的一对词
和假设让你知道全部
你认为的跨产品
关于他们你看起来是两套词
在你可以从中画出的每一对
那对和那导致
我认为真的是巨大的特征空间
如果你适合这个模型
所有SN Li上的特征功能
训练数据你最终结束了
一百零一半的功能如此
高维非常稀疏的特征
这里的空间是一种看待它的方式
就像我有托比狗一样
和托比是一个大狗然后这个词
重叠的东西只是跟踪托比
狗是和呃它辍学大
而字哦字交叉产品
事情创造了这个巨大的所有列表
我可以从那两个形成的对
他们的计数这么多的单词
更大的那些是基线
这里的东西是另一回事
您可能会想到的一类功能
关于那可能来自网络这样的话
正如我之前所说的，网络是一种
非常高保真的手工制作资源
充满关于单词级别的信息
特别是蕴涵的关系
关系和一些矛盾
形式的信息
反义词和我在这里所做的只是
给你一些显示的代码
你如何创建功能
功能依赖于网络
层次结构，如果我是一个快速的例子
只是看小狗我得到它所有的东西
套，他们就像狗崽和年轻人
人，所以你可以看到的感觉
小狗这个词有点暧昧
如果你去的话，网络就是捕获它
然后就是那些CIN中的第一个
你得到一种更保守的
透视因为第一感我
认为是最常见的
他们的数据等等，实际上
你可以使用很多方法
 hypernym HIPPA NIM等等
如何创建单词的小例子
网络功能，我已经完成了Hyper 
名字和HIPPA名字，我只是展示
你是一个例子，如果我有
小狗感动，然后狗跳了起来
 hypernym功能会给我一个
小狗，狗和臀部的特征和
功能会让我感动和跳舞
你可以在这里使用这段代码
你可以做很多其他的话
净关系，我认为剥离
相当有趣的子空间
词汇和尾巴与矛盾
等等，这里还有其他一些
想法，所以你可以做更多的东西
你还可以考虑一些网络
编辑之间的距离特征
前提和假设可能在
单词级别我向你展示了单词重叠但是
也许思考更自然
关于词差可能很多
更多的故事是通过什么来讲述的
假设，但不是在前提或
基于反向对齐的特征
这将成为一个老想法的关键
一个李，这是重要的
弄清楚这两个前提是怎样的
假设彼此相关
否定当然我认为是
值得拥有单独的功能
会关键到否定以及其他
所有这些都是词汇类
东西真的深受影响
蕴涵你知道像动词一样的东西
说和态度和模态和
对冲和所有这些东西很多东西
我认为这与情绪有关
因为它的方式在这里继续
调整我们量化的主张
我们的关系当然是你想要的
抓住那些他们没有言语的人
净，但绝对值得，甚至可能
手工编码然后你的努力
也可以命名实体功能
这有点像詹姆斯迪恩吉米
 Dean James Byron Dean的情况和这一点
并不意味着详尽无遗
只是为了让你思考不同
你可以键入词汇的方法
信息结构信息
所有这些东西都是世界知识
应该按照我们的方式引入
陷入困境的问题
那些或评论或想法都没事
再次尝试这是模式
这是所有这些代码的重复
它是一种标准语言
考虑在a。中运行实验
生产我的方式，我提供了一个
一堆代码让我走了
通过它在高层只是为了显示
你这么容易就像往常一样
您将存储库指向数据
在这里，这里不仅仅是家
说明我已经定义了单词重叠
 Phi像往常一样我的功能
在这里有这些包装它是合适的
 softmax让你可以作为一部分
实验管道做交叉验证
并摆弄参数和做
涉及的其他事情是其中的一部分
模型
设置略有不同
斯坦福情绪树库我们有
这些读者对象所以我在这里设置了
训练有素的读者十和其原因
那就是他们有这个额外的论点
称为样本百分比发送百分比
而我在这里我把它设置为0.1我想
这对发展非常重要
因为如果你离开或说萨姆
百分比等于没有你的
实验将在上面进行
完整的五百五十K个例子
而你的进步将慢慢爬行
因为每个实验都可能需要
几小时或几天所以我会鼓励
至少是你想要的一种方式
在这个数据集上开发是为了做到这一点
随机的小子集
选择然后一旦你想要
你的系统已稳定扩展到
问题的一大部分，所以你设置
那个训练有素的读者然后就是了
看起来很像SST吧
所以你有训练有素的读者参数
你的功能词重叠Phi 
并且最大限度地像瑞士军队一样
刀有很多其他选择
但那些可以被取消，那就是
几乎所有运行一个
实验和以前一样
实验有一本字典
或多或少存储所有信息
关于你的实验
可重复性和误差分析
这样才有意义
我认为基本框架非常熟悉
让我告诉你另外两件事
你我会先鼓励你
列车上的超参数选择
这样的子集再次与SST不同
它足够小，你可以
做了很多漂亮的实验
你移动到的时候可管理的方式
每个实验都有F和一个谎言
一项重大投资，你也是
如果你是的话，不会取得那么大的进步
不考虑如何做小
能够全面了解情况的东西
所以我要告诉你或给你
建议你两种方式
当涉及超参数时这样做
选择所以首先让我设置一下
这将是火车子集所以你
把你知道的数据指向SML我回家吧
通常的字重叠五将是我的
功能适合与混合
将要考虑的交叉验证
很多不同的价值观
正规化强度C. 
惩罚类型l1和l2都是a 
相当大的Piper参数网格你
必须特别适合很多模特
在3那里有CV，这样就可以了
适合很多模型，如果适合的话
你会在完整的数据集上做到这一点
只是花了太长时间，所以一个方法你
可能需要设置那些超级a 
参数基于一小部分
这里的数据我已经完成了10％你
可以看到他们被印在那里这样
模型选择C为1，罚分为l2和
然后你做了那个选择
我现在可以在这里播放它
相同的功能，但现在它适合
 softmax分类器预先选择
参数，我只是在硬编码
我从我之前选择的价值观
实验，然后你继续前进
这样你就获得了一些好处
探索超参数空间
没有任何成本是有道理的
您的问题或意见或疑虑
想要带出因为数据集是
几乎完全平衡你得到平衡
子集出来，但我认为你在提高
方法的一个有趣的弱点
我只是勾画出10％的情况
我知道它的代表性如何
真正的完整数据集，特别是
您在其上形成的功能空间
微小的子集可能与...非常不同
你从那里得到的那个
训练集，例如可能
深刻影响正规化程度
你想做什么，我认为这是一个
当前做法的弱点
这是有道理的，所以这就是公正的
就像那样是妥协
这是你可能的另一种方法
使用那没有那个弱点但也许
其他人，这将是超参数
选择几次迭代所以全部
他们去的这些机器学习模型
通过一定数量的时代
训练
而你知道一个时代可能是
可管理，但如果它需要一千
为你的模型汇聚那里
你这样做会产生实际成本
你可能采取的另一种方法是
就像我在这里完成的那样
交叉验证我内心的小内心
只需找到模型的参数
我适合那里它是最大的它在那里
用于逻辑回归并将其设置为a 
很小的价值，如三或五和
然后我做了我的全网格搜索
我想在它之前做的就是这样
即使我这样做，也会花费更少的时间
在我正在做的整个数据集上
在这里
因为迭代次数是
这么低，你又得到一份报告
这里显示L 1为
正则化参数不是l2和
性能稍好一点然后
你以我的方式向前推进
之前向你展示了隐含的
假设你正在做那个
培训时代的未来正在进行中
就像过去那样的设定
真是太糟糕了，不会
莫名其妙地成为这个故事的主角
以后一旦坏了哦，反过来也是坏事
那些好的东西
门可能是那些
即使你运行模型也很好
收敛我不是在给你一个
保证，因为我认为没有这样的
保证可以提供，而是
这可能是一个很好的妥协
给出预算，你有培训
时间或计算资源等
你可以混合搭配这些
因为这两件事都在
宏伟的计划很快
相比于拟合模型
整个数据在这里设置了一件事
那么我们可能会结束我想要的
向您展示它在框架中的容易程度
测试建立并运行一个假设
只有实验，我认为这是
很明显有这个功能
功能假设只有unigram间谍
接收两棵树t1和t2然后它
它仅在t2上运行，它只是扔掉了
 t1我使用了Fitz off max classifier 
预先选定的参数
我跑了实验，瞧不起
 65 0.34鲭鱼f1就是这样
与随机基线非常不同
这将是33 34％ 
告诉你如果这有多么强大
你的模特是68，你觉得
哦，与随机相比，这是美妙的
那么你应该把它置于语境中
方式，我希望这不会令人沮丧
我值得检查一下
很多信息都在前提下
实际上呃我会这样做的
跟进哦是的，它被比较了
随机，实际上我在这里
我想告诉你以防你
不知道这是什么心理
这些伟大的虚拟分类器模型
允许您适合刚刚制作的模型
使用类似的标签分发或
随便猜，所以我只是
做了实际使用的勤奋事
其中一个肯定是的33.4％ 
所以假设只有基线是a 
非常强大的基线问题
我们应该为它做基线
完成所有完全相同的操作
我们的模型，但只在第二棵树或
应该是什么给定的模型
你在发展什么才是真的
假设的性质只有基线
这是一个判断电话，因为
例如，如果我选择单词交叉产品
功能作为我的基本功能
如果我只是在看，这是不确定的
假设，所以我不得不说
你知道克非常接近
像我的真正的功能
但这是一件很难说的事情
如果你已经专注于前提和
假设，但如果它发出
功能我可能只是默认给你
知道克似乎很合理
然后为深度学习模型我
认为这些问题是
我认为更直接的好
而不是潜入那些让我离开这个
下一次，所以下次我们要去
看一下句子编码模型在哪里
你得到一个单独的代表
前提和假设然后我们会
看看或多或少的链式
把两者合二为一
通常是某种RNN然后
我们将关注注意机制和
做一些错误分析，如果我们得到
像往常那样我们会这样做
留一些时间让你只需编码
与教学团队一起做作业四
非常适合你
