距离会议开始

AAAI是美国人工智能协会,该协会主办的年会(AAAI, The National Conference on Artificial Intelligence)是一个主要的人工智能学术会议。第34届 AAAI将于2020年2月07日-12日在美国纽约举行。AAAI 2020 共收到的有效论文投稿超过 8800 篇,其中 7737 篇论文进入评审环节,最终收录数量为 1591 篇,收录率为 20.6%。
系列视频论文解读
(持续更新)
高天宇
高天宇,清华大学本科四年级学生,清华大学自然语言处理实验室成员,导师刘知远。其主要研究方向为自然语言处理当中的关系抽取问题,在人工智能和自然语言处理领域的国际会议AAAI、EMNLP上发表过多篇文章。同时他也是开源工具包OpenNRE的主要作者。

Knowledge graphs typically undergo open-ended growth of new relations. This cannot be well handled by relation extraction that focuses on pre-defined relations with sufficient training data. To address new relations with few-shot instances, we propose a novel bootstrapping approach, Neural Snowball, to learn new relations by transferring semantic knowledge about existing relations. More specifically, we use Relational Siamese Networks (RSN) to learn the metric of relational similarities between instances based on existing relations and their labeled data. Afterwards, given a new relation and its few-shot instances, we use RSN to accumulate reliable instances from unlabeled corpora; these instances are used to train a relation classifier, which can further identify new facts of the new relation. The process is conducted iteratively like a snowball. Experiments show that our model can gather high-quality instances for better few-shot relation learning and achieves significant improvement compared to baselines.

樊俊松
大家好,我是自动化所智能感知中心的在读博士生樊峻菘,导师谭铁牛院士。研究方向主要关于资源受限下的视觉场景解析等。

以图像类别标签为监督信息的弱监督语义分割往往面临目标区域估计不完整的问题。为了缓解这个问题,本文提出了一种对跨图像间关系进行建模的方法。该方法在同类别不同图像之间建立像素级的关系矩阵,并据此从不同的图像间取得互相补充的信息,用以增广原特征并获取更加完整和鲁棒的目标区域估计。实验证明该方法可以有效学得相关目标间的关联关系,辅助得到对整个目标更加完整鲁棒的预测结果,并且在多种质量的初始估计下都能取得显著的提升,具有很好的泛化性。在仅使用图像类别标签作为监督信息下,该方法在 VOC2012 数据集上取得了当时最好的 65.3% mIoU 的测试结果,证明了方法的有效性。

岂凡超
清华大学计算机系自然语言处理与社会人文计算实验室博士生,师从孙茂松教授。研究方向为自然语言处理,已在AAAI、ACL、EMNLP等人工智能和自然语言处理顶级会议发表数篇论文。

反向词典以关于目标词语义的描述为输入,输出目标词以及其他相关词。比如输入“a road where cars go very quickly without stopping”,期望反向词典输出“expressway”、“freeway”、“motorway”等词。反向词典最主要的使用价值在于解决“舌尖现象”(话到嘴边想不起来)。

现有的反向词典模型很难解决高度变化的查询输入以及低频目标词这两个问题。受到人的由描述到词的推断过程的启发,我们提出了多通道反向词典模型,可以同时解决以上两个问题。

我们的模型包括一个句子编码器和多个预测器,预测器可以通过给定的查询文本预测目标词的各种特征,进而帮助确定目标词。我们在中文和英文数据集上评测了我们的模型,实验结果表明我们的模型实现了当前最佳性能(state-of-the-art),甚至在人工真实查询数据集上超过了最流行的商用反向词典系统OneLook。此外我们也进行了定量实验和案例分析来证明我们模型的有效性和鲁棒性。

论文已经在arXiv公开:https://arxiv.org/pdf/1912.08441

秦鹏达
北京邮电大学的一名在读博士生,主要研究领域为自然语言处理领域的信息抽取任务。在博士阶段,本人赴加州大学圣芭芭拉分校William wang教授的自然语言处理实验室进行了为期两年的学术访问,在此期间进行了有关问答系统、自动摘要生成和语言流畅度检测方面的研究工作。

大规模知识图谱在当前的信息系统中具有非常重要的角色。为了扩充知识图谱的规模,之前的工作需要对新增关系标注充足的训练数据集,但这种方式成本昂贵不符合实际要求。本文考虑采用零样本学习方式来解决这个问题。当给定一个新的关系类别,本文尝试直接通过关系类别的文本描述编码类别相关信息。为了完成这个目标,本文采用生成对抗学习思路完成文本信息和知识图谱信息的知识转换。具体来讲,本文希望生成对抗网络的生成器可以有效的通过关系类别文本描述生成关系类别向量表征。在这个前提下,对于新增关系类别的样本预测就转化为监督学习分类任务。

岂凡超
清华大学计算机系自然语言处理与社会人文计算实验室博士生,师从孙茂松教授。研究方向为自然语言处理,已在AAAI、ACL、EMNLP等人工智能和自然语言处理顶级会议发表数篇论文。

反向词典以关于目标词语义的描述为输入,输出目标词以及其他相关词。比如输入“a road where cars go very quickly without stopping”,期望反向词典输出“expressway”、“freeway”、“motorway”等词。反向词典最主要的使用价值在于解决“舌尖现象”(话到嘴边想不起来)。

现有的反向词典模型很难解决高度变化的查询输入以及低频目标词这两个问题。受到人的由描述到词的推断过程的启发,我们提出了多通道反向词典模型,可以同时解决以上两个问题。

我们的模型包括一个句子编码器和多个预测器,预测器可以通过给定的查询文本预测目标词的各种特征,进而帮助确定目标词。我们在中文和英文数据集上评测了我们的模型,实验结果表明我们的模型实现了当前最佳性能(state-of-the-art),甚至在人工真实查询数据集上超过了最流行的商用反向词典系统OneLook。此外我们也进行了定量实验和案例分析来证明我们模型的有效性和鲁棒性。

论文已经在arXiv公开:https://arxiv.org/pdf/1912.08441

彭伟
奥卢大学(芬兰)博士二年级研究生。 已经在AAAI, ICCV,TOMM,FG等会议和期刊上发表多篇论文。研究的内容包括动作识别,深度学习网络设计,情感计算等等。来到芬兰前在厦门大学取得硕士学位,在电子科技大学取得学士学位。

基于skeleton数据的动作识别是计算机视觉领域中一个非常热门的研究话题。使用图卷积(GCN)来建模这种不规则的数据也取得了很好的效果。 但是这个任务中的GCN有两个方面可以去改善。首先, 大部分GCN都提供一个单一的(各层share),固定的矩阵来编码数据节点之间的邻接关系。其次,大部分的GCN都是基于一阶的切比雪夫多项式进行估计的。我们认为,将高层的特征表示限制是低层的拓扑结构当中是一种不合理的做法。此外,一阶的多项式估计并不能很好的捕捉到高阶的邻接关系。本文提出一种基于NAS的GCN设计方案。文章通过多个Graph的功能模块构建出一个搜索空间并且相应的提出一种高效的搜索策略。Searched GCN在两个大规模的Skeleton-based动作识别任务上测试都达到最好的性能。

郑银河
郑银河是清华大学和北京三星研究院的联合培养博士后,合作导师为黄民烈副教授,目前主要从事对话系统领域的研究,包括OOD对话意图检测,低资源设定下的数据增广,个性化对话生成,文本风格迁移等。

本文提出了一个新的基于预训练方法的个性化对话生成模型,与传统的预训练对话模型相比,本文提出了一个注意力路由机制,该机制可以在模型训练过程中更有效地利用个性化稀疏的对话数据,实验表明我们所提出的模型可以生成更为流畅且符合发话者个性化特征的回复,并且我们可以在解码的过程中控制是否在回复中展现发话者的个性化信息。

系列论文解读
(持续更新)
AAAI顶会赞助计划
每年在世界各地举办的 AI 顶会是业内人士的狂欢,来自各个国家的优秀学者和工程师齐聚一堂分享各自的研究成果,探索 AI 行业的边界。对于 AI 学术青年和开发者来讲,这是一个绝佳的学习机会。【AAAI 2020顶会赞助计划】于2019年12月25日正式结束,AI研习社两位用户,分别是来自香港城市大学和华中科技大学的两位同学获得,欢迎大家在关注这两位同学的社区账号。
另外,在顶会赞助计划期间,一共产生了183篇论文推荐,其中不乏有最新的论文推荐;还有20+论文解读文章,其中关于AAAI2020论文解读更是精彩不断~

加入AAAI 顶会小组,第一时间获得最新会议信息

顶会论文解读投稿通道

如何让你的优秀工作,以最短路径,为更多人所了解?

AI 科技评论愿架起这座学者之间的桥梁

促进学术交流,让知识真正流动!

AI科技评论接受高校实验室、企业实验室和个人,在AI科技评论上分享优质的顶会论文解读,可以是最新的顶会会议接收论文,也可以是过去一年顶会会议接收论文。

投稿标准:

1)稿件为个人原创作品

2)如果文章并非首发,请在投稿时提醒并附上已发布链接

投稿方式:

请添加下方微信,备注:顶会投稿+姓名+单位