您正在使用IE低版浏览器,为了您的雷峰网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
此为临时链接,仅用于文章预览,将在时失效
人工智能 正文
发私信给AI研习社-译站
发送

0

非平衡数据集 focal loss 多类分类

本文作者:AI研习社-译站 2019-04-24 10:24
导语:焦点损失函数 Focal Loss(2017年何凯明大佬的论文)被提出用于密集物体检测任务。

非平衡数据集 focal loss 多类分类

本文为 AI 研习社编译的技术博客,原标题 :

Multi-class classification with focal loss for imbalanced datasets

作者 | Chengwei Zhang

翻译 | 汪鹏       校对 | 斯蒂芬·二狗子

审核 | Pita       整理 | 立鱼王

原文链接:

https://medium.com/swlh/multi-class-classification-with-focal-loss-for-imbalanced-datasets-c478700e65f5

非平衡数据集 focal loss 多类分类

焦点损失函数 Focal Loss(2017年何凯明大佬的论文)被提出用于密集物体检测任务。它可以训练高精度的密集物体探测器,哪怕前景和背景之间比例为1:1000(译者注:facal loss 就是为了解决目标检测中类别样本比例严重失衡的问题)。本教程将向您展示如何在给定的高度不平衡的数据集的情况下,应用焦点损失函数来训练一个多分类模型。


   背景

让我们首先了解类别不平衡数据集的一般的处理方法,然后再学习 focal loss 的解决方式。

在多分类问题中,类别平衡的数据集的目标标签是均匀分布的。若某类目标的样本相比其他类在数量上占据极大优势,则可以将该数据集视为不平衡的数据集。这种不平衡将导致两个问题:

  • 训练效率低下,因为大多数样本都是简单的目标,这些样本在训练中提供给模型不太有用的信息;

  • 简单的样本数量上的极大优势会搞垮训练,使模型性能退化。

一种常见的解决方案是执行某种形式的困难样本挖掘,实现方式就是在训练时选取困难样本 或 使用更复杂的采样,以及重新对样本加权等方案。

对具体图像分类问题,对数据增强技术方案变更,以便为样本不足的类创建增强的数据。

焦点损失函数旨在通过降低内部加权(简单样本)来解决类别不平衡问题,这样即使简单样本的数量很大,但它们对总损失的贡献却很小。也就是说,该函数侧重于用困难样本稀疏的数据集来训练。


   将 Focal Loss 应用于欺诈检测任务

为了演示,我们将会使用 Kaggle上的欺诈检测数据集 构建一个分类器,这个数据及具有极端的类不平衡问题,它包含总共6354407个正常样本和8213个欺诈案例,两者比例约为733:1。对这种高度不平衡的数据集的分类问题,若某模型简单猜测所有输入样本为“正常”就可以达到733 /(733 + 1)= 99.86%的准确度,这显然是不合理。因此,我们需要的是这个模型能够正确检测出欺诈案例。

为了证明focal loss 比传统技术更有效,让我们建立一个简单地使用类别权重 class_weight训练的基准模型,告诉模型“更多地关注”来自代表性不足的欺诈样本。

非平衡数据集 focal loss 多类分类

基准模型

基准模型的准确率达到了99.87%,略好于通过采取“简单路线”去猜测所有情况都为“正常”。

我们还绘制了混淆矩阵来展示模型在测试集上的分类性能。你可以看到总共有1140 + 480 = 1620 个样本被错误分类。

非平衡数据集 focal loss 多类分类

混淆矩阵-基准模型

现在让我们将focal loss应用于这个模型的训练。你可以在下面看到如何在Keras框架下自定义焦点损失函数focal loss 。

非平衡数据集 focal loss 多类分类

焦点损失函数-模型

焦点损失函数focal loss 有两个可调的参数。

  • 焦点参数γ(gamma)平滑地调整简单样本被加权的速率。当γ= 0时, focal loss 效果与交叉熵函数相同,并且随着 γ 增加,调制因子的影响同样增加(γ = 2在实验中表现的效果最好)。

  • α(alpha):平衡focal loss ,相对于非 α 平衡形式可以略微提高它的准确度。

现在让我们把训练好的模型与之前的模型进行比较性能。雷锋网雷锋网雷锋网

Focal Loss 模型:

  • 精确度:99.94%

  • 总错误分类测试集样本:766 + 23 = 789,将错误数减少了一半。

非平衡数据集 focal loss 多类分类

混淆矩阵-focal loss模型


  结论及导读

在这个快速教程中,我们为你的知识库引入了一个新的工具来处理高度不平衡的数据集 — Focal Loss。并通过一个具体的例子展示了如何在Keras 的 API 中定义 focal loss进而改善你的分类模型。

你可以在我的GitHub上找到这篇文章的完整源代码。

有关focal loss的详细情况,可去查阅论文https://arxiv.org/abs/1708.02002。

最初发表于www.dlology.com.

想要继续查看该篇文章相关链接和参考文献?

点击非平衡数据集 focal loss 多类分类即可访问:

https://ai.yanxishe.com/page/TextTranslation/1646

AI研习社今日推荐:2019 最新斯坦福 CS224nNLP 课程

自然语言处理(NLP)是信息时代最重要的技术之一,也是人工智能的关键部分。NLP的应用无处不在,因为人们几乎用语言进行交流:网络搜索,广告,电子邮件,客户服务,语言翻译,医学报告等。近年来,深度学习方法在许多不同的NLP任务中获得了非常高的性能,使用单个端到端神经模型,不需要传统的,任务特定的特征工程。在本课程中,学生将深入了解NLP深度学习的前沿研究。

课程链接:https://ai.yanxishe.com/page/groupDetail/59


雷峰网原创文章,未经授权禁止转载。详情见转载须知

非平衡数据集 focal loss 多类分类

分享:
相关文章

知情人士

AI研习社(yanxishe.com)译站频道,传播前沿人工智能知识,让语言不再成为学习知识的门槛。(原雷锋字幕组)
当月热门文章
最新文章
请填写申请人资料
姓名
电话
邮箱
微信号
作品链接
个人简介
为了您的账户安全,请验证邮箱
您的邮箱还未验证,完成可获20积分哟!
请验证您的邮箱
立即验证
完善账号信息
您的账号已经绑定,现在您可以设置密码以方便用邮箱登录
立即设置 以后再说