赵辰:
美国Kitware公司高级研发工程师,博士2021年毕业于美国德州大学达拉斯分校计算机专业。博士期间的研究方向主要是公平性学习在数据挖掘,机器学习,深度学习上的研究和应用等。在包括KDD, ICDM, WWW等会议与期刊上发表过多篇论文,并多次受邀担任 KDD, ICDM, AISTATS, WSDM, SDM, NeurIPS, BigData, JBDR等人工智能领域顶级国际会议程序委员/审稿人。
个人主页:https://sites.google.com/view/chen-zhao/home
报告题目:
社交媒体假新闻传播的因果理解
内容简介:
与线下学习不同,在线学习主要分为两种研究模式:(1)在线元学习。该方法在一个连续的场景种学习模型参数的先验(也被称做学习如何学习),该场景默认每个学习任务是在连续时间点依次出现。尽管在线元学习提供了一个次线性的遗憾上限,但是它忽略了公平学习的重要性,而公平学习是人工智能是一个非常重要的标志。(2)第二种方法是在线公平性学习。尽管这种方法适应于许多涉及公平性的分类问题, 但这种方法主要集中于在没有任何特定任务适应性的情况下实现零概率泛化,这也因此限制了模型适应新数据的能力。为了克服上面的问题,本文首次提出了一种新的在线元学习算法FFML,该算法是在不公平预防背景下进行的。FFML的关键部分是学习在线公平分类模型的原始参数和对偶参数的良好先验,它们分别与模型的准确性和公平性有关,并且该原始和对偶参数对的优化问题是采用一个双层次的凸-凹优化方法。该算法的理论分析同时为遗憾损失和累积公平性限制提供了次线性上限。此外,该算法的有效性被基于真实数据的实验得到了证明。