采访 Deepika Vemuri:可解释性和基于概念的学习

我们对 AAAI/SIGAI 博士联盟参与者的系列最新采访的主角是 Deepika Vemuri,她致力于可解释性和基于概念的学习。我们更多地了解了她一直在研究的基于概念的模型的两个方面。您能告诉我们一些关于您的博士学位的信息吗?您在哪里学习,什么是[...]

来源:ΑΙhub

我们对 AAAI/SIGAI 博士联盟参与者的系列最新采访的主角是 Deepika Vemuri,她致力于可解释性和基于概念的学习。我们更多地了解了她一直在研究的基于概念的模型的两个方面。

您能给我们介绍一下您的博士学位吗?您在哪里学习,您的研究主题是什么?

我是印度理工学院海得拉巴分校的一名博士生,在 PMRF 奖学金的支持下与 Vineeth N Balasubramanian 博士一起工作。当前大多数最先进的模型都是黑匣子,当这些模型用于刑事司法和医疗保健等高风险应用时,这一点尤其成问题,因为人们的生活取决于这些模型的决策。可解释性是必要的。我从基于概念的学习的角度来解决这个问题,这是一种旨在通过高级的、人类可理解的概念来指导模型的学习过程的范式。例如,在图像分类设置中,模型可以学习寻找毛皮、胡须和哺乳动物等概念,以将输入分类为猫。我喜欢认为这类似于人类的概念学习。假设一个孩子正在学习鸟的概念是什么,他们可能会观察多种类型的鸟,随着时间的推移,他们会了解到它们拥有一组共同的特征——概念——比如翅膀、喙、会飞等等,他们可以利用这些特征来识别某种鸟。我攻读博士学位的目标是让视觉模型具有类似的功能。因此,概念充当模型的镜子,捕获语义抽象。

您能给我们概述一下您在博士期间所进行的研究吗?

图 1:(a) 我们的方法在 CUB200 数据集上捕获的示例谓词。如果环斑翠鸟的翅膀图案有斑点,则其上半身呈黑色。 (b) 更多类共享的属性更通用。

您的研究中有一个特别有趣的方面吗?

关于迪皮卡

标签:

,