度小满金融AI-Lab两篇论文入选国际顶级会议

近日,度小满金融数据智能应用部AI-Lab的两篇论文分别入选ACM MM和CIKM国际顶级会议。两篇论文分别就多模态和预训练排序等多个热门话题提出了新颖的算法,并在相关任务上达到了国际顶尖水平,获得了审稿人的一致好评并最终录用。这标志着度小满在自然语言处理和计算机视觉等人工智能前沿领域的研究得到了国际同行的认可。

▐ 具有实体对齐网格的位置增强Transformer被ACM MM录用

Position-Augmented Transformers with Entity-Aligned Mesh for TextVQA

ACM MM(ACM International Conference on Multimedia)是计算机科学领域中多媒体领域的顶级国际会议,涵盖了多个媒体领域的前沿研究与进展,包括图像,文字,音频,传感器等,被中国计算机学会(CCF)列为A类会议。ACM MM2021将于2021年10月20日-24日在中国成都举办。

许多图像除了实际的物体和背景等信息外,通常还包含着很有价值的文本信息,这对于理解图像场景是十分重要的。因此本文主要研究基于文本的视觉问答任务,这项任务要求机器可以理解图像场景并阅读图像中的文本来回答相应的问题。然而之前的大多数工作往往需要设计复杂的图结构和利用人工指定的特征来构建图像中视觉实体和文本之间的位置关系。为了直观有效地解决这些问题,我们提出了具有实体对齐网格的位置增强Transformer。与之前的模型相比,我们在不需要复杂规则的情况下,显式地引入了目标检测和OCR识别的视觉实体的连续相对位置信息。同时我们根据物体与OCR实体映射关系,用直观的实体对齐网格代替复杂的图形结构。在该网格中,不同位置的离散实体和图像的区块信息可以充分交互。

该模型能够整合目标检测、OCR以及基于Transformer的文本表示等多种方法的优势,增强算法对于图像中场景信息的理解,更精准的融合图像与文本多模态的信息,进一步助力证件识别、人脸与活体检测等业务场景,提升度小满在视觉风控方面的技术能力。

▐ 基于BERT的动态多粒度排序模型被CIKM录用

Dynamic Multi-Granularity Learning for BERT-Based Document Reranking

CIKM(The Conference on Information and Knowledge Management )是由ACM主办的信息检索和数据挖掘等领域的国际顶级会议,由国际计算机学会ACM SIGIR分会主办,每年召开一次。自1992年以来,CIKM成功汇聚了一批相关领域的优秀研究人员,交流信息与知识管理研究、数据和知识库等方面的最新发展,在相关领域享有非常高的学术声誉。今年的CIKM将于11月1日- 5日在澳大利亚昆士兰举办。

近年来,预训练的语言模型广泛应用于文本的检索排序任务中。然而,在真实场景中,用户的行为往往受到选择或曝光偏差的影响,这可能会导致错误的标签进而引入额外噪声。而对于不同候选文档,以往的训练优化目标通常使用单一粒度和静态权重。这使得排序模型的性能更容易受到上述问题的影响。因此,在本文中我们重点研究了基于BERT的文档重排序任务,开创性地提出了动态多粒度学习方法。该种方法能够让不同文档的权重根据预测概率动态变化,从而减弱不正确的文档标签带来的负面影响。此外,该方法还同时考虑了文档粒度和实例粒度来平衡候选文档的相对关系和绝对分数。在相关基准数据集上的实验进一步验证了我们模型的有效性。

该模型有效地提升了长文本理解与排序任务的性能,特别是其中所用到的预训练语言模型已经成为度小满在自然语言处理方面的基础架构,在获客、信贷等业务场景被广泛地使用,为业务模型提供了更加丰富的文本表示和精准的文本特征,在保障业务稳健发展中起到了十分重要的作用。

标签

发表评论