清华夺SIGIR 2024「时间检验+最佳论文奖」!中国大陆研究机构首次牵头获奖


  新智元报道  

编辑:桃子 好困
【新智元导读】刚刚,信息检索领域的国际顶会SIGIR 2024,公布了最终获奖结果。在所有获奖名单中,来自清华计算机系的团队们斩获了两大奖项——时间检验奖、最佳论文奖,实至名归!

一年一届的信息检索领域顶会SIGIR 2024,终于开奖了!

今年,SIGIR组委会暂未汇总公布所有的获奖名单,不过已经有机构/网友纷纷晒出了自己的成绩单。

值得一提的是,清华计算机系今年一次摘得多项大奖:

2014年发表的论文斩获SIGIR 2024唯一「时间检验奖」,另一篇论文获得「最佳论文奖」。

网友对此表示热烈祝贺,「实至名归」!

另外,CS系助理教授艾清遥还获得了「青年学者奖」,这也是中国大陆研究学者首次拿下该奖项。

除清华艾清遥之外,还有微软研究院Bhaskar Mitra、拉德堡德大学Harrle Oosterhuis,以及中科大Xiang Wang教授(王翔)成为青年学者奖的获奖者!

此外,还有社区奖、DEI奖的三位获奖者。

今年,是国际计算机学会信息检索大会(SIGIR)第47届会议,于7月14日-18日在美国华盛顿特区正式召开。

这次会议共收到1148篇投稿,其中有791篇是有效投稿,仅有159篇长文被录用,录用率为20.1%。相较于CVPR、ICML这样的顶会,投稿数少了一大截。

根据艾清遥对接受论文的统计,从各研究机构教师的论文数量来看,今年亚洲的贡献似乎最大。

接下来,一起看看大家的获奖成果。

清华CS系抱走两项大奖

最佳论文奖——Scaling Laws For Dense Retrieval

这篇获奖论文,由共同一作方言、詹靖涛,指导老师艾清遥助理教授、刘奕群教授完成的论文。

这是来自中国大陆的研究机构首次牵头获得该奖项。

论文地址:https://dl.acm.org/doi/abs/10.1145/3626772.3657743

Scaling Law早已成为大模型公认的定律,即LLM智能水平与参数规模呈正相关性,成为大模型区别于传统AI模型的重要特征。

然而,这一定律是否适用于其他深度神经网络模型,仍旧存在巨大的争论。

在这项研究中,作者针对这一问题展开了深入的研究。

他们设计了新型检索性能评价范式,验证了Scaling Law在稠密信息检索中的适用性。

这对搜索引擎、推荐系统等信息检索系统的设计,将发挥重要的指导作用。

时间检验奖——Explicit factor models for explainable recommendation based on phrase-level sentiment analysis

时间检验奖,通常颁给10年以上的产生重要持久影响的学术论文。

这篇发表在2014年的论文,由时任计算机系张永锋博士、赖国堃等学生,在张敏教授、刘奕群教授、马少平教授指导下完成。

清华官微称,自2014年以来,这项「可解释性推荐」研究自发表以来,在互联网推荐系统的设计与实现中一直发挥着重要的引领作用。

正如论文题目所示,研究中首次定义了「可解释性推荐」的问题。

同时,研究人员设计了相应的情感分析算法,以解决这一技术挑战,

论文地址:https://dl.acm.org/doi/10.1145/2600428.2609579

根据Google Scholar的统计,截至目前,这篇论文被引数近千次。

其他奖项

最佳论文提名

来自山东大学、莱顿大学、阿姆斯特丹大学的研究人员发表的论文——Generative Retrieval as Multi-Vector Dense Retrieval,获得了最佳论文提名。

研究中,作者介绍了生成式检索在给定查询的情况下,使用序列-序列架构,以端对端的方式生成相关文档的标识符。

当前,生成式检索与其他检索方法(尤其是密集检索)的关系尚未完全清晰。

先前的研究发现,使用原子标识符的生成式检索,等同于单向量密集检索。然而,以前的研究仅关注检索阶段,而未考虑生成式检索解码器内部的深层交互。

本文通过证明生成式检索和多向量密集检索,共享衡量文档与查询相关性的框架来填补这一空白。

论文地址:https://arxiv.org/pdf/2404.00684

最佳论文奖亚军

还有一篇来自格拉斯哥大学和比萨大学的研究人员发表的A Reproducibility Study of PLAID,获得了最佳论文奖亚军。

此前研究中,ColBERTv2的PLAID(Performance-optimized Late Interaction Driver)算法,使用聚类的术语表示来检索和逐步筛选文档,以进行最终(精确)的文档评分。

最新论文,研究人员重现了原始工作,并填补了其中的空白。

通过研究PLAID引入的参数,作者发现了其帕累托前沿(Pareto frontier)是由三个参数之间的精心平衡形成的。

而超出建议设置的偏差可能会大幅增加延迟,而不一定能提高其效果。

之后,研究比较了PLAID和对BM25结果进行重新排序的方法,在低延迟情况下,重新排序方法表现更好。但在高延迟情况下,重新排序方法难以达到最佳效果。

论文地址:https://arxiv.org/pdf/2404.14989

最佳短论文奖

来自马萨诸塞大学阿默斯特分校的研究人员发表的Evaluating Retrieval Quality in Retrieval-Augmented Generation,获得了本届SIGIR最佳短论文奖。

这篇获奖论文,仅有6页。

研究中,提出了一种全新的评估检索增强生成(RAG)系统的方法,名为eRAG。

之所以提出全新的方式,是因为当前RAG系统评估面临着挑战。

论文地址:https://arxiv.org/pdf/2404.13781

一是传统的端到端评估方法计算成本高,另一个是基于查询-文档相关性标签的检索模型评估,与RAG系统的下游性能相关性较小。

eRAG方法可以将检索列表中的每个文档,都被单独输入到RAG系统的大模型中,针对每个文档生成的输出都基于下游任务的真实标签进行评估。

结果显示,eRAG显著改善了运行时间。相较于端到端的评估,GPU内存消耗减少了最多50倍。

参考资料:https://x.com/thudcst/status/1813395091723272199https://x.com/QingyaoAi/status/1785245799439630351https://mp.weixin.qq.com/s/4SPX31Rt-j75pYHcBmGdTA


相关推荐

  • OpenAI超级对齐团队再发「绝唱」!首提「证明者-验证者」博弈,训练GPT说人话
  • 跨境电商,一人搞定?我们雇阿里国际的AI开了家店,赚遍全球市场
  • ACL 2024 | 对25个开闭源模型数学评测,GPT-3.5-Turbo才勉强及格
  • 清华包揽最佳论文+时间检验奖,山大获荣誉提名,SIGIR 2024奖项出炉
  • OpenAI超级对齐团队遗作:两个大模型博弈一番,输出更好懂了
  • 独家对话李岩:宿华、经纬、红点资金支持,第一个「生成式推荐」创业公司|AI Pioneers
  • GitHub星标超16万,爆火AutoGPT进阶版来了:定制节点、多智能体协同
  • 电子书上新 |《大模型领航:数据智能应用蓝图》
  • 连续5年,中国唯一,QuickBI再次站稳Gartner ABI挑战者象限
  • 金融级实时数仓建设实践
  • ​ECCV 2024 | 提高天花板:动态视角切换下的无冲突局部特征匹配
  • 联汇科技OmChat:突破长视频理解极限的多模态大模型
  • 专治大模型“刷题”!贾佳亚团队新基准让模型只挑错不做题,GPT-4得分不到50
  • 只激活3.8B参数,性能比肩同款7B模型!训练微调都能用,来自微软
  • 陈丹琦团队揭Transformer内部原理:另辟蹊径,从构建初代聊天机器人入手
  • OpenAI“最后一篇”超级对齐论文发布:大小模型相互博弈,输出可读性up
  • 一口气投出4家具身智能明星创企,联想创投王光熙:中国应是机器人最大用户国/生产国
  • AI创作、AI绘画、AI视频、AI数字人
  • 后悔从腾讯离职了
  • 这个男人,投了199元,赚了100万!