站长之家 - 业界 2024-03-27 14:05

谷歌新研究成果:让大语言模型理解「图的语言」,性能提升60%

划重点:

⭐ 谷歌团队发现一种方法,将图转换为文本,显著提高LLMs在图形问题上的准确性。

⭐ 使用GraphQA基准测试评估LLMs在特定于图形问题的能力,为其提供了适应图形任务的能力。

⭐ 通过研究图形结构、编码方式和任务类型等因素,探索了提升LLMs在图形问题上性能的途径。

站长之家(ChinaZ.com) 3月27日 消息:近日,谷歌在ICLR2024上推出了一项重大成果:他们成功让大型语言模型(LLMs)学会理解「图的语言」,性能提升了高达60%。这项研究解决了LLMs在处理图形问题上的瓶颈,开启了图形数据与文本表示之间的新篇章。

图形结构作为信息组织的一种重要方式,在计算机科学领域中无处不在。然而,由于LLMs主要在常规文本上训练,缺乏对图形结构的理解,这使得将图形转换为LLMs可理解的文本成为一项复杂的任务。谷歌团队通过设计GraphQA基准测试,旨在评估LLMs针对特定图形问题的能力,并创造了一种让LLMs能够解决图形相关问题的方式,从而显著提高了LLMs在图形任务上的表现。

image.png

研究团队采用了多种方法将图形编码为文本,并将文本与问题反馈给LLMs进行处理。通过调查节点编码和边缘编码等关键问题,他们成功地改善了LLMs在图形问题上的性能。实验结果显示,选择合适的编码方式对LLMs的准确度有显著影响,而在图形推理任务中,规模更大的模型表现更好,但对于某些特定任务,模型规模并不是唯一的关键因素。

此外,研究团队还发现图的结构对LLMs的性能有着重要影响。在不同的图形任务中,LLMs的表现受到图形结构的影响,而提供一些混合样本可以帮助LLMs适应不同类型的图形结构,从而提高性能。

这项研究为解决LLMs在图形问题上的挑战提供了新的思路和方法。通过合理地将图形数据转换为文本表示,并结合适当的编码方式和任务类型,谷歌团队成功提升了LLMs在图形任务上的性能,为未来更深入的研究和应用打下了基础。

论文地址:https://openreview.net/pdf?id=IuXR1CCrSi

相关话题

推荐关键词

24小时热搜

查看更多内容

大家正在看