基于多源信息融合的图像自动标注与事件检测技术研究
随着互联网的发展,社会网络中丰富的文本、视觉、用户等信息为图像自动标注和事件检测技术提供了广阔的应用前景。本研究成果旨在利用这些信息,研究图像自动标注算法及基于标签的图像/事件检测技术,提高图像标注的准确性和事件检测的效能。
研究方法与成果
1、基于视觉特征和语义特征融合的图像自动标注及图像检索算法
我们提出了一种基于视觉特征和语义特征融合的图像自动标注及图像检索算法。通过特征关联图融合图像的视觉特征与语义特征,改进了MRF概率模型,实现标签与图像、检索语句与图像的联合分布概率计算。该方法能有效实现图像的自动标注与检索。
2、标签信息量与关联度的测量方法
为解决标签质量问题,我们提出了标签信息量的测量方法以及标签集与单个标签之间关联度的测量方法。通过启发式方法,改善了图像标注的标签质量。利用标签的信息量与关联度可以提高图像标注算法结果标签的质量。
3、基于图像与文本搜索结果挖掘的自动图像标注方法
我们基于搜索框架,提出了基于图像与文本搜索结果挖掘的自动图像标注方法。该方法通过文本搜索利用网络中除图像以外的其他资源以扩展图像标签,这种方法可以有效利用不同的网络资源来完善图像标签和提高图像检索性能。
4、结合利用社会图像的视觉、文本、用户及时间等多种信息检测图像事件
我们提出了结合利用社会图像的视觉、文本、用户及时间等多种信息检测图像事件的方法。首先融合社会图像的视觉、语义和用户等特征,然后通过改进的概率模型结合社会图像的时间信息来计算图像属于某个事件的联合概率。这种方法可以提高图像事件检测的性能。