首页 游戏 软件 资讯 排行榜 专题
首页
科技数码
微软阿里联手突破:视觉语言模型「深度广度融合」新变革

微软阿里联手突破:视觉语言模型「深度广度融合」新变革

热心网友
70
转载
2026-03-11


免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈

这项由微软研究院和马里兰大学合作开展的研究发表于2024年12月,论文编号为arXiv:2412.04424v1。研究团队突破了传统视觉语言模型的局限,开发出了名为Florence-VL的新型多模态大语言模型。有兴趣深入了解的读者可以通过该论文编号查询完整研究内容。

当我们在和朋友聊天时描述一张照片,我们会说"这里有两只小狗在草地上玩耍,旁边的牌子上写着'禁止入内'"。你有没有想过,为什么我们能够同时注意到照片的整体场景(小狗玩耍)和具体细节(牌子上的文字)?这正是人类视觉理解的神奇之处——我们能够在不同的"观察深度"和"关注范围"之间自由切换。

然而,现在的AI视觉模型却面临着一个尴尬的困境。传统的视觉语言模型就像是一个只能戴着固定焦距眼镜的人,只能看到照片的大致轮廓和整体场景,却经常忽略掉照片中的文字、细节或者物体之间的精确位置关系。这就好比你让它描述一张菜谱照片,它只能告诉你"这是一道菜",但看不清楚具体的食材用量和制作步骤。

微软研究院和马里兰大学的研究团队意识到了这个问题,他们提出了一个巧妙的解决方案:既然单一的"观察视角"有局限性,为什么不让AI学会用多种不同的"眼光"来看待同一张图片呢?就像一个摄影师会从不同角度、用不同镜头来拍摄同一个场景一样。

研究团队开发的Florence-VL模型采用了一种被称为"深度广度融合"的创新方法。这个名字听起来有些技术性,但其实原理很容易理解。想象你正在观察一幅画,你可能会先远远地看整体构图,然后走近仔细观察笔触细节,最后可能还会用放大镜查看签名。Florence-VL正是模拟了这种多层次的观察过程。

这项研究的创新之处在于,它不再依赖于传统的CLIP模型——那种只能提供单一视觉特征的"万金油"方案。相反,研究团队选择了Florence-2作为视觉编码器,这是一个具有"生成式视觉理解"能力的模型。简单来说,Florence-2就像是一个多才多艺的艺术评论家,它不仅能描述画作的整体风格,还能指出画中的具体物品,甚至能识别出画框上的标签文字。

研究团队在25个不同的基准测试中验证了Florence-VL的性能,结果令人惊喜。这个模型在各种任务中都表现出色,无论是回答关于图片内容的问题、识别图片中的文字,还是理解图表和图形,Florence-VL都能够提供更准确、更全面的答案。

更重要的是,研究团队发现他们的方法具有很强的实用性。通过巧妙的特征融合策略,Florence-VL在保持计算效率的同时,大幅提升了视觉理解的准确性。这意味着未来的AI助手可能真的能够像人类一样,既能理解照片的整体内容,又能注意到其中的细节信息。

这项研究的意义不仅在于技术突破,更在于它为我们展示了AI视觉理解的新可能。在不久的将来,当我们向AI展示一张复杂的信息图表或者一份手写文档时,它能够像人类专家一样,既理解整体脉络,又不遗漏任何重要细节。

一、传统视觉模型的"盲点"问题

现有的大多数视觉语言模型都面临着一个根本性的挑战,就像是一个近视眼的人试图既要看清远山的轮廓,又要辨认近处书本上的小字一样困难。传统的CLIP模型虽然在很多任务上表现不错,但它有一个明显的局限性:只能提供图像的高层语义表示,也就是说,它只能告诉你这张图片的大致内容是什么,却难以捕捉到图片中的文字信息、精确的空间关系或者低层次的视觉细节。

这种局限性在日常应用中会造成很多问题。比如,当你向AI展示一张包含文字说明的产品图片时,传统模型可能只能识别出"这是一个电子产品",但看不清产品说明书上的具体规格参数。或者当你询问一张地图上的具体信息时,模型能够识别出"这是一张地图",却无法读出地图上的地名和标注。

问题的根源在于,这些传统模型采用的是对比学习的训练方式。简单来说,就是通过比较图片和文本描述的相似性来学习视觉特征。这种方法虽然能够建立图片和语言之间的基本对应关系,但它更偏重于学习图片的整体印象,而不是细致的局部信息。

研究团队通过大量实验发现,当面对需要精确理解图片细节的任务时,传统模型的表现会明显下降。这不仅仅是一个技术问题,更是限制了AI在实际应用中的潜力。毕竟,真实世界的视觉理解往往需要我们同时掌握宏观和微观的信息。

更令人困扰的是,为了弥补单一视觉编码器的不足,一些研究尝试同时使用多个不同的视觉编码器,每个编码器专门负责不同类型的视觉特征。但这种方法就像是让一个人同时戴着好几副不同的眼镜,虽然理论上能看到更多细节,但实际操作起来既复杂又消耗计算资源。

面对这些挑战,研究团队开始思考:是否可能用一个更聪明的方法,让单一的视觉模型学会从多个角度和层次来理解图片,就像人类视觉系统那样灵活和全面?

二、Florence-2:会"讲故事"的视觉编码器

在寻找解决方案的过程中,研究团队将目光投向了一个特殊的视觉模型——Florence-2。与传统的视觉编码器不同,Florence-2具有一个独特的能力:它不仅能"看"图片,还能根据不同的"提示"来"讲述"关于图片的不同故事。

这种能力可以用一个简单的类比来理解。假设你请一位朋友描述同一张度假照片,如果你说"请描述照片的整体场景",他可能会说"这是一个美丽的海滩,有蓝天白云"。如果你说"请告诉我照片中的文字信息",他会注意到"照片角落有一个路牌,上面写着海滩的名字"。如果你说"请描述照片中物体的位置关系",他会告诉你"椰子树在左边,遮阳伞在右边,两者之间有一定距离"。

Florence-2正是具备了这种"因需而异"的视觉理解能力。它采用的是生成式训练方法,在训练过程中学会了处理各种不同的视觉任务,包括图像描述、文字识别、目标检测和空间定位等。这意味着同一张图片输入到Florence-2中,根据给出的不同提示,它能够提供完全不同类型的视觉特征。

更具体地说,Florence-2包含了一个视觉编码器DaViT和一个标准的编码器-解码器架构。当接收到一张图片和一个任务提示时,模型首先将图片转换为视觉标记,然后将这些标记与任务提示结合,通过注意力机制来生成针对特定任务的视觉表示。

研究团队特别关注了三种不同类型的提示,每一种都能让Florence-2展现出不同的"观察视角"。第一种是详细图像描述提示,让模型关注图片的整体场景和上下文信息。第二种是OCR提示,专门让模型提取图片中的文字信息。第三种是密集区域描述提示,让模型关注图片中不同物体的位置关系和空间布局。

通过可视化分析,研究团队发现这三种不同的提示确实能够让Florence-2产生具有明显差异的视觉特征。当使用描述提示时,模型的注意力更多集中在图片的主要对象和整体场景上。当使用OCR提示时,模型的注意力会精准地定位到图片中的文字区域。当使用空间定位提示时,模型会更关注不同物体之间的边界和位置关系。

这种多样化的视觉理解能力为解决传统视觉模型的局限性提供了新的可能。不再需要使用多个不同的视觉编码器,单一的Florence-2就能够根据需要提供不同类型的视觉信息。这就像是拥有了一副能够自动调节焦距和视角的智能眼镜,既能看清远处的风景,也能读懂近处的文字。

三、深度广度融合:让AI学会"多角度观察"

有了Florence-2这个"多才多艺"的视觉编码器,下一个挑战就是如何巧妙地整合它产生的不同类型视觉特征。研究团队提出了一个创新的解决方案,他们称之为"深度广度融合"(DBFusion)。这个名字虽然听起来很技术化,但其背后的想法其实相当直观。

所谓"深度",指的是从视觉处理的不同层次来提取信息。就像我们观察一幅画作时,既会注意到画面的构图和色彩(高层信息),也会关注笔触和细节(低层信息)。在技术实现上,研究团队不仅使用Florence-2处理后的高级视觉特征,还保留了来自DaViT视觉编码器原始输出的低层特征。这样做的好处是能够确保模型既理解图片的语义内容,又不会丢失重要的细节信息。

所谓"广度",则是指利用不同的任务提示来获得图片的多个"视角"。就像同一个场景可以从正面、侧面、俯视等不同角度来观察一样,Florence-2能够根据不同的提示生成不同类型的视觉特征。研究团队选择了三个互补的提示:详细描述提示用于获取整体场景理解,OCR提示用于提取文字信息,空间定位提示用于理解物体关系。

将这些不同深度和广度的视觉特征有效融合是一个关键的技术挑战。研究团队尝试了几种不同的融合策略。第一种是标记整合,也就是将所有特征在序列维度上连接起来,但这会导致输入序列过长,增加计算复杂度。第二种是平均池化,将多个特征取平均值,但这可能会造成信息损失。

经过大量实验比较,研究团队发现最有效的方法是通道整合,也就是在特征的通道维度上进行连接。这种方法既不会增加序列长度,也能很好地保留各种特征的独特信息。可以把这个过程想象成制作一杯混合果汁:不是简单地将不同水果榨汁后混合(那样可能会相互稀释),而是将不同水果的营养成分在分子层面进行有机融合,既保持了各自的特色,又形成了更丰富的整体口感。

为了验证这种融合策略的有效性,研究团队进行了详细的对比实验。结果显示,通道整合策略在保持计算效率的同时,在各项测试中都取得了最好的性能表现。特别是在需要同时理解图片整体内容和细节信息的复杂任务中,这种融合方法显示出了明显的优势。

融合后的特征通过一个多层感知机投影到大语言模型的输入空间中。这个投影过程就像是为来自不同"观察视角"的信息找到一种共同的"语言",让它们能够与文本信息有效对接,形成真正的多模态理解。

四、实验验证:Florence-VL的全面性能表现

为了全面评估Florence-VL的性能,研究团队设计了一套包含25个不同基准测试的综合评估方案。这些测试涵盖了视觉语言模型可能面临的各种实际应用场景,就像是给AI学生安排了一场涵盖多个科目的期末考试。

在通用多模态基准测试中,Florence-VL表现出了稳定而优秀的性能。这类测试主要评估模型对图片的基本理解能力,比如回答关于图片内容的问题、描述图片中的场景等。研究结果显示,无论是使用较小的3B参数模型还是更大的8B参数模型,Florence-VL都能在大多数测试中超越现有的先进模型。

特别值得注意的是,在与直接竞争对手的比较中,Florence-VL展现出了明显的优势。例如,与同样使用576个视觉标记的Cambrian-8B模型相比,Florence-VL不仅在整体性能上更优秀,而且只使用了单一的视觉编码器,而Cambrian需要多个不同的视觉编码器组合才能达到相似的效果。这就像是一个多面手超越了一个专业团队,展现了Florence-VL方法的高效性。

在视觉中心任务的测试中,Florence-VL的优势更加明显。这类任务主要考验模型对图片细节信息的理解能力,比如识别图片中的小物体、理解物体之间的空间关系等。由于Florence-VL能够从多个层次和角度来理解图片,它在这些需要精细视觉分析的任务中表现得特别出色。

OCR和图表理解测试是另一个重要的评估领域。传统的视觉语言模型在处理包含文字或图表的图片时往往表现不佳,因为它们缺乏专门的文字识别能力。但Florence-VL通过整合OCR特定的视觉特征,在这类任务中取得了显著的改进。无论是识别图片中的文字、理解图表中的数据关系,还是回答基于文档内容的问题,Florence-VL都表现出了强大的能力。

知识密集型任务的测试结果则展示了Florence-VL在复杂推理方面的潜力。这类任务不仅要求模型能够理解图片内容,还需要结合已有知识进行推理和判断。虽然这类任务的性能主要取决于底层语言模型的能力,但研究结果表明,更好的视觉理解确实能够为复杂推理提供有力支持。

为了更深入地理解Florence-VL性能提升的原因,研究团队还进行了详细的消融实验。这些实验通过逐一移除模型的不同组件,来分析每个组件对整体性能的贡献。结果显示,无论是来自不同深度的特征还是来自不同提示的特征,都对模型的最终性能有重要贡献。这验证了"深度广度融合"方法的有效性。

研究团队还特别关注了视觉编码器与语言模型之间的对齐质量。他们设计了一个定量分析方法来评估不同视觉编码器与语言模型的匹配程度。结果显示,Florence-2相比于其他主流视觉编码器,能够实现更好的跨模态对齐,这为Florence-VL的优秀性能提供了理论支撑。

五、技术细节与训练策略

Florence-VL的成功不仅归功于创新的架构设计,也离不开精心设计的训练策略。研究团队采用了一种两阶段的训练方法,这个过程就像是培养一个学生,先让他掌握基础知识,然后再进行专业技能训练。

在预训练阶段,研究团队使用了大规模的图像描述数据集,包括来自CC12M、RedCaps和CommonPool等数据源的1690万张图片。与传统的LLaVA训练方法不同,Florence-VL在这个阶段对整个模型进行端到端的训练,而不是只训练投影层。这种做法虽然计算成本更高,但能够让视觉编码器、投影模块和语言模型之间形成更好的协调配合。

训练数据的质量对模型性能有着至关重要的影响。研究团队特别注重使用高质量的详细图像描述,这些描述不仅包含图片的基本内容,还包含丰富的细节信息。为了进一步提升数据质量,他们还使用了PixelProse等专门的详细描述数据集,确保模型能够学会生成更加准确和详细的图像理解。

在指令微调阶段,研究团队精心策划了一个包含1000万条数据的多样化训练集。这个训练集融合了来自Cambrian-7M、Vision Flan、ShareGPT4V等多个高质量数据源的内容,涵盖了各种不同类型的视觉语言任务。特别值得一提的是,他们还加入了来自Docmatix的数据,专门用于提升模型在图表和文档理解方面的能力。

训练过程中的超参数设置也经过了仔细优化。对于不同的语言模型底座,研究团队采用了不同的训练配置。例如,使用LLaMA-3.1-8B作为语言模型时,预训练阶段的全局批次大小为256,最大学习率为2e-5,使用余弦衰减学习率调度。微调阶段则使用相同的批次大小,但学习率降低到1e-5,以确保模型能够在保持泛化能力的同时适应具体任务。

为了提高训练效率,研究团队使用了8个节点共64块Nvidia H100 GPU进行分布式训练。这种大规模并行计算不仅加快了训练速度,也使得端到端训练大规模多模态模型成为可能。整个训练过程展现了现代AI研究中大规模计算资源的重要性,同时也体现了研究团队在工程实现方面的专业能力。

训练策略的另一个重要特点是对不同类型任务的平衡处理。研究团队确保训练数据中包含足够比例的OCR任务、空间理解任务和一般性视觉问答任务,这样能够让模型在各个方面都得到充分的训练,避免在某些特定任务上的偏向性。

六、深入分析:为什么Florence-VL更有效

为了真正理解Florence-VL为什么能够取得如此优异的性能,研究团队进行了一系列深入的分析实验。这些分析就像是医生为病人做全面体检,不仅要看表面症状,更要了解内在机制。

首先,研究团队设计了一个创新的跨模态对齐质量评估方法。这个方法的基本思想是,如果一个视觉编码器能够更好地与语言模型配合,那么在相同的训练数据下,它应该能够更快地达到更好的对齐效果。具体来说,他们使用了一个可训练的投影层来连接视觉特征和文本特征,然后通过优化交叉熵损失来衡量对齐的难易程度。

实验结果非常令人兴奋。在与包括Stable Diffusion、DINOv2、SigLIP和OpenAI CLIP等多个主流视觉编码器的比较中,Florence-2显示出了最低的对齐损失。这个结果有力地证明了Florence-2的视觉特征与语言模型具有更好的兼容性,这也解释了为什么Florence-VL能够在各种任务中表现优异。

更有趣的是,研究团队还分析了不同类型特征的具体贡献。他们发现,当移除任何一种类型的特征时,模型的整体性能都会有所下降。这说明深度和广度两个维度的特征确实都发挥了重要作用,它们之间是互补而非冗余的关系。

通过主成分分析(PCA)可视化,研究团队展示了不同提示产生的视觉特征确实捕捉到了不同类型的信息。详细描述特征主要关注图片的整体场景和主要对象,OCR特征专门聚焦于文字区域,而空间定位特征则突出了物体边界和位置关系。这种差异化的特征表示正是Florence-VL能够处理各种复杂视觉任务的基础。

特别值得注意的是,研究团队还比较了Florence-VL与传统LLaVA架构在相同训练数据下的性能差异。他们使用完全相同的训练数据和训练流程,只改变视觉编码器(从CLIP变为Florence-2)和特征融合方法。结果显示,即使在相同的训练条件下,Florence-VL在几乎所有测试中都明显优于LLaVA,这进一步证实了方法本身的优越性,而不是因为使用了更多或更好的训练数据。

对于OCR任务的专门分析揭示了一个有趣的发现。传统的视觉语言模型在处理包含文字的图片时,往往会完全忽略文字信息,或者只能识别出很少一部分。但Florence-VL通过专门的OCR特征,能够显著提升对文字信息的理解能力。这种提升不仅体现在纯文字识别任务上,也延伸到了需要结合图像和文字信息进行推理的复杂任务中。

研究团队还发现了一个意外的结果:即使在主要依赖语言模型能力的知识密集型任务中,更好的视觉理解也能带来性能提升。这说明视觉信息和语言推理之间存在着比预想更深层的交互关系,优质的视觉特征能够为语言模型提供更好的"理解基础"。

七、实际应用潜力与未来展望

Florence-VL的技术突破不仅仅停留在学术研究层面,它为许多实际应用场景带来了新的可能性。这些应用前景就像是一扇扇即将开启的大门,每一扇门后面都蕴藏着改变我们日常生活的巨大潜力。

在教育领域,Florence-VL能够显著提升智能教学助手的能力。当学生遇到包含复杂图表、公式或者多种视觉元素的学习材料时,传统的AI助手往往只能提供模糊的帮助。但Florence-VL既能理解材料的整体结构和主题,又能准确识别其中的文字、数字和图形细节。这意味着它可以为学生提供更精准、更全面的学习指导,就像一个既有宏观视野又关注细节的优秀老师。

医疗影像分析是另一个极具潜力的应用领域。医生在阅读X光片、CT扫描或者病理切片时,需要同时关注整体的病变模式和局部的细节特征。Florence-VL的多层次视觉理解能力使其有望成为医生的得力助手,既能识别影像中的整体异常模式,又能标注出具体的病变位置,甚至能够读取影像上的标注信息和测量数据。

在智能客服和商务应用中,Florence-VL能够处理用户上传的各种复杂图片。比如,当顾客上传一张包含产品信息、价格标签和使用说明的照片时,传统系统可能只能识别出"这是一个产品照片",但Florence-VL能够同时理解产品类型、读取价格信息、提取使用说明,并据此提供针对性的服务建议。

自动驾驶和机器人视觉系统也将从这项技术中受益。现实世界的交通环境包含了大量的文字信息(路标、车牌、店铺招牌)和复杂的空间关系(车辆位置、行人动向、道路结构)。Florence-VL的多角度视觉理解能力能够帮助这些系统更全面、更准确地理解周围环境,从而做出更安全、更智能的决策。

内容创作和媒体分析领域也面临着新的机遇。社交媒体平台每天都要处理海量的图片内容,需要进行内容审核、主题分类、信息提取等多种任务。Florence-VL能够同时理解图片的视觉内容和其中的文字信息,为自动化内容管理提供更强大的技术支撑。

不过,研究团队也坦诚地指出了当前技术的一些局限性和未来改进方向。虽然通道融合策略已经相当有效,但仍有进一步优化的空间。未来的研究可能会探索更智能的自适应融合方法,能够根据具体任务的需求动态调整不同类型特征的权重。

另一个值得关注的方向是计算效率的进一步提升。虽然Florence-VL已经比使用多个视觉编码器的方法更高效,但对于大规模实际部署来说,仍有优化空间。研究团队提到了可能的改进方案,比如开发能够根据任务需求选择性激活不同特征分支的自适应架构。

模型的可解释性也是一个重要的研究方向。虽然研究团队通过可视化分析展示了不同特征的作用,但如何让模型的决策过程更透明、更可解释,仍然是一个需要持续努力的课题。这对于医疗、金融等需要高度可靠性的应用领域尤其重要。

研究团队还展望了与其他前沿技术的结合可能。比如,Florence-VL的多角度视觉理解能力可以与高分辨率图像处理技术结合,处理更大、更复杂的图像内容。它也可以与视频理解技术结合,实现对动态视觉内容的多层次分析。

说到底,Florence-VL代表的不仅仅是一个技术改进,更是AI视觉理解范式的一次重要转变。它告诉我们,要让AI真正理解视觉世界,不能满足于单一的观察视角,而需要学会像人类一样,从多个角度、多个层次来观察和理解。这种"全方位视觉理解"的理念,很可能会影响未来多模态AI的发展方向。

随着模型和数据的进一步优化,我们有理由相信,下一代的AI视觉系统将能够更深入、更准确地理解我们的视觉世界。到那时,人机交互将变得更加自然和高效,AI助手将真正成为我们在复杂视觉任务中的可靠伙伴。这项研究虽然还处于起步阶段,但它已经为我们描绘出了一个令人期待的未来图景。

Q&A

Q1:Florence-VL相比传统的CLIP模型有什么优势?

A:Florence-VL使用Florence-2作为视觉编码器,能够从多个角度理解图片,既能把握整体场景,又能识别文字细节和空间关系。而传统CLIP模型只能提供单一的整体图像理解,经常忽略图片中的文字信息和精确细节。就像一个人既能远观全景又能近看细节,而不是只能戴着固定焦距的眼镜。

Q2:什么是深度广度融合技术,它是如何工作的?

A:深度广度融合是Florence-VL的核心创新技术。"深度"是指从不同处理层次提取视觉特征,既有高层语义理解又有低层细节信息。"广度"是指使用不同任务提示获得多种视觉特征,如整体描述、文字识别和空间定位。这些特征通过通道融合技术整合在一起,让AI能够同时具备多种视觉理解能力。

Q3:Florence-VL在实际应用中可能有哪些用途?

A:Florence-VL在多个领域都有广阔应用前景。在教育中可以帮助理解包含图表和公式的复杂教材,在医疗中可以分析医学影像的整体和细节特征,在智能客服中可以同时理解产品图片和其中的文字信息,在自动驾驶中可以更好地理解路标、车牌等交通环境信息。总的来说,任何需要同时理解图片整体和细节的场景都能受益。

来源:https://www.163.com/dy/article/KNOKS6930511DTVV.html
免责声明: 游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。

相关攻略

多模态创意营销工具Claw全球首发,让好创意更具商业价值
科技数码
多模态创意营销工具Claw全球首发,让好创意更具商业价值

最近有支叫《霍去病》的 AI 短片让我印象深刻,播放量轻松破亿,逼真得让人以为是重工业大制作。真相是:3 个人,48 小时,从立项到成片。 核心创作者还不是影视科班出身,人家之前只是一名内容运营。同

热心网友
03.27
费元华分享:AI时代,审美的情感竞争力才是核心
科技数码
费元华分享:AI时代,审美的情感竞争力才是核心

3月27日至29日,2026全球开发者先锋大会(GDPS 2026)在上海西岸国际会展中心举行。在“AI+时代的企业创新与OPC发展论坛”上,上海智灵新境科技有限公司CEO费元华分享观点称:情感与审

热心网友
03.27
蔚来CEO卢放谈视觉与激光雷达:真安全是看清而非仅看见
编程语言
蔚来CEO卢放谈视觉与激光雷达:真安全是看清而非仅看见

3月26日消息,近日,长城魏牌CEO赵永坡发布视频谈到辅助驾驶传感器,其直言称“激光雷达数量越多,体验并不一定会越好,堆硬件有时是取巧。”这样的观点显然并不被所有人认可,今日下午,岚图汽车CEO卢放

热心网友
03.26
它石智航发布OmniVTA模型:从被动感知到理解接触的视觉新突破
AI
它石智航发布OmniVTA模型:从被动感知到理解接触的视觉新突破

新智元报道编辑:犀牛【新智元导读】从「被动感知」到「主动预测」,首个视触觉世界模型让机器人真正学会「理解接触」。想象这样一个场景:你正在擦桌子、削水果,或者插拔一个精密零件。这些动作对人类来说轻而易

热心网友
03.26
商汤徐立谈AI规模化爆发:语言与视觉融合是突破智能上限路径
科技数码
商汤徐立谈AI规模化爆发:语言与视觉融合是突破智能上限路径

“语言与视觉的深度融合是突破智能上限的高效路径。”3月24日晚间,在人工智能公司商汤集团股份有限公司(商汤-W,0020 HK)业绩会上,商汤科技董事长兼CEO徐立表示:“我们深信语言与视觉的深度融

热心网友
03.26

最新APP

你比我猜
你比我猜
休闲益智 03-26
锦绣商铺
锦绣商铺
模拟经营 03-26
儿童画画
儿童画画
休闲益智 03-25
疯狂猜词
疯狂猜词
休闲益智 03-25
诸神皇冠
诸神皇冠
棋牌策略 03-25

热门推荐

猎豹浏览器免安装网页版:在线云端使用入口与教程
电脑教程
猎豹浏览器免安装网页版:在线云端使用入口与教程

猎豹浏览器免安装网页版入口是https: web lemur-browser com,具备界面简洁响应迅速、多端同步无缝衔接、安全防护层级丰富、文档处理能力突出、资源兼容性广泛覆

热心网友
03.27
昆仑万维发布三大世界第一梯队AI模型
科技数码
昆仑万维发布三大世界第一梯队AI模型

据昆仑万维集团消息,3月27日下午,昆仑万维(300418 SZ)旗下天工AI顺利举办“世界模型前沿技术与天工AIGC全家桶大模型生态”专场发布会,携Matrix-Game 3 0、SkyReels

热心网友
03.27
杨植麟、张鹏、夏立雪、罗福莉论道大模型:未来一年趋势前瞻
科技数码
杨植麟、张鹏、夏立雪、罗福莉论道大模型:未来一年趋势前瞻

本报(chinatimes net cn)记者石飞月 北京报道大模型未来会走向哪里?OpenClaw的爆火似乎为全行业指明了一个方向,但接踵而至的舆论质疑,又让这个答案变得扑朔迷离。3月27日,在2

热心网友
03.27
Anthropic核心模型意外泄露,网络安全股面临冲击风险
科技数码
Anthropic核心模型意外泄露,网络安全股面临冲击风险

Anthropic一款尚未发布的新AI模型因数据泄露意外曝光,引发市场对AI颠覆网络安全行业的担忧再度升温,网络安全板块股价周五盘前全线下挫。据《财富》杂志报道,Anthropic正在开发并已开始向

热心网友
03.27
Token经济到来,解析互联网大厂的布局与冷思考
科技数码
Token经济到来,解析互联网大厂的布局与冷思考

3月初,腾讯在深圳总部楼下设立“龙虾站”,引发千人排队尝鲜。OpenClaw掀起的“全民养虾”热潮,在短短一个月内让更多人看到了AI Agent深入业务场景的价值,随即推动Token调用量大规模增长

热心网友
03.27