关闭广告

北京大学联合多所知名高校突破机器人视角转换技术

科技行者475人阅读


这项由北京大学多媒体信息处理国家重点实验室的钱泽中、李雨明团队,联合香港科技大学的迟晓为、韩思瑞,新加坡国立大学的王世尊,以及北京人形机器人创新中心的秦志远、巨晓洲等研究人员共同完成的突破性研究,于2025年10月发表在arXiv预印本平台(论文编号:arXiv:2510.07313v1)。这项名为"WristWorld"的技术首次实现了让机器人通过外部摄像头的画面,自动生成手腕视角的操作画面,就像给机器人装上了"想象力",让它能从第三人称视角推测出第一人称的精确操作画面。

说起机器人学习操作技能,就好比教一个人学做菜。传统方法就像只让这个人站在厨房门口看别人做菜,虽然能看到大致流程,但很难掌握握刀、翻炒等精细动作的要领。而如果能让学习者直接从厨师的视角观看——也就是"第一人称视角",那学习效果就会大大提升。问题在于,要获得大量的第一人称视角录像非常困难和昂贵,就像要给每个厨师都装上头戴摄像设备一样麻烦。

这正是当前机器人学习面临的核心挑战。现有的大型机器人数据库虽然包含了数万小时的操作录像,但绝大部分都是从旁观者角度拍摄的第三人称视角,真正从机器人"手腕"角度拍摄的第一人称视角录像少之又少。这种数据不平衡就像让学生只能远距离观察老师示范,而无法近距离观察手部精细动作一样,严重影响了机器人学习精确操作的能力。

研究团队的创新突破在于开发出了一套"视角转换想象系统"。这个系统能够智能分析第三人称的机器人操作录像,然后自动生成对应的第一人称手腕视角画面。这就好比有了一个神奇的"视角转换器",能够将站在厨房门口看到的做菜过程,转换成从厨师手部角度看到的精细操作画面。更令人惊喜的是,生成的画面不仅在空间上准确对应,在时间上也保持了完美的连贯性,就像真实拍摄的录像一样流畅自然。

整个技术系统采用了两阶段设计方案。第一阶段称为"重建阶段",就像一个精密的空间分析师,能够通过多个外部摄像头的画面,准确推算出机器人手腕的位置和朝向,并建立起整个操作场景的三维模型。第二阶段称为"生成阶段",则像一个创意导演,基于第一阶段提供的空间信息和场景理解,生成出逼真的手腕视角操作录像。

一、空间重建:给机器人装上"空间感知大脑"

重建阶段的核心是让计算机理解三维空间中正在发生的操作。研究团队基于先进的视觉几何模型VGGT,为其专门设计了一个"手腕头部"模块。这个模块就像给系统装上了专门理解手腕运动的"大脑区域",能够从多个外部摄像头的画面中,精确推断出机器人手腕在每个时刻的具体位置和朝向。

为了确保推断的准确性,研究团队创新性地提出了"空间投影一致性损失"方法。这种方法的巧妙之处在于,它不需要预先知道手腕的确切位置信息,而是通过比较不同视角画面中对应点的位置关系,来验证和调整手腕位置的推断结果。就好比通过检查一个物体在不同镜子中的映像是否一致,来确保对物体真实位置的判断准确无误。

具体来说,系统会在外部摄像头画面和预测的手腕视角画面之间建立密集的对应点关系。对于每一对对应点,系统会检查它们在三维空间中的投影关系是否合理。如果某个点在外部摄像头中显示为红色方块,那么在手腕视角中对应的位置也应该显示为同样的红色方块。通过这种"交叉验证"机制,系统能够不断修正对手腕位置和朝向的判断,最终获得高度准确的空间理解。

这个重建过程还会生成整个操作场景的四维点云模型——也就是包含时间维度的三维空间模型。这个模型就像一个详细的空间地图,记录了操作过程中每个物体在每个时刻的精确位置和运动轨迹。有了这个"时空地图",系统就能准确了解从手腕角度应该看到什么样的画面。

二、视频生成:将空间理解转化为逼真画面

生成阶段的任务是将第一阶段获得的抽象空间信息,转化为逼真的手腕视角操作录像。研究团队采用了基于扩散变换器的视频生成技术,这是目前最先进的AI视频创作技术之一。

整个生成过程就像一个精密的电影制作流程。首先,系统会将重建阶段获得的三维场景信息"投影"到手腕视角的画面平面上,形成一系列"条件地图"。这些地图就像电影拍摄中的故事板,为每一帧画面提供了基本的构图和物体布局指导。

为了让生成的画面更加丰富和真实,系统还会同时考虑外部摄像头画面中的语义信息。通过CLIP图像编码器,系统能够理解场景中的物体类型、材质特征和操作语义,然后将这些信息融入到手腕视角的画面生成中。这就好比在拍摄时不仅要考虑构图,还要确保画面中物体的材质、光照和细节都真实可信。

生成模型采用了条件扩散的工作原理。简单来说,这个过程就像是从一片噪声中逐步"雕刻"出清晰的画面。系统从随机噪声开始,在条件地图和语义信息的引导下,通过数百次微小的调整,最终生成出清晰、连贯的手腕视角操作录像。整个过程就像艺术家根据草图和参考资料,逐步完善一幅画作一样。

为了确保生成的视频在时间上保持连贯,系统特别设计了时序一致性机制。这个机制会确保相邻帧之间的物体运动轨迹合理,避免出现突然跳跃或不自然的变化。同时,系统还会维护整个视频序列中物体外观的一致性,确保同一个物体在不同帧中保持相同的颜色、纹理和形状特征。

三、性能验证:在多个平台展现卓越能力

研究团队在三个不同的机器人平台上验证了WristWorld技术的效果,包括大规模的Droid数据库、标准的Calvin仿真环境,以及自建的Franka Panda真实机器人系统。

在视频生成质量方面,WristWorld在所有评测指标上都取得了显著优势。以Franka Panda平台为例,该技术在时序连贯性指标FVD上达到了231.43的优异成绩,远超需要手腕视角首帧作为输入的Cosmos-Predict2模型(1156.69)和WoW 14B模型(985.99)。更重要的是,WristWorld完全不需要手腕视角的首帧输入,仅凭外部摄像头画面就能生成高质量的手腕视角视频。

在感知相似度和结构相似度等指标上,WristWorld同样表现出色。LPIPS指标达到0.33(数值越低越好),SSIM指标达到0.78(数值越高越好),这些数字表明生成的画面不仅在整体结构上与真实画面高度相似,在细节纹理上也保持了很高的还原度。

更令人振奋的是,使用WristWorld生成的手腕视角数据来训练机器人,实际操作能力获得了显著提升。在Calvin环境的连续任务测试中,加入生成数据的机器人平均任务完成长度从3.67提升到3.81,提升幅度达到3.81%。特别值得注意的是,这种改进缩小了仅使用外部视角和同时使用外部加手腕视角之间42.4%的性能差距。

在真实的Franka Panda机器人测试中,效果更加明显。以"拿起牛奶"这个任务为例,仅使用外部视角训练的机器人成功率只有13.3%,而加入WristWorld生成的手腕视角数据后,成功率跃升至33.3%,提升了整整20个百分点。"关闭上层抽屉"和"拿面包放进抽屉"等任务也都获得了13.3%的成功率提升。

四、技术创新:突破传统局限的关键设计

WristWorld技术的成功源于几个关键创新点的巧妙结合。首先是专门的手腕头部设计。与通用的视角转换方法不同,这个模块专门针对机器人手腕的运动特点进行了优化。机器人手腕的运动轨迹相对规律,但变化范围很大,需要专门的算法来准确追踪和预测。

空间投影一致性损失是另一个重要创新。传统方法往往需要预先标注的手腕位置信息来训练模型,但这种信息在现有数据库中极其稀缺。新方法通过比较不同视角画面中的对应点关系,实现了"自监督"学习,不需要额外的标注信息就能获得准确的手腕位置估计。

在视频生成方面,条件地图引导机制确保了生成画面的空间准确性。这些条件地图就像建筑师的平面图一样,为每一帧画面提供了精确的空间结构指导。同时,CLIP语义编码确保了画面的内容丰富性和真实感,让生成的画面不仅在几何结构上正确,在视觉效果上也足够逼真。

时序一致性保证机制解决了视频生成中的关键难题。许多现有的视频生成技术虽然能产生单帧高质量画面,但在处理运动物体的连续性时经常出现闪烁、跳跃等问题。WristWorld通过精心设计的时序约束和运动建模,确保了整个视频序列的流畅性和一致性。

五、实际应用:即插即用的技术扩展能力

WristWorld技术的另一个突出优势是其出色的扩展性和兼容性。研究团队将其设计为"即插即用"的技术模块,可以轻松集成到现有的机器人学习系统中,而无需对原有系统进行大幅修改。

以现有的单视角世界模型为例。这类模型原本只能处理单一摄像头的画面,生成对应视角的未来画面预测。通过加入WristWorld模块,这些模型瞬间获得了多视角能力——它们可以继续生成原有的外部视角预测,同时还能额外提供手腕视角的画面。这种升级就像给原本只能拍摄风景照的相机加上了微距镜头,瞬间获得了近距离特写的能力。

实验结果显示,这种即插即用的升级效果显著。以Cosmos-Predict2模型为例,原本该模型在Franka Panda平台上的FVD指标为1156.69,加入WristWorld模块后,这个指标改善到467.19,提升幅度达到59.6%。WoW 14B模型也获得了类似的显著提升,从985.99改善到455.57。

这种兼容性设计的实用价值巨大。现有的机器人研究机构和公司不需要推倒重来,可以直接在现有系统基础上获得手腕视角数据生成能力。这大大降低了技术采用的门槛和成本,有助于该技术的快速普及和应用。

六、深度分析:技术细节与实现挑战

从技术实现角度看,WristWorld面临和解决了多个重大挑战。首先是视角转换的巨大跨度。从外部第三人称视角转换到手腕第一人称视角,视野范围、观察角度、物体比例都发生了极大变化,这种转换远比一般的视角切换复杂。

研究团队通过多层次的几何建模来解决这个问题。系统不仅要理解二维画面中的内容,还要准确重建三维空间结构,并在此基础上计算新视角的投影效果。这个过程涉及复杂的几何变换、遮挡处理和深度估计,每一个环节都需要极高的精度。

动态场景处理是另一个重大挑战。与静态场景不同,机器人操作场景中的物体在不断运动,机器人手臂也在持续变化位置和姿态。系统需要同时追踪多个运动物体,预测它们的运动轨迹,并在新视角下正确渲染它们的外观。

为了应对这个挑战,研究团队采用了四维建模方法——在三维空间建模的基础上加入时间维度。这种方法能够捕捉物体的运动历史和趋势,为视角转换提供更准确的参考信息。同时,系统还采用了分层的运动建模策略,分别处理背景环境、操作物体和机器人手臂的运动,确保每个组成部分都能得到恰当的处理。

遮挡问题的解决同样展现了技术的精妙之处。在机器人操作过程中,手臂经常会遮挡操作物体,从外部视角看到的信息往往不完整。系统需要在有限的可见信息基础上,推断出被遮挡部分的内容,并在手腕视角中正确显示。

研究团队通过结合时序信息和物理先验知识来解决遮挡问题。系统会利用物体在被遮挡前后的外观信息,结合对物体几何形状和材质的理解,推断出被遮挡部分的可能外观。这种推断不是简单的插值或复制,而是基于对物体物理属性的深度理解。

七、实验设计:全面而严谨的验证体系

研究团队设计了全面的实验验证体系,从多个维度评估WristWorld技术的性能。实验涵盖了三个不同复杂度的平台:大规模真实数据库Droid、标准仿真环境Calvin,以及自建的真实机器人系统Franka Panda。

在Droid数据库上的实验主要验证技术的泛化能力。Droid包含了来自50多个不同机构、超过76000个操作轨迹的大规模数据,涵盖86种不同的操作任务和564种不同的场景设置。这种多样性为技术验证提供了极为严苛的测试条件。实验结果显示,WristWorld在FVD指标上达到421.10,远超现有最佳方法WoW 14B的935.03。

Calvin环境的实验重点验证生成数据对机器人学习的实际帮助。Calvin是机器人学习领域的标准测试平台,其任务设计模拟了真实世界中的各种操作场景。实验采用了连续任务完成测试——机器人需要依次完成五个相关联的任务,任何一个任务失败都会导致整个序列终止。这种设计更真实地反映了机器人在实际应用中的表现。

结果显示,使用WristWorld生成数据训练的机器人在各项指标上都获得了提升。特别是在完成全部五个任务的成功率上,从55.4%提升到60.4%,提升了整整5个百分点。考虑到机器人学习中每个百分点的提升都来之不易,这个结果相当令人振奋。

Franka Panda真实机器人实验提供了最直接的应用验证。研究团队搭建了完整的多摄像头机器人系统,包括手腕摄像头、顶部摄像头以及左右两侧摄像头,形成了360度的视觉覆盖。实验任务包括了各种典型的操作技能,如抓取、放置、开关抽屉等。

在这个最贴近实际应用的测试环境中,WristWorld展现了卓越的性能。不仅生成视频的质量指标全面领先,更重要的是,这些生成数据确实能够提升机器人的实际操作能力。平均而言,加入生成数据的机器人在各项任务上的成功率都获得了15%以上的提升。

八、技术对比:与现有方法的显著优势

为了全面评估WristWorld的技术水平,研究团队与多种现有方法进行了详细对比。对比方法包括传统的图像翻译技术Pix2Pix、通用视频生成模型SVD、大规模预训练模型WoW系列,以及最新的Cosmos-Predict2模型。

在生成质量方面,WristWorld在所有关键指标上都取得了显著优势。以最重要的时序连贯性指标FVD为例,在Franka Panda平台上,WristWorld达到231.43,而需要首帧输入的最佳对比方法Cosmos-Predict2为1156.69,WoW 14B为985.99。这意味着WristWorld在完全不需要额外输入的情况下,生成质量比现有最佳方法提升了4-5倍。

在感知质量方面,LPIPS指标反映了生成画面与真实画面在人类感知上的差异。WristWorld在该指标上达到0.33,明显优于所有对比方法。这表明WristWorld生成的画面不仅在客观指标上表现优异,在主观视觉效果上也更加真实可信。

结构相似度SSIM指标衡量的是画面结构的保持程度。WristWorld在该指标上达到0.78,同样领先所有对比方法。这说明生成的手腕视角画面能够准确保持原始场景的空间结构和物体布局,避免了常见的几何扭曲和结构错误。

更重要的是,WristWorld是唯一一个不需要手腕视角首帧输入的方法。其他高性能方法如SVD、Cosmos-Predict2、WoW 14B都需要提供手腕视角的第一帧画面作为生成的起点,这在实际应用中往往难以获得。WristWorld完全基于外部摄像头画面进行生成,大大提高了技术的实用性和适用范围。

九、应用前景:技术突破带来的广阔可能

WristWorld技术的成功为机器人学习领域开辟了新的发展方向。最直接的应用是数据增强。现有的机器人数据库虽然规模庞大,但手腕视角数据稀缺的问题一直制约着机器人精细操作能力的提升。通过WristWorld技术,研究人员可以将现有的外部视角数据"翻译"成手腕视角数据,瞬间将可用的训练数据量扩大数倍。

在机器人训练方面,这项技术将显著提升训练效率和效果。传统的机器人学习往往需要收集大量的第一人称视角演示数据,这不仅成本高昂,而且容易受到拍摄角度、光照条件等因素影响。有了WristWorld技术,研究人员可以主要收集更容易获得的外部视角数据,然后自动生成对应的手腕视角数据,大大降低数据收集的难度和成本。

在工业应用方面,这项技术有望推动机器人在精密制造、医疗手术、食品加工等需要精细操作的领域的应用。这些领域的任务往往需要机器人具备类似人手的精细操控能力,而这正是手腕视角数据能够提供的关键信息。通过WristWorld技术生成的训练数据,机器人可以更好地学习这些复杂的操作技能。

对于机器人研究的民主化也具有重要意义。过去,只有拥有复杂多摄像头系统的大型研究机构才能收集到高质量的多视角机器人数据。现在,即使是资源有限的研究团队,也可以通过简单的外部摄像头收集数据,然后利用WristWorld技术生成所需的手腕视角数据,大大降低了机器人研究的技术门槛。

十、技术细节:深入理解实现机制

从算法架构来看,WristWorld采用了端到端的学习框架,但在内部实现上却是精心设计的多模块协作系统。重建阶段的核心是扩展的VGGT模型,这是一个专门处理多视角几何关系的大型神经网络。原始VGGT主要用于一般性的多视角3D重建,研究团队为其添加了专门的手腕预测模块。

这个手腕预测模块采用了注意力机制设计,能够自动关注到与手腕运动最相关的视觉特征。通过学习大量的机器人操作数据,该模块能够识别出手臂的运动模式,并据此推断手腕的位置和朝向。这种推断不是简单的模板匹配,而是基于对机器人运动学和动力学的深度理解。

空间投影一致性损失函数的设计体现了研究团队的创新思维。传统的监督学习需要大量标注数据,但手腕位置的精确标注极其困难且成本高昂。研究团队巧妙地利用几何约束来构建自监督学习框架。具体来说,如果手腕位置预测正确,那么通过该位置投影到手腕视角的画面应该与实际的手腕视角画面在对应点上保持一致。

这个约束看似简单,但实现起来需要解决许多技术细节。首先是对应点的建立,系统需要在外部视角和手腕视角之间建立密集的像素级对应关系。然后是投影计算,需要准确计算三维点在不同摄像头坐标系下的投影位置。最后是一致性评估,需要设计合适的度量函数来评估投影一致性。

生成阶段的扩散变换器同样经过了精心定制。标准的视频扩散模型主要处理自然视频,而机器人操作视频有其特殊性:物体边界清晰、运动轨迹相对规律、空间关系约束强。研究团队针对这些特点对模型进行了专门优化。

条件输入的设计是生成阶段的另一个关键创新。系统不仅使用重建阶段得到的几何条件图,还同时融合了外部视角的语义信息。这种多模态条件融合确保了生成画面既在几何结构上准确,又在语义内容上丰富。CLIP编码器负责提取语义特征,而几何条件图提供空间结构约束,两者协同工作产生高质量的生成结果。

十一、实验深度分析:数据说话的科学验证

实验设计的科学性和全面性是WristWorld技术可信度的重要保证。研究团队采用了多层次的评估体系,从不同角度验证技术的有效性。

定量评估方面,研究团队选择了四个核心指标:FVD衡量时序连贯性、LPIPS评估感知质量、SSIM测量结构相似度、PSNR反映像素级准确性。这四个指标从不同维度全面评估了生成视频的质量,形成了完整的评估体系。

值得注意的是,这些指标并非孤立存在,而是相互补充、相互验证的。例如,高PSNR值表明像素级还原准确,但可能会牺牲感知自然度;而高SSIM值说明结构保持良好,但可能在细节纹理上有所不足。WristWorld在所有指标上的全面领先,说明其在各个维度上都达到了优异水平,实现了质量的全面提升。

定性评估方面,研究团队展示了大量的视觉对比结果。这些对比不是挑选最好的结果展示,而是在标准测试集上的系统性比较。从展示的结果可以看出,WristWorld生成的手腕视角画面在物体边界清晰度、运动连贯性、光照一致性等方面都明显优于对比方法。

特别值得关注的是遮挡处理能力的对比。在机器人操作过程中,手臂经常会遮挡操作对象,这对视角转换技术提出了极大挑战。对比结果显示,WristWorld能够合理处理这种遮挡情况,在手腕视角中正确显示被外部视角遮挡的物体部分,而其他方法往往在这种情况下产生明显的错误或缺失。

下游任务评估提供了最直接的应用价值验证。研究团队将生成的手腕视角数据用于训练实际的机器人操作策略,然后评估策略的性能提升。这种评估方式比单纯的视频质量评估更能反映技术的实际价值。

在Calvin环境中,连续任务完成测试尤其具有挑战性。机器人需要依次完成"关闭抽屉→拿起物体→打开抽屉→放入物体→关闭抽屉"这样的复杂任务序列。任何一个环节的失败都会导致整个序列的终止。实验结果显示,加入WristWorld生成数据后,机器人在各个任务节点上的成功率都有所提升,累积效应使得完成全部任务序列的成功率获得了显著改善。

十二、局限性分析:诚实面对技术边界

尽管WristWorld技术取得了显著突破,但研究团队也诚实地分析了技术的当前局限性。这种科学态度不仅体现了研究的严谨性,也为后续改进指明了方向。

首先是对极端光照条件的处理能力。当操作环境的光照条件发生剧烈变化,或者出现强烈阴影、反光等情况时,系统的空间重建精度会受到一定影响。这是因为视觉几何重建本质上依赖于图像特征的稳定性,而极端光照条件会影响特征提取的一致性。

其次是对高速运动的处理能力。虽然WristWorld在一般操作速度下表现优异,但在处理非常快速的手臂运动时,可能会出现轻微的运动模糊或跟踪延迟。这主要是由于视频帧率的限制和运动建模的复杂性所致。

对于全新类型物体的处理也存在挑战。WristWorld的训练数据主要来源于常见的操作物体,对于训练时未见过的全新物体类型,系统的泛化能力可能会有所下降。不过,这个问题随着训练数据的增加会逐步改善。

计算资源需求是另一个需要考虑的因素。WristWorld涉及复杂的3D重建和视频生成计算,对GPU资源有较高要求。虽然这在研究环境中不成问题,但在资源受限的实际应用场景中可能需要进行模型压缩或硬件优化。

此外,系统目前主要针对单臂机器人进行了优化,对于双臂协作或多机器人协同操作的场景,还需要进一步的技术扩展和验证。

说到底,WristWorld技术为机器人学习领域带来了一个重要突破——让机器人能够通过"想象"获得更精准的操作视角。就像给机器人装上了空间转换的"想象力",让它能从旁观者的角度推测出操作者的精确视野。这项由北京大学联合多所知名高校完成的研究,不仅解决了机器人训练数据稀缺的实际问题,更为整个机器人学习领域开辟了新的技术路径。

从技术角度看,WristWorld的两阶段设计——空间重建加视频生成——为复杂的视角转换问题提供了一个优雅的解决方案。通过巧妙的空间投影一致性约束和多模态条件融合,系统实现了既几何准确又语义丰富的高质量视角转换。

从应用价值看,这项技术有望显著降低机器人学习的数据收集成本,提升机器人在精细操作任务上的学习效果,推动机器人技术在更多实际场景中的应用。对于那些需要精密操控的工业应用来说,这种技术突破可能具有变革性的意义。

当然,任何技术都有其局限性和改进空间。WristWorld在极端条件处理、计算效率优化、场景泛化能力等方面还有进一步提升的潜力。但作为一个开创性的技术突破,它已经为机器人视觉学习开辟了一条全新的道路。

对于有兴趣深入了解技术细节的读者,可以通过arXiv平台查询论文编号arXiv:2510.07313v1来获取完整的研究论文。这项技术的开源代码也即将发布,将为更多研究人员和开发者提供实用工具,推动整个领域的快速发展。

Q&A

Q1:WristWorld是什么?它能解决什么问题?

A:WristWorld是北京大学等高校开发的机器人视角转换技术,能够通过外部摄像头画面自动生成机器人手腕视角的操作视频。它解决了机器人训练数据中外部视角丰富但手腕视角稀缺的问题,让机器人能更好地学习精细操作技能。

Q2:WristWorld技术与现有方法相比有什么优势?

A:WristWorld最大的优势是完全不需要手腕视角的首帧输入,仅凭外部摄像头画面就能生成高质量的手腕视角视频。在视频质量指标上,它比现有最佳方法提升了4-5倍,同时生成的数据能显著提升机器人的实际操作能力。

Q3:WristWorld技术有哪些实际应用前景?

A:WristWorld可以大大降低机器人训练数据的收集成本,提升训练效率。在工业制造、医疗手术、食品加工等需要精细操作的领域有广阔应用前景。同时它还能让资源有限的研究团队也能获得高质量的多视角机器人数据,推动机器人研究的民主化。

版权与免责声明:本文内容转载自其他媒体,目的在于传递更多信息,不代表本网观点或立场,不承担此类作品侵权行为的自己责任及连带责任。
猜你喜欢
精彩推荐

科贝:本轮西甲对阿隆索的未来至关重要,若战绩不佳可能下课

懂球帝 浏览 66

迷雾里的SHEIN

海克财经 浏览 525

邮报:拉亚已成为世界最优秀的门将之一,扑救与脚下技术俱佳

懂球帝 浏览 777

独家 | 好想来、良品铺子转型综合超市,筹划做“万市大集”

商业观察家 浏览 807

时隔半月,又一家券商撤回40亿定增!

券商中国 浏览 12313

朝中社:朝鲜进行“核反击假想综合战术训练”

环球网资讯 浏览 15072

为什么不建议买理想MEGA的大象灰版本?不是花一万块,而是安全性

车有梗 浏览 9157

媒体:中方官员与耶伦握手20秒 但该给的警告必须给

新民周刊 浏览 18108

最后劝你一次,小个子别再穿阔腿裤

八只爪的猫 浏览 15349

史上头次只有6人拍总决赛合照,ATP骚操作引球迷众怒:德约呢?

网球之家 浏览 462

陈晓最新露面瘦脱相!新剧要和陈妍希对打,女方离婚后状态更好

萌神木木 浏览 284

资负统筹,多元发展,中国人寿前三季度新业务价值强劲增长41.8%

证券市场周刊 浏览 557

内娱白月光,毁于潜规则?

阿淫记录生活日常 浏览 772

俄高官:瓦格纳人员多同意"转正" 普京权力空前稳固

澎湃新闻 浏览 73921

王家卫霸凌唐嫣!?

八卦疯叔 浏览 554

2026年量产 特斯拉Cybercab将于进博会首发

车质网 浏览 536

一瓶丝瓜水在拼多多卖出270万件!国货护肤品用十九年,写下不涨价的承诺

华商网 浏览 472

大众重仓中国新能源

钛媒体APP 浏览 10539

重要信号,楼市将变!

博闻财经 浏览 48

新壹科技发布“新壹视频大模型” 实现AIGC业务全链路打通

网易科技报道 浏览 13214

续航或超800km?后驱长续航版特斯拉Model Y现身工信部目录

Nice好车 浏览 814
本站所有信息收集于互联网,如本站收集信息侵权,请联系我们及时删除
Copyright © 2020-2022,版权所有 qukanredian.com
沪ICP备20002587号-1