Paper Survey——CLIP on VLN
2022年OpenAI发布的CLIP模型,大大提升了模型的跨模态理解能力,实习了视觉与语言的统一,也给VLN带来新的突破————零样本学习的能力使得机器人无需依赖人工标注,即可理解自然语言指令并执行高效导航。
本博文针对基于CLIP的VLN几篇论文对其进展进行调研。
本博文仅供本人...
2022年OpenAI发布的CLIP模型,大大提升了模型的跨模态理解能力,实习了视觉与语言的统一,也给VLN带来新的突破————零样本学习的能力使得机器人无需依赖人工标注,即可理解自然语言指令并执行高效导航。
本博文针对基于CLIP的VLN几篇论文对其进展进行调研。
本博文仅供本人...
最近在调研VLN工作的时候常常会涉及LLM、VLM、CLIP等大模型的相关知识,由于此前并没有系统了解过大模型这块,因此学习起来有点吃力。 本文对OpenAI 2021年发布的CLIP模型进行解读。 部分资料来源于网络,于文末给出参考材料。 本博文仅供本人学习记录用~
之前博客对VLN做了个初步的调研,但是还是有点囫囵吞枣,本博文对2024年在Transactions on Machine Learning Research发表的VLN综述做个深入的阅读,希望能对其有更深入的理解~
本博文简单分析下“Teacher Forcing”和“Student Forcing”。 本博文由deep seek生成并结合个人理解补充。 本博文仅供本人学习记录用~
“Teacher Forcing”和“Student Forcing”这两个在序列生成模型(如RNN、LSTM、Tr...
视觉语言导航(Vision-Lang...
之前Read More
之前实验对比都会用到ORB-SLAM...
之前开发一直上基于ROS的,而针对ROS也写过大量的技术博客My CSDN Blog(从学习、debug再到论文复现等等)。 后来,ROS2...
最近在了解hardware acceleration方面的topic,正好前辈老师给我推荐了这篇论文,在此对其进行拜读。 本博文为论文阅读笔记,仅供本人学习记录用~ 本博文对于 2025 TRO的Tra...
实验笔记之——基于ROS2的ORB-SLAM3
引言
浅谈ROS系统
论文阅读笔记之——《Agent.xpu: Efficient Scheduling of Agentic LLM Workloads on Heterogeneous SoC》
论文复现及阅读笔记——《BotVIO: A Lightweight Transformer-Based Visual–Inertial Odometry for Robotics》
引言