decentralized
Learning for Robotics(+reinforcement learning)
基于深度强化学习的分散式多智能体追踪
Decentralized Multi-Agent Pursuit Using Deep Reinforcement Learning
https://www.youtube.com/watch?v=cp_5RxCDmKg
追逃是指与一个或多个追踪者一起捕获移动目标的问题。我们使用深度强化学习来追求具有多个受单轮运动约束的同质代理的全方位目标。我们使用共享经验为给定数量的追踪者训练策略,由每个代理在运行时独立执行。培训使用课程学习、扫视角度排序来局部代表邻居代理,以及鼓励良好队形并将个人和团队奖励相结合的奖励结构。对一个反应式逃避者和多达八个追赶者的模拟实验表明,我们的基于学习的方法的性能优于最近的强化学习技术和经典算法的非完整适应。在三架运动受限的追踪者无人机的概念验证演示中,学习到的策略成功地转移到了现实世界。
Human-Robot Interaction(+Multi-Robot)
学习动态环境中分散式多机器人运动规划的交互感知轨迹预测
Learning Interaction-Aware Trajectory Predictions for Decentralized Multi-Robot Motion Planning in Dynamic Environments
https://bbrito.github.io/publications/
https://www.youtube.com/watch?v=i8HRGeOmcH4
这封信提出了一种数据驱动的分散轨迹优化方法,用于动态环境中的多机器人运动规划。在共享空间中导航时,每个机器人都需要对相邻机器人进行准确的运动预测,以实现预测性避碰。这些运动预测可以在机器人之间通过通信共享它们未来的计划轨迹来获得。然而,这种通信在实践中可能不可用也不可靠。在这封信中,我们介绍了一种基于循环神经网络 (RNN) 的新型轨迹预测模型,该模型可以从使用集中式顺序规划器生成的演示轨迹中学习多机器人运动行为。学习模型可以为每个机器人有效地在线运行,并根据对其历史状态的观察提供其邻居的交互感知轨迹预测。然后,我们将轨迹预测模型合并到分散模型预测控制 (MPC) 框架中,用于多机器人避免碰撞。仿真结果表明,我们的分散式方法可以达到与集中式规划器相当的性能水平,同时无需通信并且可扩展到大量机器人。我们还通过一组四旋翼飞行器在现实世界的实验中验证了我们的方法。
Decentralized Ability-Aware Adaptive Control for Multi-Robot Collaborative Manipulation
与单个机器人相比,多机器人团队可以完成更灵巧、更复杂和更重的有效载荷任务,但需要有效的协作。由于机器人的运动学和动力学能力不同、它们之间的通信有限以及系统参数的不确定性,多机器人协作极具挑战性。在这封信中,分散的能力感知自适应控制(DA3C) 被提议基于两个关键特征来解决这些挑战。首先,常见的操纵任务由提出的名义任务椭球表示,该椭球用于通过优化其配置来最大化每个机器人的在线力量能力。其次,一个分散的自适应控制器被设计成Lyapunov稳定的,尽管机器人的异质驱动约束和物体和环境的物理参数不确定。在所提出的框架中,机器人之间的分散协调和负载分配是在没有通信的情况下实现的,而如果任何机器人达到其力限制,则只会广播控制缺陷。在这种情况下,以分散的方式修改对象的参考轨迹,以保证稳定的交互。最后,针对异构多机器人协作操作任务,进行了数值和物理仿真,分析和验证了该方法的有效性。
Control for Multi-Robot Systems(+Multi-Robot)
Decentralized Connectivity Maintenance with Time Delays Using Control Barrier Functions
连接维护对于多机器人系统的实际部署至关重要,因为它最终允许机器人以协作方式进行通信、协调和执行任务。连接维护控制器必须使多机器人系统独立于系统任务和存在不希望的现实世界影响(例如通信延迟、模型错误和计算时间延迟等)保持连接。在本文中,我们介绍了基于控制屏障功能的连接维护控制策略在真实机器人设置上的实现。在实验过程中,我们发现相对于理想情况,通信延迟的存在对受控系统的性能有重大影响。我们提出了一种启发式方法来抵消通信延迟的影响,在仿真和真实环境中进行了验证。
Haptic-Enabled Decentralized Control of a Heterogeneous Human-Robot Team for Search and Rescue in Partially-Known Environments
协作机器人团队已被证明在几个高影响应用中很有用,包括城市搜索和救援 (USAR) 和灾难响应。在这种情况下,我们为异构人机团队提出了一个分散的触觉支持的连接维护控制框架。所提出的框架控制由移动机器人和一个人组成的团队的协调运动,以协同完成各种探索和 SAR 任务。人类用户在物理上成为团队的一部分,在与机器人相同的环境中移动,同时接收到关于团队连接性和安全路径方向的丰富触觉反馈。我们在模拟和真实环境中进行了两项人类受试者研究。结果表明,所提出的方法在广泛的 SAR 场景中是有效和可行的。而且,提供触觉反馈表明仅提供视觉信息的性能有所提高。最后,传达有关团队连通性和遵循路径的不同反馈比提供组合在一起的相同信息效果更好。
Human-Robot Interaction: Robot Navigation(+reinforcement learning)
使用深度强化学习的用于机器人人群导航的分散式结构-RNN
Decentralized Structural-RNN for Robot Crowd Navigation with Deep Reinforcement Learning
https://sites.google.com/illinois.edu/crowdnav-dsrnn/home
在人群中安全高效地导航是移动机器人的一项基本能力。先前关于机器人人群导航的工作假设所有代理的动态都是已知的并且定义明确的。此外,先前方法的性能在部分可观察的环境和人群密集的环境中会恶化。为了解决这些问题,我们提出了去中心化结构递归神经网络(DS-RNN),这是一种新颖的网络,可以解释人群导航中机器人决策的空间和时间关系。我们在没有任何专家监督的情况下使用无模型深度强化学习来训练我们的网络。我们证明我们的模型在具有挑战性的人群导航场景中优于以前的方法。我们成功地将在模拟器中学习到的策略转移到了真实世界的 TurtleBot 2i。
Learning and Optimization(+swarm)
EGO-Swarm: A Fully Autonomous and Decentralized Quadrotor Swarm System in Cluttered Environments
本文提出了一种分散和异步的系统解决方案,用于仅使用车载资源在未知障碍物丰富的场景中进行多机器人自主导航。规划系统是在基于梯度的局部规划框架下制定的,其中通过将碰撞风险公式化为非线性优化问题的惩罚来实现碰撞避免。为了提高鲁棒性并避开局部最小值,我们采用了一种轻量级的拓扑轨迹生成方法。然后代理使用不可靠的轨迹共享网络在几毫秒内生成安全、平滑和动态可行的轨迹。通过使用深度图像中的代理检测来校正代理之间的相对定位漂移。我们的方法在模拟和真实世界的实验中都得到了证明。
Navigation in Humanoids and Animaloids
Autonomous Decentralized Shape-Based Navigation for Snake Robots in Dense Environments
在这项工作中,我们专注于蛇形机器人在密集杂乱环境中的自主导航,机器人与障碍物之间的碰撞频繁,这可能经常发生在灾难场景、地下洞穴或草原/森林环境中。这项工作的观点是,不能避免障碍物,而是利用障碍物来支持和指导蛇形机器人的运动。我们建立在一个分散的、最先进的蛇形运动兼容控制器的基础上,并开发了一个双稳态动态系统,该系统依赖于惯性反馈来不断地将机器人引导到所需的方向。我们通过实验表明,该控制器允许机器人通过始终沿着世界上给定的全球行进方向移动来自主导航密集的环境,可以由人工操作员或更高级别的计划人员选择。我们进一步为机器人配备了车载视觉系统,允许机器人根据其位置前方的障碍物分布自主选择自己的行进方向(即实施前馈控制)。在那些关于硬件的额外实验中,我们展示了这种外感传感器如何让机器人在撞到障碍物之前转向,并抢先避开仅本体感觉(即扭矩和惯性)反馈控制不够的具有挑战性的区域。
Multiple and Distributed Systems(+decentralized)
多机器人系统的分散嵌套高斯过程
Decentralized Nested Gaussian Processes for Multi-Robot Systems
在本文中,我们针对多机器人系统中的嵌套高斯过程提出了两种分散的近似算法。分布式实现是通过迭代和共识方法实现的,这些方法以牺牲机器人间通信为代价促进本地计算。此外,我们提出了一种基于协方差的最近邻机器人选择策略,该策略使代理子集能够执行预测。此外,两种算法都被证明是一致的。使用真实数据的经验评估说明了所提出算法的效率。
Decentralized Circle Formation Control for Fish-Like Robots in Real-World Via Reinforcement Learning
本文研究了一组具有未知非线性动力学和扰动的合作欠驱动类鱼机器人的圆周队形控制问题。基于强化学习和认知一致性理论,我们提出了一种不需要鱼形机器人动力学知识的分散控制器,该控制器可以从仿真过渡到现实。它只在我们建立的仿真环境中进行训练,训练后的控制器可以部署到真实的机器人上,而不需要任何人工调整。仿真结果表明,所提出的无模型鲁棒编队控制方法具有相对于机器人群体规模的可伸缩性,并优于其他典型的RL算法。在真实世界中的几个实验验证了基于RL的圆圈形成控制方法的有效性。