OpenMind AGI 表示,机器人技术长期以来一直处于碎片化状态,开发人员被迫在封闭的生态系统、特定于硬件的软件或陡峭的学习曲线之间做出选择。该公司今天宣布了 OM1 的 Beta 版本,并声称这是“世界上第一个面向智能机器人的开源操作系统,一个允许任何机器人在现实世界中感知、推理和行动的通用平台”。
OpenMind 声称,其 OM1 平台使各种形式的机器人能够在人类环境中感知、适应和行动。这家总部位于旧金山的公司表示,其 FABRIC 去中心化协调层能够创建安全的机器身份,并为智能系统协作构建全球网络。
OpenMind 表示, OM1 和 FABRIC 的结合使机器能够在任何环境中运行,同时保持大规模的安全性和协调性。该公司补充说,该版本提供了“一个共享的基础,可以加速开发,促进互操作性,并开启机器智能的新时代”。
OpenMind 首席技术官陈博远表示:“OM1 为开发者提供了一条通往未来的捷径。无需将工具和驱动程序拼凑在一起,开发者可以立即开始构建智能行为和应用程序。”
OpenMind 在其测试版中列出了以下功能:
与硬件无关:该操作系统适用于四足动物、人形机器人、轮式机器人和无人机。
AI模型集成: OM1 Beta 为OpenAI、Gemini、DeepSeek 和 xAI提供即插即用支持
语音 +视觉:OpenMind 表示,其平台通过语音转文本(Google ASR)、文本转语音(Riva、ElevenLabs)和视觉/情感分析实现自然交流。
预配置代理:这些代理可用于流行平台,如UnitreeG1 人形机器人、Go2、TurtleBot 和Ubtech迷你人形机器人。
自主导航:该技术允许实时同步定位和地图绘制(SLAM)、激光雷达支持以及用于路径规划的 Nav2。
模拟支持:这包括在硬件上部署之前进行测试的 Gazebo 集成。
跨平台:OpenMind 的软件可在 AMD64 和 ARM64 上运行,通过 Docker 交付以实现快速设置。
OM1 Avatar:这是一个基于 React 的现代前端应用程序,为 OM1 机器人软件提供用户界面和头像显示系统。
该测试版允许开发人员在几分钟内完成语音控制四足机器人的原型设计,或测试具有实时地图绘制和避障功能的协作导航。OpenMind 表示,开发人员还可以使用 OM1 Beta 部署集成语言模型以实现自然交互的人形机器人,并在 Gazebo 中模拟行为,然后再将其部署到现实世界中。
OpenMind 表示:“机器人技术已经达到了一个临界点。数十亿美元的硬件投入,但由于缺乏通用的智能层,机器人仍然难以编程,制造商各自为政,利用率低。”
OM1 Beta 现已在 GitHub 上提供,其文档中心提供设置指南和社区支持。
OpenMind 表示,通过将其版本开源,它可以降低进入门槛,而无需专有锁定,促进开发人员协作,实现跨机器人类型和制造商的互操作性,并使机器人技术的采用与软件开发一样快。
OpenMind 首席执行官 Jan Liphardt 表示:“机器人不应该只是移动,它们应该学习、适应和协作。通过此次发布,我们为开发者提供了实现这一目标的基础。正如安卓系统彻底改变了智能手机一样,我们相信开放的操作系统也将彻底改变机器人技术。”
OpenMind与 DIMO Ltd.合作,致力于使自动驾驶汽车等机器实现通信,以此迈向智慧城市。上个月,该公司融资2000 万美元。
2025-10-11 11:52
2025-10-07 10:26
2025-10-05 11:39
2025-10-05 11:37
2025-08-08 14:41
2025-08-01 23:49
2025-07-29 12:27
2024-04-01 09:18
2022-12-29 18:54
2022-12-29 18:18