0
一台真正聪明的扫地机,应该能在复杂环境中自己做判断:什么时候该绕开,什么时候重点清洁,什么时候灵活避让。
这本质上,是一整套系统能力的体现。
追觅扫地机给出的答案是,把AI变成一条完整链路:从感知环境、理解场景,到做出决策,再到完成动作,形成连续闭环。
过去几年,扫地机行业经历了两轮升级:从比吸力、参数,到比导航、覆盖率。而今天,竞争开始转向复杂环境中的智能判断。
一位参与研发的追觅工程师对雷峰网提到:“我们想做的,不只是看见,而是在看见之后,进一步服务于清洁能力升级。”
换句话说,今天扫地机之间的差距,已经不在执行能力,而在决策能力。
从市场表现来看,这种变化正在被验证。2026年一季度,追觅扫地机全球营收同比增长100%,在多个高端市场持续领先,并获得欧睿国际“全球高端扫地机器人销量第一”的认证。截至目前,追觅扫地机全球累计出货量已突破1100万台。
当一台扫地机开始“自主判断”,它到底改变了什么?
01给扫地机做一双眼睛
在追觅扫地机X60 Pro这一代产品上,变化是从“看见”开始的。
要做到业内最强的感知能力,追觅扫地机选择了一条更激进的路径,在行业内率先落地超广角双目灵动导航避障技术。
相比传统单目视觉,这套方案通过双RGB AI摄像头、主动光散斑与3D感知,让扫地机不再只是看到物体,而是直接获得稳定的空间深度信息。简单来说,它不只看到有什么,而是知道在哪里、多高、能不能碰。
这带来了一组非常关键的能力变化——可识别280+类物体;最小感知高度低至3mm、对5mm以内低矮障碍物实现100%避障;在动态环境中,0.3秒内完成判断,导航效率提升约50%。

参数本身并不新鲜,但共同指向一件事:扫地机开始具备稳定、连续的空间理解能力。
在传统方案中,无论是激光雷达还是单目视觉,本质都是间接理解空间。要么通过点云拼接环境,要么通过图像“猜”距离。这是为什么上一代扫地机常常会出现一些奇怪的行为:在桌腿之间反复试探、在阴影区域停顿。问题不在算法本身,而在输入信息不稳定。
追觅扫地机这套“双目+主动光”方案,通过人为制造可计算的特征点,让系统在各种环境下都能获得稳定深度信息,从看见轮廓,走向理解空间。
更重要的变化在于:感知不再只为避障服务,而是进入清洁决策。
当系统识别到毫米级目标时,机器不再简单地统一绕开,而是判断这是需要避开的障碍,还是可以直接清理的灰尘颗粒。
类似的变化,也延伸到人机交互。
目前,追觅扫地机支持多语种与方言语音控制。用户不需要记住标准指令,只需说“轻轻拖一遍地”“不要太湿,扫一下客厅”,系统就可以自动匹配清洁策略。如果表达不清晰,机器甚至会追问,补全信息。
从环境到人,扫地机正在完成同一件事:从“识别输入”,走向“理解意图”。
把时间拉长来看,这种变化并不孤立。
过去十年,扫地机大致经历过两次关键跃迁。
第一次,是“会动”。早期产品依靠随机碰撞完成覆盖,解决的是“有没有”的问题;第二次,是“会规划”。激光导航让扫地机可以建图、分区、路径规划,解决的是“扫不全”的问题。
到这里,覆盖率问题基本被解决。但真正影响体验的,是剩下那一部分更细微、更复杂的场景——动态环境中的实时处理能力。
在人走动、宠物穿行、地面不断变化的真实家庭环境中,扫地机需要持续感知、持续更新,而不是依赖一套固定输入做判断。
这也是为什么,“看见”这件事,必须被重做。
追觅扫地机的新一代产品,正是在这一阶段完成了系统重构。在X60 Pro上,感知不再是一个独立模块,而是整个系统的起点,感知、理解、决策、执行,被串成一个连续过程。
02追觅扫地机把“看、想、做”连成了一件事
“看见”解决的是输入问题,真正拉开差距的,是“接下来怎么做”。
扫地机面对的,从来不是标准化场景。
同样是地面上的物体,处理方式完全不同。散落的珍珠、细小戒指等细小贵重物品需要避开,面包屑、猫砂、泡沫碎屑等需要清洁。系统不能再用一套统一规则处理所有情况。
过去主流扫地机,本质是一套规则驱动的系统:先识别障碍、停下来、重新规划路径、再执行。这套逻辑在静态环境中几乎完美,一旦进入动态场景,就容易出现停顿。
用户看到的,是扫地机“犹豫了”。这是因为路径是提前算好的,动作是规则触发的,一旦变化超出规则覆盖范围,机器只能保守处理。
早在2021年,追觅扫地机便组建了AI算法小组,开始研究如何将 AI 技术融入产品。2023年起,追觅扫地机便率先将强化学习引入扫地机的研发。
在扫地机产品上的变化,是把“决策”从规则里拿出来,交给系统实时完成,边走边算。
这背后,是路径规划逻辑的一次变化。
传统方案通常采用“全局规划+局部避障”的组合,先用算法规划一条完整路径,再在执行过程中局部调整。
问题在于,这种方式天然是“分段的”,一旦环境发生变化,就需要不断中断、重算。
追觅扫地机引入强化学习之后,决策逻辑变成另一种方式。系统不再依赖固定路径,而是根据当前感知结果,持续输出下一步动作。

这带来的变化,是可以被直接感知的:
在人和宠物走动时,扫地机不再停下来等待,而是顺势绕开;
在桌椅腿之间,不再来回试探,而是连续调整路径穿过;
在狭窄空间中,很少触发保护性后退,而是一次性通过。
这些变化很难用参数衡量,但会明显改变使用体验。
更重要的是,“想”的过程,不只发生在路径层,也体现在人机交互上。
追觅扫地机可将用户的自然语言直接转化为清洁指令,自动解析清洁强度、范围、方式等参数并生成任务。这让机器的决策,既包含对环境的判断,也包含对人的理解。
但如果“想”无法转化为动作,系统依然是不完整的。
这也是为什么,追觅扫地机把能力从算法层,延伸到了结构层。
通过全球首创的仿生机械臂,在识别到墙边或桌腿时,拖布和边刷会主动外扩,补足边角;在门槛或滑轨位置,会先判断是否可通过,再通过首创的仿生机械足抬升完成越障。
这些动作,并不是预设触发,而是决策结果的直接延伸。
当这些环节被连在一起后,扫地机就不再是“移动+清洁”的组合,而更接近一个完整的行为系统。
也正是在这里,差异开始真正被拉开。
03全球第一背后,是选择、工程与研发投入
在感知方案上,行业长期主流是单目视觉或激光雷达。路径清晰、成本可控,但在弱纹理、暗光、高反光等复杂环境中,始终存在上限。
追觅扫地机的“超广角双目+主动光+3D感知”,其实是一条更“重”的路线。
这类决策,看起来只是技术路线差异,本质上是在做取舍:是满足于“够用”,还是为了更强的环境理解能力,主动选择一条更难、但上限更高的路。
真正体现追觅扫地机能力的,是把这条路线真正做到了产品里。
以双目方案为例,它并不是简单增加一个摄像头,而是一整套系统级重构:更大视场角带来的畸变与边缘信息处理问题;主动光与镜头、ISP之间的协同调校;不同材质、不同光照下识别稳定性的波动;以及最终成像效果对识别模型的影响……每一个环节都决定着最终体验的上限。
一位工程师提到,为了把产品打磨到极致,很多细节需要反复打磨十几版甚至几十版,再放到大规模内测场景中反复验证。
决策系统同样如此。从规则系统切换到强化学习,是要重构整套决策机制,包括数据如何组织、模型如何实时推理,以及在有限算力下如何稳定运行。
再往下,执行层同样考验系统能力——传感器与ISP决定输入质量,电机响应决定路径是否连续,结构件设计决定策略能否真正落地。也正因如此,即使技术框架相似,不同产品的体验差异依然明显。
追觅扫地机真正建立起来的,是把复杂能力持续产品化的系统工程能力。
AI系统的上限,最终取决于数据与训练体系。但扫地机的数据,分散、不可控,而且很多关键场景很难高频采集。
追觅扫地机的做法,是引入仿真训练,与真实数据形成闭环。
基于英伟达的仿真平台,团队可以构建成千上万种家庭环境,让模型在其中完成大规模训练。单个阶段即可生成数十万级数据,4000台虚拟机器人24小时运行,相当于在极短时间内积累数年真实使用经验。
本质上,这是用工程手段,去解决数据规模问题。不仅是更多数据,更是覆盖现实中难以频繁出现的场景。
但这同样意味着更高的投入,以及复杂系统设计的能力。
从路线选择,到工程实现,再到数据体系,这些能力会直接反映在两件事上,产品体验,以及迭代速度。
以双目方案的落地速度为例,行业内类似方案往往需要数年时间积累,而追觅扫地机在半年内完成从验证到落地,这在行业里并不常见。
这种效率背后,是更高密度的研发体系支撑——追觅扫地机研发人员占比高达70%,算法、硬件、整机多线并行推进,才能让复杂技术更快落地。
目前,追觅扫地机在30多个国家及地区市占第一,在18个国家市占率超过40%;2026年一季度,全球营收同比增长100%。
这些数字本身已经说明一件事:用户更愿意为更聪明的扫地机买单,享受最佳的体验。

这几年,扫地机的变化一句话就能概括:从“扫得干净”,到“扫得合理”。
当一台扫地机开始理解环境、动态决策,并把判断转化为动作时,它就不再只是一个清洁工具,而更接近机器人。
在雷峰网(公众号:雷峰网)看来,这也是为什么,扫地机会成为AI最早落地的一类机器人产品——场景足够复杂,能够不断产生新的问题;任务足够高频,能力可以持续验证和优化。
追觅扫地机这一轮的进化,本质上是把感知、决策、执行连成一个闭环系统,让机器在复杂环境中更加“像人一样聪明”。
当这种能力建立起来,它的意义,就不再局限于扫地这一个场景。

在一些探索性场景中,类似的系统能力,被尝试复用到更连续的任务中,识别物体、完成抓取、与其他设备协同工作。
当机器理解了环境,它能做的事情,会远多于最初被定义的那一类,它也就不再只是工具。
雷峰网原创文章,未经授权禁止转载。详情见转载须知。