
作者|Yoky
邮箱|yokyliu@pingwest.com
过去十年,AR/VR眼镜似乎陷入了一种无限循环:硬件体验差强人意,开发者便缺乏热情;缺乏优质的软件生态,硬件自然沦为昂贵的摆设;产品无人问津,厂商便难以为继,更遑论投入巨资进行硬件迭代。
在这样的恶性循环里,归根结底是因为,AR眼镜“没用”。
INAIR想让它变的有用一点,让它成为生产力工具。
“市面上更多的产品主打的看电影和打游戏的场景,对标的产品形态其实是ipad,但ipad每年在国内也只有300万(美金)的市场,对应的PC有3000万(美金)的市场,这是一个更大的市场空间。”INAIR联合创始人兼CEO黄海告诉我们,他不想做AR玩具,他要做全球第一款“AI空间计算机”。
在5月15日,INAIR最新的产品发布会中,我们看到了一个类似于PC的产品形态,不同的是,它用新一代AR眼镜(INAIR2 Pro Elite)代替了物理屏幕,这副眼镜能够轻盈地无线串流千里之外的笔记本电脑,将熟悉的电脑操作界面完整投射于AR空间之中,同时还能灵活调用本地主机的算力处理任务,为移动办公开辟了新的可能性。

“这仅仅是概念上的标新立异,还是在核心体验上与其他AR眼镜厂商有着本质的区别?”
面对我们略带挑战性的提问,黄海答道:“这绝非简单的概念包装,其本质差异堪比iPad与生产力PC的区别。我们的核心理念在于实现‘算力与显示的分离’。在AI浪潮席卷一切的今天,人们对强大算力的渴求与日俱增,而高性能算力往往意味着设备的笨重,这与移动办公的便携初衷背道而驰。”
用AR眼镜,干掉PC的物理大屏么?
带着这样的疑问,我们专访了黄海,来讨论这个看上去很虚无缥缈的设想,在当下这个节点,应该如何落子。
空间计算机,不只是击碎屏幕
硅星人:我注意到贵公司的产品理念和形态似乎相较于去年有了显著的进化,去年的核心产品是卖眼镜和pod,键盘我记得是选配 ,今年把它们做成了一套产品,是出于什么考虑?
黄海:对,这个观察很准确。其实这个转变是很有意思的一个市场导向的决策。去年我们更多是从技术角度出发,认为未来AR眼镜会是代替手机的产品,但坦白讲供应链今天还不太支持这件事情。
你看到我们现在的形态,其实是想让产品定位更清晰。原来那些分散的组件——眼镜、Pod、键盘,用户可能看着觉得陌生,不知道这到底是什么,你的宣传成本就会很高。但现在把它们做成一个类似笔记本电脑的形态,用户一看就明白了——这是用眼镜替代了笔记本的屏幕部分。
你不用任何宣传语,它只要这个形态出来,你就能直观看到眼镜放在了原来屏幕的位置,就是用来替代屏幕的。我们觉得这个表达方式更直接,更容易让用户理解我们的产品定位。
技术上的逻辑也是一脉相承的,空间屏幕的显示,主机用来提供算力,键盘确保高效操作与输入,组装在一起、形象上更统一。不是说我们加了个笔记本壳很难,而是这样做用户获取这个产品的心智成本低多了,他能很清楚地感受到这是一个移动的、戴眼镜的空间计算机。
硅星人:除了形态上像PC,“空间计算机”能做什么?在什么场景下使用?
黄海:空间计算机本质上是在解决PC的几个根本限制,不只是形态像PC而已,而是改变人与计算的交互关系。
传统PC的问题是什么?屏幕尺寸受限、算力与显示捆绑导致的重量问题、以及单一工作模式的束缚。我们的空间计算机就是针对这些痛点设计的。最核心的使用场景是:
第一,算力解耦,算力和交互在硬件上的解耦。当你需要大算力时,这个产品可以让你无缝连接家里的高性能电脑或云端服务器,就像无线串流一样。你完全不需要背着那么重的电脑,但能获得完整算力体验。
第二,多场景办公。我们很多用户是那些经常在不同场所工作的商务人士。他们在出差、咖啡厅、家里床上都能保持相同的工作效率,而且不会被物理空间限制显示面积。
第三,信息整合。我们能同时把PC应用、移动应用集成在同一个环境中,你可以同时使用Windows和安卓应用,这是PC做不到的。比如一边用Excel做数据分析,一边用手机APP快速回复消息。
简单说,我们不是在替代PC,而是在创造PC之后的新一代计算形态,把PC限制在固定场景的束缚彻底打破。这就是为什么我们称它为“空间计算机”而不是“AR眼镜”。
举个例子,假设你的高性能笔记本留在公司,但出差时只需携带INAIR眼镜和鼠标大小的主机。你可以无线串流到千里之外的笔记本,在AR空间中直接打开你的电脑界面。未来你的Mac mini或者高性能主机可以放在家里,你只需带着轻便的设备出门,随时随地连接家里的算力和内容。这就像以前从U盘转向云存储一样的范式转变。
硅星人:怎么改变人与计算的交互关系?纯3D的交互么?能举个例子么?
黄海:举个具体例子,传统计算方式下,当你在办公时可能需要这样:打开电脑看文档,拿起手机回微信,再切换到平板看视频资料,注意力和工作流被割裂成几个部分。
但在我们的空间计算机里,这些内容都可以同时悬浮在你面前的空间里,我们最多支持至多6屏的多窗口同台显示,你可以用眼睛和手同时操控多个内容源而不用切换设备。
INAIR 2 Pro 使用了3Dof空间悬停技术,让内容可以真正地“锚定”在空间中,配合我们的120Hz高刷新率,让空间中的内容显示非常流畅自然,没有延迟感。比如设计师用传统电脑做3D模型时,屏幕上显示的其实是2D图像,但在我们的空间计算机里,这个模型可以真正以3D形式悬浮在空间中,你能从各个角度去观察它。

交互上我们并没有做那些看起来很酷但实际体验糟糕的空中手势,因为它们用起来太累了。我们保留了物理键盘和触控板,这些经过验证的高效输入方式,但把它与空间显示结合起来。这样你既有熟悉的输入体验,又有全新的空间显示体验。
硅星人:这也是我想问的,为什么现阶段一定要保留物理键盘和触控板?
黄海:说实话,我们确实测试过那些看起来很酷的空中手势操作,虚拟键盘之类的方案。但实际体验下来,发现那些方案只是看着高科技,实际使用体验非常糟糕。你想象一下,你要一直举着手臂在空中打字或操作,很快就会感到疲劳,准确率还特别低。
硅星人:我也体验过一些声称可以在空中打字的产品,但它的准确率几乎让人无法进行正常工作。
黄海:对是的,我们做产品有个核心原则:不为了科技而科技,而是要解决实际问题。在当前阶段,物理键盘仍然是输入效率最高的解决方案,尤其对于那些需要大量文字输入的工作场景。
另外从用户习惯来说,键盘和触控板是几十年来形成的肌肉记忆。成年人要完全改变这种习惯是很困难的,这种迁移成本非常高。我们希望用户能够无缝过渡到我们的产品上,而不是强迫他们学习全新的交互方式。当然,长远来看,未来可能会有更好的输入方式取代物理键盘,比如更精准的语音识别或其他形式的交互。
我们做的是一个商业化的产品,不是概念验证。我们的目标是让用户能够真正地在工作中使用它,而不仅仅是玩一玩就放在一边。这就是为什么我们决定保留物理键盘和触控板,把创新聚焦在显示和软件层面上。
硬件ready,软件狂奔
硅星人:您的意思是,硬件上做一些取舍先商业化跑起来,现在这个阶段的主要任务是大力投入软件么?
黄海:是的,在当前阶段,硬件已经处于一个“及格线”以上的水平,可能有70分左右了。硬件基础已经能够支撑我们去做软件创新和体验优化了。
我们的策略很简单:不是在硬件上追求完美再上市,而是采取一种平衡的方式。今天在核心的硬件部分,比如光学、CPU这些,我们会选择比较成熟的、能达到体验标准的方案。当然我们也会有一些针对我们用户群体的定制化设计,比如更好的光学、适配不同国家用户的瞳距等。
硅星人:我再理解一下,您是说现在硬件已经到了可以像智能手机的阶段了么,从供应链“攒”出一个产品作为终端,先跑起来?
黄海:跟当时攒手机很像,硬件今天已经有点同质化了。市场上已经有相对成熟的光学解决方案、相对成熟的芯片方案,还有显示屏、传感器等各种组件。我们可以像在深圳找一个ODM厂商就能做出一款基本功能的AR眼镜。实际上你看到市面上已经有两三百块钱的AI眼镜了,虽然体验很差,但基本功能是可以实现的。
但关键区别在于,我们不是简单地把这些部件拼凑在一起,而是在这个基础上做了大量的优化和适配工作。我们在供应链已有的基础上选择了更好的元器件,比如索尼Micro-OLED显示技术、高通7系的芯片(这在AR眼镜里算是很强的了),以及我们自己定义的交互方式。
然后,我们在这些硬件上构建了自己的软件生态系统,这才是真正的差异所在。
硅星人:您一直在提软件,我们聊聊软件层面,你们的自研INAIR OS与传统操作系统有什么本质区别?
黄海:INAIR OS是基于Android系统改造的3D原生系统。这给我们带来了一个巨大优势:所有安卓应用都可以无缝迁移过来。这解决了新平台常见的“鸡生蛋、蛋生鸡”的困境。用户购买我们的设备后,不必担心应用生态问题,他们熟悉的微信、抖音、文档应用都可以直接使用。在现阶段,我们不需要从0开始构建软件生态,这是一个非常实用的策略。
其次,INAIR OS是从底层架构开始就为3D空间设计的系统。传统操作系统是为平面显示设计的,即使把它们放到AR眼镜上,依然是2D内容。而我们的系统允许2D和3D内容同时在空间中呈现和交互。比如你可以让传统的2D应用和新开发的3D应用在同一个环境中协作,不需要在不同模式之间切换。
最后,我们开发了一套专门的空间计算引擎。这个引擎支持内容空间悬停、三维定位,以及不同的景深呈现。我们对XR的渲染管线做了大量优化,确保120Hz的高刷新率下依然能保持画面流畅。同时,我们的系统能够智能管理计算资源,在保证性能的同时延长电池续航。
硅星人:3D原生的系统势必是要以3D应用为核心,在这方面INAIR有什么计划,正在做哪些工作?
黄海:首先要提的是我们已经实现了图片的2D转3D功能,这是我们的一个重要特性。用户的照片可以通过AI方式变成空间照片,看起来是立体的。而且我们正在升级为实时2D转3D功能,这是我们的重点工作之一。
技术上,我们使用了一些现有的AI推理模型,但关键在于工程化实现。我们在算法上做了大量优化工作,比如模型减值、优化、压缩和量化,特别是在高通芯片的NPU上做了很多适配工作。因为高通支持的模型并不是很全面,很多算力其实是不支持的,我们需要让这些模型能够更高效地跑在硬件加速的IP上。
我们自研了一系列原生3D应用,专注于图片查看、3D模型展示等场景。我们在逐步推进不同专业场景的3D应用开发。比如为设计师提供3D设计环境,让他们可以一边设计一边直接看3D效果。目前就有设计师在AR空间串流到屏幕做设计、代码编程环境以及视频剪辑环境等专业场景的应用。
硅星人:我们也看到现在有很多创业团队都在通过AI做3D相关的AIGC项目,后面会一起做开发者生态么?
黄海:现在市场上确实涌现了很多优秀的AI 3D创意项目,比如有团队在做单张照片生成3D模型、文本描述生成3D场景、实时风格化渲染等等。这些创新对于丰富空间计算的内容生态非常重要。
我们的策略是提供一个开放平台,而不是完全自研所有内容。我们有渲染引擎和API支持,能让这些团队的技术直接在我们的系统中呈现,不需要他们从零开始适配AR硬件。同时我们也有分发渠道。对小团队来说,技术再好没有用户也很难生存,而我们可以帮助他们直接面向我们的用户群体。
当然,Agent是未来方向。我们认为传统的“应用商店-应用”模式可能会在空间计算时代发生变革。用户可能不再需要为每个功能安装单独的应用,而是通过统一的AI助手直接获取服务。比如你想翻译文档,不需要打开翻译应用,直接让AI助手帮你完成即可。
AI+AR,有哪些化学反应?
硅星人:现在有很多AI眼镜的出现,AR眼镜也被寄希望于下一代的AI硬件,INAIR有哪些AI功能?在3D环境能实现哪些更强的AI能力?
黄海:我想先说明一下,目前市场上大多数所谓的AI眼镜其实是没有显示功能的,主要是一个带摄像头的输入设备。
我们的AI理念核心是“符合直觉”,它可以实时分析用户正在查看的内容,比如自动识别文档语言并提供翻译,识别图片内容并提供背景信息,或者理解视频内容并提供相关资料。在3D环境中,这些信息不是简单地显示在一个弹窗里,而是可以自然地悬浮在内容周围。
另一个更适合AI的环境是多维度信息展示。在3D空间中,AI可以将信息以更加立体、分层的方式呈现,避免了2D界面的拥挤和信息过载。我们目前系统做到的是可以去理解你的上下文,当你需要的时候,直接给到你答案,而不用再去很复杂地把内容搬来搬去,再去给出复杂的提示词。
硅星人:基于现在的思路和技术发展,未来有可能出现“干掉物理大屏”,在完全虚拟的空间进行交互么?
黄海:随着AR技术的不断成熟和普及,我们确实看到了“干掉物理大屏”的可能性,但这不会是一蹴而就的过程。
我们正在开发的实时3D场景生成和转换技术。目前我们已经可以将2D内容实时转换为3D效果,未来这项技术将更进一步,结合AIGC(AI生成内容)技术,允许系统根据用户需求即时生成完整的3D环境。
比如当你需要开会时,AI可以立即为你生成一个虚拟会议室,根据参会人数自动调整布局;当你需要放松时,它可以生成一个海滩或森林环境;当你需要集中工作时,它又可以创建一个简约的工作空间。这些环境不是预设的模板,而是由AI根据你的喜好、当前任务和现实空间条件实时创建的。
更进一步,这些AI生成的环境将是动态的、响应式的。比如你正在一个虚拟的创意工作室里,当你提到“我需要更多关于可持续发展的灵感”时,空间中会即时出现相关的3D模型、资料和视觉元素,甚至整个环境都会随着你的思路流动和变化。这是传统物理屏幕永远无法实现的体验。
在技术实现上,这依赖于几个关键突破:一是大模型在理解空间关系和生成3D内容方面的进步;二是设备端实时渲染能力的提升;三是云端与本地计算的高效协同。目前这些技术都在快速发展中,我们已经在实验室环境中实现了原型验证。
总的来说,我认为在5-7年内,我们将看到相当多的人开始用AR眼镜替代大部分物理屏幕;在10年左右的时间里,完全基于虚拟环境的交互将成为主流工作和生活方式。这不仅仅是屏幕的革命,更是整个人机交互范式的根本变革。
(文:硅星GenAI)