议题背景:
智能眼镜是下一个空间计算平台。它解放了双手,与人类共享同一双眼睛和耳朵,第一次让计算设备真正融入人类对世界的感知视角——这开启了一种全新的人机交互方式:AI不再需要等你掏出手机、打开应用、输入指令,而是直接看到你看到的、听到你听到的,在你需要的时刻主动出现。
多模态AI(视觉、语音、空间感知的融合)正是释放这一平台潜力的关键:它让眼镜能够同时理解"外部环境发生了什么"和"用户此刻需要什么",从而在正确的时间、以正确的方式提供帮助。
然而望向未来,我们还可以在AI眼镜上通过脑机接口(BCI)技术多加一个感知——读懂人本身的认知状态。如果一个眼镜能同时感知外部世界与用户大脑,这将会催生全新的产品形态。
内容大纲:
1. 为什么多模态AI最好的使用产品是眼镜
1.1 手机 & 眼镜的不同:交互方式、信息呈现、触发时机
1.2 眼镜的独特性:它是第一个与物理世界无缝融合的计算设备
1.3 这意味着AI的角色从"工具"升级为"环境感知的协作者"
2. 现在:多模态AI在眼镜上能做什么
2.1 "环境理解"能力:眼镜如何看懂你面前的世界——场景、物体、文字、空间
2.2 "意图理解"能力:结合用户指令与环境,推断用户真正需要什么
2.3 "适时输出"能力:什么时候输出、输出多少、用什么形式——眼镜上的信息设计原则
2.4 真实产品挑战:延迟、电量、隐私、信息过载——我们如何做取舍
3. 未来:BCI让眼镜从"感知世界"到"感知人"
3.1 假设眼镜知道你的专注,焦虑,疲惫程度
3.2 BCI的产品想象
3.3 双重感知叠加后,产品会发生什么变化,产品化还有多久
4. 对产品人的启示
4.1 产品里的"认知感知"设计思路
4.2 职业成长:做对公司重要的事情&你的热情
听众收益:
1. 理解眼镜产品设计的核心,多模态AI在可穿戴设备上的运用
2. 了解BCI技术距离真实产品落地的距离
3. 扩宽知识边界