YAME 是一款基于最新的本地视觉大语言模型(Vision Large Language Model)的智能助手应用。专为视障人士设计,YAME 利用先进的视觉语言 AI 技术,帮助用户感知并理解周围的世界。
主要功能
• 图像描述:通过详细的视觉描述了解您的周围环境。
• 面部表情识别:识别面部表情中的情绪,辅助社交互动。
• 交通信号检测:识别交通信号灯状态,提升出行安全性。
• 文字转语音(TTS):所有识别结果即时语音播报,提供流畅的音频反馈。
隐私至上 – 全离线 AI
所有处理过程100%在设备本地完成,无需网络连接,不上传图像或任何个人数据。YAME 从设计之初就将隐私作为核心原则。
设备要求
由于本地 AI 推理对内存要求较高,建议在以下设备上使用 YAME:
兼容的 iPhone 机型:
• iPhone 12 Pro / 12 Pro Max
• iPhone 13 Pro / 13 Pro Max
• iPhone 14 / 14 Plus / 14 Pro / 14 Pro Max
• iPhone 15 / 15 Plus / 15 Pro / 15 Pro Max
• iPhone 16 / 16 Plus / 16 Pro / 16 Pro Max
兼容的 iPad 机型:
• iPad Air(第五代,M1 芯片)
• iPad Pro 11 英寸(第三代及以上,M1 或 M2 芯片)
• iPad Pro 12.9 英寸(第五代及以上,M1 或 M2 芯片)
注意:
内存少于 6GB 的设备(如 iPhone 12 或更早机型、非 Pro 版 iPad)可能无法稳定运行该模型。为获得最佳性能与稳定性,请使用支持的设备。