AirPods Pro 3 的实时翻译,应该和小米 AI 眼镜的那个差不多。
其实是手机翻译,耳机播放,手机上有一个 app 负责这个事情。
和小米不同的是,小米是手机 app 调用云端大模型,延迟大概 1s 左右。
如果真的如苹果广告片中那样,延迟更低,那么说明 iPhone 17 本地部署了一个小模型负责翻译。这个是在小米方案上的 improve 。
但是,代价是什么呢?
我们实际测试今天 7B 模型的耗电还是挺可观的,1.5B 这种看蒸馏的能力如何了。如果是 17 Air 这种捉襟见肘的电池,实时翻译可能会让续航出问题。
这个就看 A19 和 A19 Pro 的神经网络芯片,到底为了 LLM 推理又优化了多少了。
基于此,旧 iPhone 配合 AirPods Pro3 ,应该也能用。 LLM 并非一定需要专用芯片支持才能部署。无非就是延迟和功耗的区别。