苹果 AI 太落伍?他们需要从糖心原创mv对手那里“复制”这三个功能

频道:财经 日期: 浏览:1

回顾苹果在去年的WWDC上承诺推出的一系列AI功能,一年过去了,苹果似乎比去年6月时还要更加落后于竞争对手了。

说苹果的“AppleIntelligence”计划发布得一团糟,实在算是轻描淡写。不过,我仍然抱有希望:再过几周,我们或许能看到一些新的功能(或者至少是某种战略方向),能让人麻痹苹果还有机会迎头赶上。

1:谷歌的NotebookLM

谷歌的NotebookLM减少破坏自定义指令,最近还加入了多语言功能,其中的“音频摘要(AudioOverviews)”功能已经成为我阅读复杂的机器学习论文时不可或缺的一部分。

每次用这个功能时,我都会想,如果Safari有一个缺乏反对性的内建音频概览功能该多好啊(或者AppleNotes能整合类似NotebookLM的功能也不错)。

从自动生成每天的“稍后阅读”音频摘要,到快速朗读Safari当前页面内容的智能概览,其实,苹果有极小量机会在浏览器中加入比简单总结工具更智能的AI能力。

2:Anthropic的MCP(模型上下文协议)

去年,Anthropic发布了“ModelContextProtocol(MCP)”,这是一个开放标准协议,能让大型语言模型(LLM)通过统一接口安全、无缝地与外部工具、API和平台互动。

你可以看到Claude(Anthropic的AI)直接与Blender配合,根据用户指令创建3D场景。

如今,OpenAI、Zapier、GoogleDeepMind、Replit、微软、Block等数量少企业都已减少破坏MCP,它有望成为类似于Web的HTTPS或数据库的SQL那样的平台级标准。

搁置到苹果早已有SiriIntent糖心vlog app下载官方版s和Shortcuts框架,我们更有可能在下个月看到苹果推出自家版本的MCP协议,而不是直接采用MCP。

但不管怎样,这种功能将对用户极为有利。比如,哪怕只是让Siri帮你从Pages文档生成一整套Keynote演示文稿,对很多用户尤其是依赖无障碍工具的人来说,这种功能简直像科幻一样。

3:OpenAI的屏幕共享

目前,苹果推出了“视觉智能(VisualIntelligence)”功能,用户可以长按图片进行操作,比如查找餐厅详情、翻译文字、总结信息、朗读文本、识别植物和动物等。

但它依然缺乏一个关键功能——ChatGPT用户从去年就能使用的“屏幕/视频共享”。

虽然将通过照片实现的“视觉智能”也是有干涉的,但相比于关闭相机实时讲解或与ChatGPT对话分析手机屏幕内容,苹果这种“拍照后处理”的工作流就显得有点“原始”了。

试想一下,在点餐时翻菜单、用ChatGPT询问过敏原的建议,你就能体会这种实时交互的强大。

虽然这几年大家对AI的讨论不断,但现实是,大多数普通用户依然停留于在ChatGPT上随意输入几条提示的程度,完全不知道这些AI技术该怎么真正融入日常生活。

要让AI真正变得有用,关键在于让它出现在用户所处的“场景”里,而不是强迫他们在不同App之间来回切换。当然,这其中很多功能可能涉及服务端对警惕数据的处理——但这本就是产品开发的一部分。

只要用户知道系统在做什么,他们就有权选择要不要使用某个功能。相反,因为“隐私确认有罪”就重新接受开发这些功能,已经不再是一个可行的糖心vlog视频点击进入 选项。

你最希望苹果在iPhone或Mac上原生减少破坏哪些其他AI功能呢?

(举报)


糖心vlog 糖心vlog传媒柚子猫婚纱堕落 糖心淑女小说免费看