Gemini任务自动化的体验,虽然慢得像蜗牛爬,却还是挺让人难忘的。我刚在Pixel 10 Pro和Galaxy S26 Ultra上折腾了一把Gemini的新技能,这是头一回把这种AI给派上用场,让它直接替咱们干活。不过实话实说,现在能做的事儿太少了——就只认得几家外卖和网约车,比如Uber Eats和Uber之类的——而且还只是个测试版。速度肯定比不上人类手速快,要是急着打车,自己点最省事。不过它的设计意图本来就是在后台偷偷干活,让你一边忙别的一边让它操心。我那会儿测了下订餐,硬是磨蹭了九分钟才搞定。虽然能在屏幕底下看它正在干的事儿——比如正纠结着套餐里要不要加第二份照烧鸡肉——但看着它在菜单上瞎找那些明显摆在那儿的配菜时,心里那个急啊。 好在准确性倒是有保障。它会一路把事儿干完直到让你最后确认,绝不会自己偷偷下单。我一连试了五天都没出岔子,甚至需要手动调整的地方也很少。 最让我长见识的还是它的智商。我在日历上记了个第二天飞旧金山的航班信息,然后随口跟Gemini说:“给我叫个Uber去机场”。这时候它就能从我邮箱和日历里扒拉信息了。它找着了我的航班时间和我家到机场的距离,算出建议出发时间是11:30或11:45。这个时间安排挺合理的吧?我只要在这两个时间里选一个就行。 这种自然说话的感觉真不一样啊!以前那些只能定个闹钟、放个歌的小助手可做不到这一点。这种AI现在不会因为你说错词就卡壳了——比如你说“套餐”它也不误会成“餐盘”。 可要是仔细盯着看它在Uber Eats上点来点去的操作,就会发现个问题:要是专门给AI做个App,肯定不会做得这么繁琐。现有的App都是为了让人用的,里头塞满了AI根本用不着的花花肠子——广告、大图这些。行业里现在正在想办法改善这种状况呢。 Google那边的安卓老大Sameer Samat跟我说过这事。如果没有MCP这种上下文协议或者安卓那边更硬气的函数方法支持,Gemini现在只能用“推理”的方式勉强应对。这个版本的任务自动化可能就是个前瞻预览了? 虽然目前看起来笨拙又慢得慌,但这的确是移动助手往新路子上走的重要一步啊! Q&A 问:Gemini任务自动化现在能做啥? 答:现在支持的范围还是窄了点,就只能干一些外卖和网约车的活儿。它能代替咱们去点餐、叫车。要是你在日历里记了个去旧金山的航班计划,跟它说“安排辆车送我去机场”,它也能自己查信息给你规划好出发时间。 问:用它订餐要多久? 答:我自己试了一下大概需要九分钟吧。这可比咱们自己动手慢多了。但人家的设定就是后台运作的嘛,你完全可以一边忙着别的一边等着。它把流程跑完会让你最后确认一遍,确认完再付款。 问:这个功能有多聪明? 答:挺聪明的!它能读懂你发的自然语言指令。比如你说“去机场”,它就去翻你邮箱或者日历找航班信息;它还会根据车程算好时间问你“你打算几点走”。就连菜单里那种“半份等于一份”的数学逻辑它也能懂。