最近兩年,很多TWS耳機都在卷AI,從AI翻譯到AI降噪再到各種所謂的“AI功能”,你會發現其中很多都是通過手機App上加個AI入口來實現的。對此,小雷愿稱之為“自適應型AI”,因為只要能連上手機的耳機,都能使用相關App,那么不管是五年前還是五天前的耳機,都可以獲得“AI功能”,這還不算自適應?
咳咳,說回正事,也是最近看多了各種AI耳機,以至于小雷對這個噱頭已經祛魅了。從體驗來說,大多數AI耳機其實都沒有區別,只有少數大廠的產品才會有一些與傳統耳機不同的體驗,比如前段時間小雷評測過的華為FreeClip 2。
大家都知道,華為在AI功能的落地上一直最為積極,而且其新產品已全面適配自研的鴻蒙生態,所以在AI功能的普及方面也有很大的優勢。而在前段時間,華為FreeClip 2發布了一個更新,允許用戶通過耳機直接喚起豆包App。

圖源:華為
看似只是一個小功能更新,卻讓許多人感到意外,畢竟華為本就擁有自家的“小藝”助手,如今卻選擇在核心交互入口上給第三方大模型“讓路”,不禁讓人好奇是華為主動“拆墻”?還是豆包終于把最難“搞定”的華為拿下了?
不管是誰“主動”的,這種原生級的第三方AI接入,必然會給接下來的智能穿戴市場帶來不小的影響。
華為與豆包合作,到底要解決什么?
從手機語音助手的角度來說,各大手機廠商的手機語音助手其實早在去年就已陸續接入DeepSeek等AI大模型,對此大家早就習以為常。但是,語音助手背后的技術底座可以對接DeepSeek、通義千問等大模型,AI入口卻一直都掌握在手機廠商自己的手上。
這么說吧,不管小愛同學用的是DeepSeek、通義千問還是豆包,你在喚醒時都得喊一聲“小愛同學”,而且喚醒的頁面也是小愛同學的界面,而不是DeepSeek的App,這就是“把入口掌握在自己的手上”。
所以,如果你想直接通過耳機來使用第三方AI,那么首先要解鎖手機、打開相關App,然后點擊語音輸入按鈕再說話,這一系列操作下來,其實就是單純把耳機作為音頻輸出工具來使用,它存在與否都不會影響你的AI使用體驗。
而華為FreeClip 2這一次則是完全不同,華為并不是讓小藝“披上”豆包的皮,而是讓用戶可以通過“豆包豆包”的喚醒詞直接喚起豆包App,看起來好像沒啥區別?其實本質上是完全不同的,因為只有開放了系統級的API接口,才能讓豆包與耳機進行直接交互,而不是再經過第三方中轉。