被低估的谷歌?聊聊Gemini 2.0最近3個超酷的新功能

Google 最近的動作真的多。

感覺就是趁著 OpenAI 存糧打完了,瘋狂的撒豆子一樣往外面撒更新。

昨天晚上 11 點多,他們又發(fā)了一個關(guān)于 Gemini 的更新(其實功能禮拜天就上了,我也不知道他們?yōu)樯督裉觳虐l(fā)推文)。

被低估的谷歌?聊聊Gemini 2.0最近3個超酷的新功能

就是這個東西。

被低估的谷歌?聊聊Gemini 2.0最近3個超酷的新功能

這玩意,他會根據(jù)你的過往的所有 Google 搜索記錄,來讓模型更懂你,給你更加個性化的搜索的回答。

然后就是上周五,Google 又發(fā)了 Deep Research 的更新,現(xiàn)在,底座換成了 Gemini 2.0 Flash Thinking,基座比之前的 1.5Pro 能力還是強太多了。而且,是 100w token 的上下文。

被低估的谷歌?聊聊Gemini 2.0最近3個超酷的新功能

再就是上周四,幾乎全網(wǎng)火爆的 Gemini 2.0 原生多模態(tài),被玩出了各種花來。

被低估的谷歌?聊聊Gemini 2.0最近3個超酷的新功能

更別提同樣在上周開源的 Gemma 3,以 27B 超小尺寸擊敗了 DeepSeek v3、o3-mini 等等。

被低估的谷歌?聊聊Gemini 2.0最近3個超酷的新功能

Google 這一周的動作,密集的有點離譜了。

但是每一個更新,都是實打?qū)嵉模际侵档?OpenAI,開個 20 分鐘直播發(fā)布會的玩意。

在體驗了幾天以后,我想說,Gemini 2.0,感覺還是被低估了,這波更新之后,已經(jīng)成為我現(xiàn)在用的僅次于 ChatGPT 第二多的 AI Chatbot 產(chǎn)品。

因為,體驗和生態(tài)。

更多AI產(chǎn)品:

這 3 個新功能,我們一個一個來說。

第一個就是上周四更新的那個 Gemini2.0 的用嘴改圖,這是 AI 繪圖的新范式。就不過多贅述了,只能說特別強。

網(wǎng)址在此: https://aistudio.google.com/ ,記得開魔法。

給大家看兩個好玩的 case 吧。

比如用嘴一鍵去水印。

被低估的谷歌?聊聊Gemini 2.0最近3個超酷的新功能

或者一鍵換衣服。

被低估的谷歌?聊聊Gemini 2.0最近3個超酷的新功能

甚至 X 上有一個賊好玩的,直接給自己換了個背景。

被低估的谷歌?聊聊Gemini 2.0最近3個超酷的新功能

“你已經(jīng)上班遲到了,你甚至還沒離開家……你沒有借口,于是你拍了一張今天健身的照片,然后打開 Gemini 2.0 flash expremental輸入如下指令:展示這位女士在 N 線 14 街站臺的一張自拍照,她豎起大拇指點贊,背景中有一群沮喪的 MTA 工作人員正在維修軌道。頭頂上方,一個小型 LED 屏幕顯示日期:2025 年 3 月 13 日。”

就,看著非常有用。

然后就是更新的第二個功能,Deep Research。

我也會用整篇文章,最大的篇幅,來聊這個功能。

我先表明態(tài)度,OpenAI 的 Deep Research 和 o1 pro 這兩個功能,是我至今還愿意為它付費 200 刀/月如此高昂價格的原因。

當你用過 Deep Research 后,我相信,你一定會被其做震撼。

我自己是金融行業(yè)出來的,也跟 N 多金融領(lǐng)域的行業(yè)研究員還有科研的朋友交流過,大家基本的反饋都是作為老手,自己也起碼要干 10 個小時以上才能到達 Deep Research 生產(chǎn)的研究報告的質(zhì)量。

但是很多人可能不知道,Deep Research 這個功能,其實是 Google 去年 12 月份,第一個發(fā)的。

被低估的谷歌?聊聊Gemini 2.0最近3個超酷的新功能

但是吧,當時的底座,用的是 Gemini 1.5 pro,那個模型,真的太爛了= =效果完全不夠看。

隨后才是 2 月份,OpenAI 基于 o3 微調(diào)了一個模型,抄了一個他們的 Deep Research,把效果打到了新的高度,也讓 Deep Research 這玩意,第一次跑了圈。

后面就是 Preplyxity 和 Grok3,這兩個雖然也推出了類似的功能,但是名字其實都叫 Deep Search,純粹的 AI 搜索。跟 Deep Research 幾乎沒啥關(guān)系。

Deep Research 其實本質(zhì)上是一個 Agent 產(chǎn)品,用戶提出問題后,會跟 Agent 一樣,先拆解目標進行規(guī)劃,最后進行搜索、合成,產(chǎn)出一篇報告。

所以你能看到,最核心最核心的一步,其實是第一步,先拆解目標進行規(guī)劃,這個東西非常的考驗模型的規(guī)劃能力。

而規(guī)劃能力,就是邏輯能力的反應,所以你也可以說,這就是在深度考驗,模型的智能水平。

人 OpenAI,用的是最牛逼最先進的 o3 微調(diào),你 Google,居然在 2024 年 12 月份,用的還是跟 Sora 同期的 Gemini 1.5 pro,我都不知道用啥理由去理解 Google,只能說都過去 8 個月了,他們還是忘不了當年被 OpenAI 狙擊的痛,所以至今還對 Gmini 1.5 pro 耿耿于懷念念不忘。。。

但是這一次,Google 終于反應過來了,把基座模型,換成了 Gemini 2.0 Flash Thinking Experimental,他們目前最新的推理模型。

雖然我覺得他們應該用 2.0 Pro Thinking 甚至是 2.5 才對。。。

你現(xiàn)在可以在 Gemini 的官網(wǎng)用到:https://gemini.google.com/

左上角切換到 Deep Research 模型或者下面對話框那打開 Deep Research 按鈕,都行。

被低估的谷歌?聊聊Gemini 2.0最近3個超酷的新功能

現(xiàn)在有個比較牛逼的點是,它免費。

OpenAI 的 Deep Research 貴到離譜,Plus 會員(20 刀/月)每個月智能用 10 次,產(chǎn)出 10 份報告,即使是 Pro 會員(200 刀/月),每個月也只有 150 次。沒氪金的用戶,更是連體驗資格都沒有。

而這次,Google 至少做了一個非常良心的事,即使你是免費用戶,也可以體驗到,真正的 Deep Research 了,而不是那種垃圾 Deep Search。

每個免費用戶,每個月可以用 X 次,具體次數(shù)我把他們網(wǎng)站翻了個遍,也沒看到哪里寫清楚了。
只有這么一句。

被低估的谷歌?聊聊Gemini 2.0最近3個超酷的新功能

反正可以白嫖,不行就換號大法啟動嘛,多大點事。

也給大家看一下效果。

比如我最近其實對一直在研究電影工業(yè),也有部分工作是做這一塊,有一家公司是我一直想研究的,就是漫威。

所以我就把這段 Prompt 扔了進去。

“全面、系統(tǒng)地分析漫威(Marvel)在電影工業(yè)化進程中的布局與經(jīng)驗,涵蓋歷史背景、核心戰(zhàn)略、制片體系、商業(yè)模式、營銷策略、技術(shù)應用,以及它如何與迪士尼等合作方共同塑造全球化、跨媒體的超級英雄宇宙。通過多角度調(diào)研與論證,提煉漫威在現(xiàn)代電影工業(yè)發(fā)展的成功要素,并思考未來趨勢與經(jīng)驗教訓。”

被低估的谷歌?聊聊Gemini 2.0最近3個超酷的新功能

跟 OpenAI 的 Deep Research 的不同是,他會給你把框架和節(jié)奏拆完,讓你清晰的看到后面它會執(zhí)行哪些步驟,你點擊開始研究之后,他才會去整個互聯(lián)網(wǎng)上去搜索。而 OpenAI 的 Deep Research,是會在搜索的過程中,動態(tài)調(diào)整目標的。

當然你也可以修改方案,點擊以后用嘴改就行了。

而 OpenAI 的 Deep Research 是會給你補全范圍,提問題,來激發(fā)你沒考慮到的部分。

被低估的谷歌?聊聊Gemini 2.0最近3個超酷的新功能

在起手式上,OpenAI 還是要強于 Google 的。

隨后就是搜索階段。

被低估的谷歌?聊聊Gemini 2.0最近3個超酷的新功能

Gemini 會默認展示思維過程,而且會用了巨大的 UI 畫幅去重點展示,搜了超級多的網(wǎng)站,甚至還有 youtube。

在思考了 10 分鐘之后,一份報告,就會放在你的面前。

被低估的谷歌?聊聊Gemini 2.0最近3個超酷的新功能

非常坦誠的講,這份電影工業(yè)化報告的質(zhì)量,是沒有 OpenAI 生產(chǎn)的詳細和深度的。

搜索的很準,它搜了將近 220 個網(wǎng)站,我點進去看了一半,確實都很相關(guān)。但是最后的報告整合上,拉了胯了。

能解答我的一些疑惑,但是并沒有到那種直出即可用的地步。

而 OpenAI 的 Deep Research,是可以達到這個程度的。

可能還是受限于底層模型的原因,但凡我覺得 Google 換成 Gemini 2.0 Pro Thinking,效果都可能會大幅提升,不過那樣的,可能又沒法免費了。。。

不過我的做科研朋友告訴我,他覺得,在科研領(lǐng)域上,Google 比 OpenAI 好用,得益于 Google 30 年的搜索積累,和在 google 學術(shù)上的布局,搜索的精準度上會比 OpenAI 強非常多,最后得到的報告,也比 OpenAI 要好。

但是科研這塊我不懂,可能需要大家再去多測試一下,可以在評論區(qū)反饋。

總結(jié)就是,Gemini Deep Research 模型能力拉了點,但是搜索能力很強,報告整合能力拉跨;OpenAI Deep Research 搜索的精準度中規(guī)中矩,但是基座模型太強,整合能力無敵。

我這里也非常客觀的講一句我的理解。

Deep Research 這種東西,會極高極快速的拉高你獲取高信息密度知識的上限,會大幅改變教育、研究的工作體系。

過往,無論是因為囊中羞澀,還是因為別的,沒有用過 Deep Research,那我非常的真誠的建議你,Gemini 的這個 Deep Research,趁著目前還免費。

薅禿它。真的。

無論是做行業(yè)報告、還是做書籍總結(jié)、還是科學研究等等等等。

先用起來。真的。你會感受到,另一片天地。

最后,用簡短的篇幅,聊聊更新的第三個功能,Personalization。

被低估的谷歌?聊聊Gemini 2.0最近3個超酷的新功能

當你第一次點進去的時候,會提示你,是否要跟你自己的 Google 賬號相關(guān)聯(lián)。

被低估的谷歌?聊聊Gemini 2.0最近3個超酷的新功能

關(guān)聯(lián)了以后,Gemini 就可以根據(jù)你過往的搜索記錄,來給你針對性的、個性化的回答了。

用 Google 搜索的越多,他就會越懂你,所以,你懂我什么意思把...

被低估的谷歌?聊聊Gemini 2.0最近3個超酷的新功能

但是我發(fā)現(xiàn)了一個 BUG,就是當我問題中有字母的時候,它的回答,就會變成英文,這個還讓人挺懊惱的。

但是,從這點依然能看出,Google 在做產(chǎn)品上,終于開始把自己過往 30 年的積累,逐漸的往 Gemini 中融入了。

這種巨頭的生態(tài)積累,還是不容小覷的。

這一周密集的更新,個頂個都是很棒的功能,更別提 Google 手上還有個 AI 視頻的王炸,Veo2。
Google,感覺還是有點被低估了。

AI 還遠未觸及頂點。

人類也遠未見識到它的極限。

歡迎關(guān)注作者的微信公眾號:數(shù)字生命卡茲克

被低估的谷歌?聊聊Gemini 2.0最近3個超酷的新功能

收藏 18
點贊 43

復制本文鏈接 文章為作者獨立觀點不代表優(yōu)設(shè)網(wǎng)立場,未經(jīng)允許不得轉(zhuǎn)載。