所有語言
分享
原文來源:極客公園
作者 | 湯一濤
編輯 | 靖宇
圖片來源:由無界 AI生成
AI,無疑是今年 CES 展會上最大的亮點。
在正在進行的 CES 2024(國際消費电子展)上,著名的 AI 科學家吳恩達和李飛飛出席了「偉大的思想,大膽的願景」環節的小組討論,就「人工智能的下一步是什麼?」進行了 40 分鐘的對談。
吳恩達是 Google Brain 的創始人、斯坦福大學副教授教授,也曾是 OpenAI 首席執行官山姆·奧特曼(Sam Altman)的老師。
李飛飛是斯坦福大學 Human-Centered AI 研究所聯合主任、谷歌雲(Google Cloud)前人工智能/機器學習首席科學家。
兩人一致認為,2024 將會是 AI 技術繼續深化的一年,同時也會覆蓋到更多行業,成為下一次数字革命或工業革命真正的變革性驅動力。
吳恩達還預測了 2024 年 AI 可能的突破性進展,包括大視覺模型和邊緣 AI。
對於自主代理(Auto Agents)是否會出現的問題,兩人出現了一定的分歧。李飛飛認為相對於自主代理而言,輔助代理可能更恰當。
但兩位專家都確認,這次由大模型引發的 AI 浪潮,並不會像 7 年前那波 AI 熱潮一樣,熱鬧幾年後進入「冰河期」。
以下談話來自 CES,經極客公園編輯整理。
Q:AI 已經經歷了好幾輪熱潮和低谷,今年 AI 會怎麼樣?會迎來低谷嗎?
吳恩達:我覺得不會,因為人工智能的商業基礎比以往任何時候都更為強大,甚至在生成式人工智能浪潮之前就已經如此。它們在去年真的起飛了,人工智能可能已經推動了數千億美元,也許是數萬億美元。至少對於像谷歌這樣的公司來說,它給你展示了更相關的廣告,從而帶來了大量收入。因此,商業基礎就在那裡。
事實上,人工智能最為人所不理解的一個方面是它是一種通用技術,這意味着它不僅對某一方面有用,這有點類似於電力。如果我問你電力有什麼用,幾乎很難回答,因為它對許多不同的事物都有用。
人工智能也是如此。所以今天即使人工智能還沒有取得技術上的核心進展,但你知道它會取得技術進展。即使沒有,全球各地已經有太多場景等待被發現和建設,(人工智能的)商業基礎會繼續增長。
李飛飛:我大致同意恩達的觀點。我們所看到的是人工智能的一個轉折點,這個轉折點是隨着通過大型語言模型、ChatGPT 以及隨後的模型的出現而實現的。
我看到,人工智能正在成為一種深化的橫向技術。當它成為一種深化的橫向技術時,它就會成為下一次数字革命或工業革命真正的變革性驅動力。這項技術已經來臨,正在深入到所有垂直業務和客戶、消費者體驗中,並正在改變我們社會、經濟、政治景觀的基本結構。事實就是這樣,而且這種變化正在變得越來越明顯。
Q:2024 年,人工智能領域可能發生的重大突破是什麼?
吳恩達:首先,我看到了從大型語言模型向大型視覺模型的轉變。很多進展不僅僅是在生成圖像方面,還包括對圖像進行分析,以便計算機能夠更好地看清圖像的含義,對於自動駕駛等領域具有重要影響。
我對自主代理(Auto Agents)的崛起感到興奮,這是指你可以給一個人工智能系統一個指令,比如,「親愛的人工智能系統,請幫我進行市場調研,進行對該公司的競爭分析。」它會規劃一系列動作,如網絡搜索、下載網頁並總結信息。它會離開一會,進行半小時、一個小時或一天的工作,然後回來提供答案。這些代理可以規劃和執行一系列動作。自主代理現在只是剛剛有點起色,但我覺得在研究和商業化方面有很大潛力。我期待在未來幾個月內會有突破性進展。
最後一點是邊緣人工智能(edge AI)。我經常在我的筆記本上運行大型語言模型,我一直在使用 GPT-4,但是有很多 bug。但很多人可能不知道的是,實際上在你的筆記本上運行大型語言模型已經變得相當可行,雖然不像 GPT-4 那麼大,但足夠大、足夠有用。
Q:在你的筆記本電腦、個人電腦或工業 PC 上運行邊緣人工智能,這方面的能力實際上比大多數人認為的要好得多。我認為這將推動很多設備的銷售,也將推動很多計算機科學的發展。
李飛飛:我將以尊重的態度稍微持不同意見,或者說我們可以進行一點討論。
Q:你用了自主代理(Autonomous Agent)這個詞,我實際上想將它改成輔助代理(assistive agent)。
我們在今天的大語言模型中看到的一件事是,長尾分佈仍然很困難,無論我們談到的是「幻覺」還是其他事情。在很多工作領域中,為了提供高質量的服務和產品,長尾問題是很重要的。所以我實際上看到的是一種人機協同的、輔助代理的情況,其中一部分工作是自主完成的,一部分工作是協作完成的。這是更有可能的情況,而不是完全自主。
吳恩達:我們終於有點不同意見了,不過實際上我是同意你的。讓我分享一下我的經驗。
我認為「自主代理」這個術語可能有問題,但在商業世界中我看到的是,很多人寧願讓人工智能與人類共事,而不是取代人類,因為這會引發有關失業的討論。在我的觀察中,是否使用人工智能進行自動化或削減人手,通常是一個商業經濟決策,而不是倫理決策。也許它應該是一個倫理決策,但坦率地說,在我與企業合作構建聊天機器人時,我看到大多數企業進行了非常理性的經濟計算,因為競爭對手也在做同樣的事情。
李飛飛:我要補充一點,然後對此進行評論。
我認為我們必須小心代替工作(job)和代替任務(task)的區別。每一個人類工作,實際上是涉及到多個任務的集合。比如我研究醫療保健,一個護士 8 小時的工作包含數百個任務。我確實看到人工智能代理在許多任務上提供幫助、具有輔助和增強功能,但在討論工作時我們應該非常小心。
我認為經濟上的商業決策與倫理社會決策並不是互相排斥的。這是一個更深入的對話,至於你提到的這些代理是否具有理解能力(understanding),僅就商業而言,我認為這是一個非常微妙的術語。
什麼是理解?有在數據中存在的模式的理解,有關於你正在做出的決策的理解,還有關於人類任務意圖的理解。所以我認為實際上我不會那麼過於籠統地使用「理解」這個詞來描述今天的人工智能代理。
吳恩達:我想回到任務的話題,因為我認為這很重要。
我的團隊為許多企業工作,有時我會接到一位首席執行官的電話。他們說:「嘿,恩達,我在閱讀關於人工智能代理的文章,我該怎麼辦?」
我們的朋友艾弗里·布朗(Avery Browne)經常給出的建議,就是觀察你的團隊,找出你所有員工實際在做哪些任務,並分析不是在工作層面而是在任務層面上,這些任務對於人工智能增強或自動化來說有多容易,並且其業務回報率是多少。每次我在企業中進行這項工作時,我們總是想出非常多的想法。因此,人工智能增強或自動化有很多機會。
第二件事是,往往具有最高回報率的任務並不是人們最初認為的那樣。例如,當你想到放射科醫生時,人們往往認為,哦,放射科醫生要看 X 光片。這是你腦海中有關於這份工作的認知,但實際上我們將這份工作分解為許多不同的任務,比如收集患者病史之類的事情,結果可能更容易,而且回報率更高。
因此,我發現系統地進行這種練習通常有助於企業識別有價值的機會。
李飛飛和吳恩達在 CES 展會論壇上暢談接下來 AI 和大模型的發展和應用|CES
Q:在你與財富 500 強公司合作的工作中,有沒有一些應用領域具有清晰、可證明、可實現的投資回報率(ROI)?
吳恩達:如果我們從最廣泛的角度來看財富 500 強公司,我認為常見的領域是客戶運營或客戶支持,有很多公司試圖增強或自動化客戶支持。銷售運營、軟件工程也受到了很大的影響。
但對我來說更令人興奮的是,我正在與一個非常大的農業公司討論,我們認為也許可以使用人工智能來執行真正為他們節省很多時間的奇怪任務。所以那些具體到你的業務和你的行業的細分市場,我認為通常更有趣,可以創造出特定於行業的防禦性的強大的增長機制。人們在某個時候可能都會購買一些用於銷售運營等方面的通用工具,但是對於你的業務而言,那些應該在內部構建的具體事物,實際上是非常令人興奮。
李飛飛:有各種各樣的客戶支持或運營解決方案,要補充的一點是,當前技術中存在哪些共同的機會?我認為這在今天仍然是真實的,就是在你擁有最多數據的地方,在數據能夠显示出可重複的模式或好的模式的地方,就是你可以開始的地方。無論是人類語言模式、結構化數據模式還是圖像數據模式,數據存在的地方以及數據模式被證明在你的業務中是有價值且可操作的地方,那就是值得關注的地方。
Q:這些財富 500 強公司可能面臨的障礙是什麼?許多 CEO 擔心 AI 產生的不確定性。
李飛飛:這取決於你的產品、服務,取決於結果的風險。在醫療、金融預測等許多行業中,準確性對長尾影響如此之大,以至於你不能承擔人身傷害的風險,或者金融錯誤的風險。所以,你需要了解你的行業,你需要了解你的解決方案和服務。
這就是為什麼我們應該遠離炒作,理解這項技術能做什麼,並避免在那種 AI 尚未準備好的方向投資。
Q:順便說一句,生成式 AI 是一個「負擔過重」的詞。今天每一個 AI 都被稱為生成式 AI,但是在一開始的時候,我們對生成式 AI 有非常明確的數學定義。
確切地說,當談到生成式 AI 時,我只是假設它是一種大規模的數據驅動,有一個預訓練階段的方法。有些人可能會將 Transformer 模型和預測模型放入其中,但無論如何,我認為如果存在真正的準確性問題,我們應該檢查幾個方面:這是模型的限制嗎?這是數據質量的問題嗎?AI 在正確的循環中嗎?
有更微妙的業務問題導致了不準確性。真的要弄清楚所有這些,並儘力解決它們。有時,例如在某些級別的醫療診斷和治療中,你必須認識到存在一些限制,如果風險太高,我們不能過於激進。
Q:讓我們討論一下基礎模型。如果 2023 年是 OpenAI 的一年,那麼在基礎模型領域,誰將是我們在 2024 年最多談論的人?蘋果會推出 Ajax LLM 嗎?我們會更多地談論 Gemini 而不是 GPT 嗎?
李飛飛:我之前說過,我看到這項技術正在深化,並且也在擴展到所有領域。因此,很難單獨挑出一個公司。我相信將會有令人振奮的發布,從芯片方面的下一代 H100(英偉達 AI 專用芯片組)的發布,一直到消費端。
因此,我無法押注一個單一的話題,但我希望看到,我也相信,2024 年將會是由 AI 應用和 AI 技術拓寬定義的一年。
吳恩達:每當有一波技術創新時,媒體喜歡談論技術層面,這就是為什麼媒體關注 OpenAI、Google、AWS、Microsoft、Meta、Nvidia 和 AMD 等的原因。這沒有錯,但事實證明,為了使這個技術基礎設施層取得成功,我們需要另一個領域取得更大的成功,那就是建立在這些雲服務提供商之上的應用層。
因為坦白說,我們需要建立在這些工具之上的應用來創造更多的收入,以便它們能夠支付這些工具的構建者的成本。我們最好集體創造一些生成應用,以填補 GPU 資本投資帶來的數百億美元的空缺。
因此,我認為很多實際工作不僅僅是基礎模型。它將涉及到醫療、金融服務、教育、电子商務等各種行業。
Q:今天的一個主要話題是關於生成式人工智能和知識產權的訴訟。你如何看待這些訴訟的發展?《紐約時報》是否應該因 OpenAI 在訓練中使用其內容而獲得補償?
吳恩達:我查看了《紐約時報》、OpenAI 和微軟的訴訟,我不是律師,也不提供法律建議或任何有關此事的任何建議,但我對 OpenAI 的同情要遠遠超過對微軟的同情,我對 OpenAI 和微軟的同情也要遠遠超過對《紐約時報》的同情。
坦率地說,當我看到《紐約時報》的訴訟時,我覺得這是一個非常混亂的論點。我希望《紐約時報》的律師能夠遵循與記者相同的清晰和新聞報道標準,但我認為他們沒有這樣做。
簡而言之,有兩件事。
首先是關於提示(prompt)的問題,即輸入給 OpenAI 來「復讀」(regurgitate)《紐約時報》文章的指令。我認為這是一個非常奇怪的指令,幾乎沒有任何正常用戶會使用。我不認為大規模復讀受版權保護的文章是應該的。但是 OpenAI 存在這個 bug,而《紐約時報》只是指出了這個 bug。我們都知道,有時在軟件中會出現 bug。
還有另一件奇怪的事情,在一些例子中,《紐約時報》展示了你可以編寫一個提示,將其傳遞給 ChatGPT,要求其下載《紐約時報》的文章,然後告訴它將其打印出來。
我覺得僅僅因為它能夠這樣做,這並不等同於 OpenAI 訓練了大量的文本數據,包括《紐約時報》的文章。我認為這個訴訟試圖在「OpenAI 訓練了包括《紐約時報》文章在內的大量文本數據的事實」與「OpenAI 正在進行大規模復讀《紐約時報》文本的觀點」之間建立聯繫,我認為這並沒有完全反映事實的全部。
李飛飛:我確實想要補充一點,並從更寬泛的角度談談生成式人工智能與創作者經濟之間的緊張關係。
雖然我在《紐約時報》的爭端方面並不像恩達那樣了解,但即使在我的書中,我也提到了這項技術的混亂性。我們這些在技術領域受過訓練的人喜歡看到確定性。但事實是,當技術真正應用時,特別是像這樣深刻的技術,它就會與人類世界、人類社會變得複雜起來。
《紐約時報》與 OpenAI 和微軟的訴訟實際上显示了我們在生成式人工智能技術與創作者經濟之間所看到的緊張關係。互聯網已經迅速推動了創作者經濟,這影響不僅僅是像紐約時報這樣的大公司,還有像單個藝術家、攝影師、音樂作曲家這樣的小公司,整個生態系統也受到了挑戰、擾亂,以及被今天的生成式人工智能技術所增強。除了紐約時報的訴訟之外,我們還看到了藝術家與 Midjourney 和其他公司的訴訟。
所以我也請媒體以更加細緻入微的視角來看待這個問題。無論是公共部門還是私營部門,我們都應該更深入地關注這個問題,而不僅僅是挖掘表面。
吳恩達:在好萊塢罷工期間,許多困難之一就是,如果你是一名創作者,你會想,我的工作會不會消失?我的所有作品還會存在嗎?我對此深感同情。
我認為對於失業的擔憂可能比實際情況更為嚴重,因為正如我們之前所說,工作是由任務構成的,即使是藝術家的工作也是由許多任務構成的。是的,人工智能可以自動完成一些任務,但仍然有很多其他任務需要人來完成,而且他們可能會更加高效,實際上還能賺更多的錢。
但有這種擔憂,我認為這是一個挑戰。我認為人工智能領域需要在這方面做得更好,進行更好的對話,並向人們保證工作喪失的情況不會像他們想象的那麼糟糕。
順便說一句,版權法是在先前的時代制定的,我認為它需要為生成式 AI 時代進行更新。