免責聲明
歡迎您使用群益社群平台所提供的各項金融資訊服務,為維護您的權益,使用網站請閱讀以下聲明,使用者將視為同意本網站各項聲明:
群益社群平台及其資料提供者、合作結盟廠商與相關電信業者網路系統因硬體設備之故障、失靈或人為操作上之疏失導致傳輸無法使用、遲延、或造成任何資料內容(包括文字、數字、圖片、聲音、影像)遺失中斷、暫時、缺漏、更新延誤或儲存上之錯誤,群益社群平台均不負任何責任。
群益社群平台站上所提供之投資建議及參考資料內容,不得作為任何交易行為之依據,使用者依建議或資料內容進行任何投資行為所產生之風險及盈虧,均需完全自行負擔,群益社群平台不對使用者之投資決策負任何責任。
群益社群平台中之所有鏈結可能連結到其他個人、公司或組織之網站,對被鏈結之該等個人、公司或組織之網站上所提供之產品、服務或資訊,群益社群平台概不擔保其真實性、即時性、正確性及完整性。
群益社群平台對於第三人透過本網站銷售的任何商品,或提供之各種商品促銷資訊及廣告,群益社群平台均不對其交易安全、商品及服務內容負任何擔保責任,其間之所有交易、擔保、賠償責任及售後服務皆係存在於使用者與商品或勞務提供者之間,使用者應事先詳讀各項規格與活動說明,交易期間如因商品或服務提供者發生任何變故或產生糾紛,群益社群平台不負任何責任。
使用者同意群益社群平台保留修改本聲明之權利,修改後之聲明將公佈於群益社群平台上,不另行個別通知使用者。
使用者之發言不能涉及招攬、投顧行為、抬價、點位等內容(涉及個別期貨交易契約未來交易價位之研判、建議或提供交易策略之建議),若有發現此行為本網站對其留言不負任何責任,並將會刪除相關資料如文字、圖片或檔案以及會員身分。
在互聯網泡沫時期,公司展示自己是“行業玩家”的方式,不是通過盈利,而是通過花錢——尤其是花別人的錢。你花得越多,就顯得越重要。
現在我們迎來了AI泡沫時代,那些仍在虧損的公司,其估值卻被吹捧到數千億美元。就像互聯網泡沫時期一樣,AI公司通過“燒錢”來證明自己的地位,而非依靠盈利。如今這種心態的一個體現就是,各大公司對AI工程師和研究員瘋狂撒錢——尤其是Meta Platforms(META.O)的CEO馬克·扎克伯格最近以4年2.5億美元的天價,簽下了一位年僅24歲的AI研究員。這個薪資比NBA巨星斯蒂芬·庫裏的四年合同還多出3500萬美元。
Meta的“超級智能實驗室”(MetaSuperintelligenceLabs,簡稱MSL)是扎克伯格押注的登月計劃,目標是超越OpenAI、Alphabet旗下的Google、Anthropic、微軟(MSFT.O)等,贏得通用人工智能(AGI)爭霸戰。據傳,扎克伯格曾開出1億美元的簽約獎金,試圖從競爭對手(包括OpenAI、Google和Anthropic)挖走頂級AI人才。不過,Anthropic的CEO達里奧·阿莫代伊(DarioAmodei)近日表示,他們團隊“一直拒絕這些報價”,甚至“有些員工連和扎克伯格說話都不願意”。
據稱Meta在這波搶人潮後已經暫停招聘,但在這場“智力軍備競賽”中,它遠非孤軍作戰。微軟從Google挖來了24人,而其他許多研究員則在各大AI公司間“上演轉會遊戲”——據《金融時報》報道,部分剛入職Meta的新員工很快又離開了。《華爾街日報》則指出,從2022年8月到2024年初,工程師的年薪中位數從22萬美元上漲至28萬美元。《華爾街日報》的報道還引用了一位招聘者的話稱,有六位向職業服務平臺諮詢的候選人,其從OpenAI收到的年薪中位數達到了92.5萬美元(含獎金和股權)。
這些AI工資遠遠超過了歷史上著名研究員的薪酬,即使考慮通脹調整也是如此。例如,Meta那位“2.5億美元的男人”的收入是原子彈之父奧本海默在曼哈頓計劃期間收入的327倍,是IBM前CEO托馬斯·沃森1941年收入的5倍,也是信息論奠基人克勞德·香農在1948年貝爾實驗室收入的多倍。
那爲什麼要花這麼多錢呢?現在的科技大佬們堅信通用人工智能即將來臨,並希望第一個將其商業化。但這背後其實依賴於三個存疑的假設:
對於“AGI即將到來”這個假設,Meta的副總裁兼首席AI科學家YannLeCun曾表示,當前的AI“連貓都不如聰明”,他認爲要實現通用人工智能還需要數年時間。越來越多的專家開始認識到,僅靠不斷擴大訓練數據庫並不能帶來AGI。相反,在越來越多被大模型“污染”的數據庫上訓練,可能只會製造出“垃圾進,垃圾出”的循環。
ChatGPT和其他大型語言模型並非爲了“理解”而設計,實際上它們也無法理解它們輸入輸出的文本與現實世界之間的聯繫。因此,它們無法勝任需要批判性思維或常識的任務。出於這個原因,大模型公司聘請了數千名“訓練員”,爲模型的無數漏洞“打補丁”;同時還內置了計算器插件,以便執行更精確的數學運算(前提是用戶提供正確輸入,但這仍然不可靠)。但這些手段都無法真正賦予大語言模型“智能”。
至於第二個假設——大語言模型的商業價值將遠超其成本,由於它們的“內在愚蠢”,將其用於高風險領域會非常危險。比如,OpenAI的CEO薩姆·奧特曼一直在推銷ChatGPT的“醫療應用”,但一項最新研究指出,一名男子遵循ChatGPT的建議,不喫鹽改喫溴化物,結果差點死於溴中毒。
想象一種“炫技但不可靠”的技術還能帶來巨大商業回報,實在太天真了。經濟史上充滿了不華麗卻價值巨大的產品和服務。例如,經濟學家羅伯特·戈登指出,很少有人會願意用智能手機來換室內衛生間。那麼你願意用ChatGPT換馬桶嗎?
第三個假設——只有“最強大腦”才能推動AGI實現——其實正說明我們離AGI還很遙遠。歷史表明並非如此。1950年代的貝爾實驗室曾強調招聘來自美國中西部的“農家子弟”,而不是隻看高學歷,但他們的研究成果卻贏得了11項諾貝爾獎。晶體管、集成電路、激光器、LED、互聯網等偉大技術,都得益於數以千計的工程師們的商業化努力,這些人往往拿著並不高的工資,直到多年後才被追捧。
爲什麼AI行業就必須不一樣?
顯然,等未來的人們回顧這段“AI泡沫”的歷史時,他們多半會感到好笑。