越來越多人擔心,大型語言模型會導致許多人失業。但牛津大學學者Carl
Frey則認為,這不過是杞人憂天,他曾提出一項廣為人知的預測,指出自動化將威脅到美國47%的工作。
從好萊塢編劇到貨車司機,當提到人工智慧(AI)時,許多人都開始憂心忡忡。隨著科技發展一日千里,越來越多人擔心生成式AI對我們的工作、社會結構,以至整個世界造成的影響。
到底有沒有工作能夠難倒AI?
過去10年,我和合作夥伴深入探討了AI所帶來的影響。10年前,我和Michael
Osborne共同撰寫一篇論文,預測隨著AI和行動機器人能勝任更多不同類型的計算工作,理論上美國近47% 工作都可以自動化。
我們的預測建立於一個信念:即使在科技日新月異的時代,人類在創意、複雜的社交互動以及適應非結構化環境(例如家庭)等3個關鍵領域中保持優勢。
但我們也必須承認,科技在這些領域亦取得了重大進展。像GPT-4這樣的大型語言模型(LLM)現在可以根據廣泛的提示,生成幾乎逼真的文字回應,表現令人印象深刻。在這個屬於生成式AI的時代,機器甚至能夠幫你撰寫深情款款的情書。
可是時至今日,自動化技術仍未突破我們十年前發現的瓶頸。舉個例子:如果大眾都選用GPT-4 代筆撰寫情書,那麼面對面約會的重要性就會變得更加重要。
問題的關鍵在於,隨著數位社交互動與演算法越來越緊密結合,機器還不能複製人與人之間互動,因此面對面互動將格外珍貴。
此外,即使AI能夠寫出像莎士比亞一樣優美的信件,也只是因為AI借鑒了莎士比亞的現有作品進行訓練。一般而言,AI擅長處理目標明確而且有充足數據支持的任務,例如優化遊戲得分或模仿莎士比亞創作散文。然而,如果要由零開始創作內容而非重複既有概念,我們應該訂立什麼樣的標準?如何訂立有關目標,正是人類展現創意的地方。
更重要的是,許多工作根本無法自動化,我們在2013年的論文中亦提到這一點。生成式AI是廣泛的AI技術中的其中一種,嚴格來說並不僅是一個自動化工具,它依然需要人工輸入數據啟動運作,和進行後續的完善、核對及編輯工作。
總而言之,生成式AI的內容品質取決於訓練數據的優劣。英文諺語說得好:「垃圾進,垃圾出」(garbage in, garbage
out)。此類演算法通常依賴龐大的數據集群,一般從網路各處收集,而不是由專家精心編製。因此,大型語言模型往往產生的是反映網路上常見或平均水準的文字,而非品質優良的內容。正如我和Carl
Frey近期在《經濟學人》發佈的文章提到,其原理再簡單不過:數據平庸,成果自然平庸。
AI需要人類
那麼,這對未來的就業又有什麼影響?首先,最新一波AI熱潮仍然需要人類的監管。有趣的是,欠缺專業技能的工作者可能會發現自己處於優勢,因為他們現在可以製作出符合「平均」水準的內容。
當然,我們得捫心自問:科技進展改變現狀的日子是否指日可待?甚至能夠在創意和社交領域出現自動化?我們的結論是,除非出現重大革新,否則恐怕仍是天方夜譚。
首先,大型語言模型已經收集了大部分網路上的資訊。因此,未來幾年不見得能夠充分擴展訓練的資料庫。此外,由AI大量生成的低品質內容可能會降低網路內容的整體品質,使其成為可信度較低的訓練數據來源。
還有,儘管科技業界已經開始期待摩爾定律預測會持續成長,即每隔2年集成電路(IC)上的電晶體數量翻倍,但考慮到固有的物理限制,越來越多人認為這種成長速度可能在2025年左右或之前趨於平緩。
第三,訓練GPT-4的成本約 1億美元,大部分已用於開發GPT-4所需的能源消耗,這還是在能源價格飆升之前的預估。
隨著氣候變遷問題變得越發迫切,未來能否持續大量投入資金也得打上一個問號。
我們需要的AI,應能夠根據由專家編製、更清楚的數據中學習,也就是優先考慮品質而非數量。然而,我們仍然無法估計這種突破何時會出現,一種更可行的方式是創造一個提高數據運用效率與創新的環境。
我們可從歷史中反思:踏入20世紀之時,電動車和傳統引擎車相互競爭,彼此爭奪新興汽車產業的主導權。最初,雙方看似不分上下、並駕齊驅,但自從人們發現大量石油後,天秤很快就向後者傾斜。如果我們當初課徵石油稅,則發展軌跡可能轉向有利電動車,因此大大減少碳足跡。同理,徵收數據稅或許可以令AI程式減輕消耗數據。
正如我過往的文章所說,許多工作必然會經歷自動化。然而,這並不一定是由現在的生成式AI導致。據我估計,除非出現重大革新,否則我們在2013年研究中強調的挑戰將不會消失,不會因使限制未來幾年的自動化發展。
投資洞察
作者:瑞士百達資產管理主題股票部門資深客戶投資組合經理Anjali Bastianpillai
Bloomberg Intelligence指出,在未來10年間,生成式AI市場預計將由2022年時的400億美元,增長至1.3兆美元。
麥肯錫分析了63個生成式AI的使用案例,涵蓋16種職能,每年可帶來2.6兆美元至4.4兆美元的經濟收益。
每一代新型AI系統的運算能力都以倍數增長。Google旗下的PaLM2大型語言模型是其中一個最新的生成式AI系統,共包含3,400億個參數。參數是在訓練過程中相應調整的變量,以確定輸入的數據如何轉化為期望的結果。PaLM2亦使用了包含2.7兆筆數據的訓練數據集,運算能力高達73.4億個petaFLOP。根據Our
World in Data的資料,截至2019年,頂尖人工智慧引擎OpenAI
Five共使用了1.59億個參數、4,540億筆數據和6,700萬個petaFLOP。
作者
Carl Frey
牛津大學馬丁學院研究員
Carl Frey博士為牛津大學馬丁學院研究員,負責領導學院的《就業未來》(The Future of Work)項目。其最新著作《科技陷阱》(The
Technology Trap)獲選為《金融時報》2019年度最佳書籍。
【以下為投資警語】
本資料由百達投顧提供,非經百達投顧同意不得節錄全部或部分內容予其他第三人。
本資料所述之資料及數據不得視為百達投顧對任何證券、金融商品或服務之買賣邀約。本資料所述之資料、建議或預測係百達投顧合理認定為可靠之消息來源,然百達投顧不保證其準確及完整性。以上意見、預估或預測可能隨時改變而不會事先通知。未經其事先授權,不得部分或全部複製或分發。投資人申購百達基金前應先詳閱公開說明書。本資料引用的任何指數數據為數據供應商的財產。數據供應商免責聲明可在本公司網站
(www.assetmanagement.pictet)下方的「資源」專區取得。
稅收待遇依每位投資人個別情況而不同,並可能在未來發生變化。過去績效不是未來績效之指標。投資價值及其收益可升可跌,且不受保證。投資人可能無法取回最初投資的金額。
除任何瑞士百達集團的商標使用權外,百達投顧並無獲授權可以複製本資料內任何商標、標誌或影像。僅為舉例說明之用。