ChatGPT:金融服務的挑戰和機遇
ChatGPT:金融服務的挑戰和機遇
算法交易通過其高頻交易改變華爾街已有數十年,金融服務業開始將人工智能整合到欺詐檢測、貸款決策和機器人咨詢服務等領域已有多年。然而,最近像ChatGPT這樣的生成式人工智能工具的爆炸式增長——提供看似任何主題和任何風格的類人文本,如此成功地輕松征服了引以為豪的圖靈測試——打開了可能性的閘門。像ChatGPT這樣強大的語言處理器的出現——開源並可供公眾使用——有可能顛覆金融服務行業的各個部分,其範圍不僅限於聊天機器人和機器人顧問等領域,甚至還包括熟練技能所需的勞動力作為編碼。
關鍵的轉折點
隨著人工智能達到一個關鍵的轉折點——人工智能偏見依然存在——是否在技術令人眼花繚亂的進步之前實施適當的私人和公共控制變得更加緊迫和具有挑戰性。在Nvidia最近的一項調查中,78%的金融服務公司表示他們至少使用一種人工智能工具。好處很明顯:超過30%的受訪者表示,AI使年收入增加了10%以上,而超過四分之一的人認為AI使成本降低了10%以上。
概括地說,人工智能在金融服務中的應用分為四類:
1.欺詐檢測與合規
2.信用風險分析
3.聊天機器人和機器人顧問
4.算法交易
金融服務
甚至在ChatGPT進入公眾意識之前,人工智能就已經改變了金融服務的大部分功能。總體而言,去年金融服務領域對人工智能的投資大幅增長;盡管Nvidia在2021年調查的用例中沒有一個行業滲透率超過14%。2022年,跟蹤的13個用例中有9個獲得了超過15%的行業投資。到目前為止,投資人工智能基本上是金融服務業生存的必要條件,尤其是在運營效率變得更加重要的情況下。但是,盡管落後者也加入了AI革命,但將這種無處不在的現象定義為一些領導者的標志,周圍的許多人對他們的AI的真正運作方式只有基本的了解,這可能是最合適的。
“在調查中,銀行會說,‘哦,是的,我們確實在某種程度上使用了人工智能。’但是當他們被問及“你對它的理解程度如何?”時……沒有同樣程度的回應。應用它是一回事,但繼續盲目地應用一種放之四海而皆准的算法則完全是另一回事,”薩裏商學院可持續和可解釋金融科技中心主任邦妮·布坎南(Bonnie Buchanan)說。
對話式人工智能
根據Nvidia的調查,對話式AI是2022年投資增幅最大的功能之一。真正先進的對話式AI之所以能使公眾興奮,正是因為它涉足認知領域,這與迄今為止機器的受限和編程能力不同。ChatGPT對語言處理的掌握程度從二年級學生到博學學者,甚至是編碼語言,這向像Buchanan這樣的專家發出信號,這不僅是對過去的加速,而且是對我們一直在進行的課程的真正改變。用ChatGPT自己的話來說,金融服務的直接明顯好處將體現在自動化客戶服務任務以及為銀行生成洞察力和分析以做出更明智的決策同時幫助檢測欺詐等領域。ChatGPT已經可以進行簡單的編碼和調試,一些人估計它只需要兩到三年的時間就可以執行實際的銀行編碼。
由聊天機器人提供服務
回答路由問題或查詢現在將由聊天機器人提供服務,進一步為人工客戶服務代理騰出空間來解決更複雜的查詢。這也應該延續到編碼職責,這將為編碼人員騰出時間從事更高層次的追求。這對這些部門的勞動力有何影響尚不清楚。這可能是另一個誤報,也可能是真正的範式轉變。
喬治敦大學人工智能教授阿爾貝托·羅西(Alberto Rossi)的研究重點是機器人顧問,他指出,當機器人顧問首次出現時,同樣的恐懼是如何引發的。這些擔憂被證明是沒有根據的,因為金融建議的民主化極大地擴大了市場,因此需要更多的金融顧問,盡管要提供更人性化的接觸來補充人工智能。
羅西說,下一步,民主化可能會發生戲劇性的一步,可能會沿著同樣的路線引發另一次擴張。或者它可以設法至少在某種程度上取代以前最需要人情味的金融客戶服務領域。然而,至少,在未來十年或兩年內,擁有大量財富的年長人口可能仍然對人情味感到最舒服。然而,考慮到金融科技領域正在進行大規模裁員,ChatGPT的功能可能會推動這種趨勢。
對業務的影響
像ChatGPT這樣強大的語言處理器的影響不容小覷。在業務端,缺乏資源或規模數據的初創公司突然提供了一種先進的機器,能夠以幾乎任何風格、任何格式和廣泛的目的進行分析和交流。Buchanan猜想,如果現在新興的合成數據部門證明能夠縮小信息差距,那麼大型科技公司的優勢隨後將直接體現在他們龐大的數據存儲中。公平地說,Big Techs也可能會在客戶服務等領域看到自動化通信能力的巨大飛躍。雖然現在知道巨頭/初創公司、傳統/挑戰者動態將如何受到影響還為時過早,但無論哪種方式,消費者都會受益。Rossi認為,它對於緩解困擾該行業的金融知識缺陷至關重要。
“受益最大的將是目前無法獲得服務的最終消費者,因為他們沒有足夠的資源來支付費用。財務建議[關於]使用哪種信用卡、每月花多少錢、每月存多少錢,都可以完全以自動化的方式完成,”Rossi說
不確定性
人工智能進步的快速步伐自然伴隨著不確定性和更多問題的出現。協助弱勢群體進行財務決策的人工智能工具可以為金融文盲帶來福音,同時也證明是一個拐杖;人們在Google地圖世界中的導航能力比以前差多少?前所未有的個性化的可能性也可以推動機器人顧問和相關工具進一步走向家長式的方向,如果以自由意志為代價,與我們對21世紀智人的期望相比,這可能導致奇怪的理性經濟結果或直接同意。試圖防止AI中接下來發生的反烏托邦變化總是伴隨著實施適當的設計和監管。在美國,國家標准技術研究院的人工智能風險管理框架(RMF)第二稿提供了“映射”、“測量”、“管理”和治理人工智能系統的最新概念框架。
特征
RMF認為任何值得信賴的AI都具有多種特征,所有這些特征都是以負責任和透明的方式提供的:
1.有效可靠
2.安全
3.偏見得到管理
4.安全且有彈性
5.可解釋和可解釋
6.隱私增強
衡量這些因素需要在每個階段進行測試、評估、驗證和確認。然而,人工智能為監管機構帶來了並不總是容易解決的新問題。考慮一下在這些方面引起最多公眾討論的金融服務領域——防止自動借貸決策等用例中的算法偏差。正如法蘭克福歌德大學法學教授Katja Langenbucher在最近的一篇論文中所描述的那樣,反歧視法傳統上依賴於人工智能發起模型所挑戰的因果鏈。
複雜性
這導致一些經濟學家得出結論,我們正在面臨這樣一種情況,即禁止自動借貸中的某些變量將被證明是無效的;人工智能將變得過於複雜,以至於監管機構無法確定黑盒算法中發生的事情。盡管如此,第一批規範人工智能的法律正在形成。在這方面成為標准承擔者的是歐盟擬議的AI法案,該法案旨在將AI模型視為需要監管的產品,提供基於風險的方法。確定財務資源訪問權限的模型(如承保和評分模型)屬於高風險類別,這需要在數據治理、技術文檔和記錄保存、透明度、人工監督以及穩健性、准確性和網絡安全檢查方面合規。歐洲金融科技協會於10月出面支持人工智能法案,盡管它表達了對將信用評估模型歸類為高風險的擔憂。金融科技公司擔心,要求此類系統具有可解釋性和可解釋性同樣會限制穩健性和准確性。
新時代
迄今為止,語言一直是社會的基石:它的法律、它的文化、它的規範、它的商業和它的經濟。在我們這個物種的存在中,我們第一次瞥見了當不僅人類擁有像我們這樣的靈巧和回憶能力——甚至更好的能力時,它會是什麼樣子。人類是否可以培養和利用這種機器的力量來造福人類,這個問題當然遠遠超出了金融服務領域。但讓我們記住,金融和經濟學曾經也是社會初期的人造產物,其不完美反映了其創造者和管理者的特征。在動蕩中經曆成長,在衰退中經曆變革,在挫折中經曆改進是金融曆史的標志。當我們將更大的管理權交給我們自己創造的人工智能模型時,這些規則和模式可能會保持不變——或者出現的可能是完全出乎意料的新事物。可以肯定的是,一個新時代即將來臨。
請先 登錄後發表評論 ~