以下文章來(lái)源于金融科技研究 ,作者金融科技50人論壇
導讀:近期,由金融科技50人論壇聯(lián)合神州信息、高景立學(xué)共同推出的“2023數字金融公益直播課”第二期順利開(kāi)講。本期嘉賓邀請到光大信托信息技術(shù)部副總經(jīng)理、數據中心總經(jīng)理祝世虎,他分別從ChatGPT簡(jiǎn)述、ChatGPT的技術(shù)分析、ChatGPT的應用邊界、法律與合規以及在金融行業(yè)的應用展望四個(gè)方面,闡述了“ChatGPT給金融機構帶來(lái)的思考”。
以下為實(shí)錄內容:
一、ChatGPT簡(jiǎn)述
1、ChatGPT簡(jiǎn)述
ChatGPT是自然語(yǔ)言對話(huà)方式的聊天機器人,”Chat”指聊天,GPT是一種算法。ChatGPT包含文本、圖畫(huà)、自動(dòng)問(wèn)答、翻譯和代碼等功能。“2022年末以來(lái),它迅速走紅全球,全球客戶(hù)突破3億”充分說(shuō)明產(chǎn)品評價(jià)取決于客戶(hù)數。ChatGPT由OpenAI公司開(kāi)發(fā),微軟為公司提供資金支持。目前國內與ChatGPT同類(lèi)型的產(chǎn)品是百度研發(fā)的文心一言,已經(jīng)推出測試版。網(wǎng)上有一位畫(huà)家用ChatGPT繪制名為《有光有愛(ài)有遠方》的畫(huà)作,得到廣泛關(guān)注。我也嘗試用ChatGPT撰寫(xiě)一封表?yè)P信的開(kāi)放性作文,撰寫(xiě)效果非常好,這封表?yè)P信放在任何一家銀行、信托公司都是可以通用的。
2、ChatGPT:從技術(shù)到客戶(hù)的珠聯(lián)璧合
誠然ChatGPT的技術(shù)非常好,但我覺(jué)著(zhù)其成功更多是產(chǎn)品的成功,因為產(chǎn)品具有易用、好用和實(shí)用的三個(gè)特征。易用方面,OpenAI公司斥巨資提供了便捷的API接口,使每個(gè)人都可以方便地用手機、筆記本接入,為ChatGPT產(chǎn)品吸引了大量客戶(hù)。好用方面,其效果遠高于同類(lèi)型的傳統產(chǎn)品,讓很多出于好奇的客戶(hù)變成初級使用者。實(shí)用方面,學(xué)生可以用其寫(xiě)作業(yè),程序員可以用其寫(xiě)代碼,畫(huà)師可以用其畫(huà)畫(huà),這正是解決勞動(dòng)力問(wèn)題的地方。讓人們慢慢地從初級使用者變成了堅定的使用者,這個(gè)過(guò)程好比客戶(hù)旅程。因此,我認為易用、好用、實(shí)用所帶來(lái)的客戶(hù)旅程是ChatGPT成功的關(guān)鍵之一。
從技術(shù)和產(chǎn)品關(guān)系的角度分析,首先,我所經(jīng)歷的AI史上第一個(gè)里程碑AlaphaGo,雖然其技術(shù)是很領(lǐng)先的,但是因為其產(chǎn)品設計使客戶(hù)群體僅局限于圍棋的垂直領(lǐng)域,難以形成ChatGPT這樣受歡迎的場(chǎng)景。技術(shù)好不是全面的,產(chǎn)品好才更重要。其次,以二維碼支付為例,現在大部分人都會(huì )用二維碼去支付,但是二維碼技術(shù)推廣同期有更先進(jìn)的技術(shù),比如門(mén)禁卡技術(shù)、芯片卡技術(shù)。二維碼的成功并不是源于技術(shù)先進(jìn),而是產(chǎn)品成功,也是延續易用、好用、實(shí)用的路線(xiàn)。以金融機構的視角來(lái)看,第一,創(chuàng )新產(chǎn)品、數字化轉型時(shí)一定是業(yè)務(wù)引領(lǐng),而不是科技引領(lǐng);第二,轉型和創(chuàng )新的成功一定是業(yè)務(wù)的成功,而不是科技和風(fēng)險的成功;第三,業(yè)務(wù)成功的關(guān)鍵一定是產(chǎn)品的成功;第四,線(xiàn)上唯一可以調動(dòng)客戶(hù)行為的是產(chǎn)品設計。綜上,ChatGPT帶給金融機構的啟示是:路線(xiàn)業(yè)務(wù)引領(lǐng),標志業(yè)務(wù)成功,核心是產(chǎn)品成功,產(chǎn)品調動(dòng)客戶(hù)。
3、OpenAI:工程師的桃花源
OpenAI成功的關(guān)鍵因素包括兩方面,一方面在于其有300多名工程師,這些工程師自由散漫但理想崇高,它可以無(wú)憂(yōu)無(wú)慮地以工程師的思維改變世界。“自由散漫”指的是當技術(shù)路線(xiàn)和管理路線(xiàn)發(fā)生沖突時(shí),工程師要站在技術(shù)角度進(jìn)行取舍。“理想崇高”指的是堅定自身技術(shù)路線(xiàn)。OpenAI公司300名工程師中,包括模型人員90人,系統人員15人、數據人員180人、ITBP人員15人。模型人員和ITBP人員的占比從側面反映一家金融機構的數字化轉型的程度。對于金融機構而言,模型人員占比越高,機構的自動(dòng)化程度越智能;ITBP人員占比越高,機構的科技和數字化轉型越貼近業(yè)務(wù)。
另一方面,OpenAI將算力、專(zhuān)業(yè)化的數據處理全部外包。這對于金融機構在設置外包和自主研發(fā)邊界中具有啟示:體現核心競爭力的地方一定要自主研發(fā),非核心競爭力的專(zhuān)業(yè)能力可以外包,比如算力、簡(jiǎn)單人工數據、人工標注等。
4、Microsoft:第三代的王者榮耀
微軟主要實(shí)現了三代“王者榮耀”時(shí)刻。第一代“王者榮耀”是Office,它實(shí)現了文字的電子化,但是本地化的Office存在問(wèn)題,當我們進(jìn)行“CTRL+C”和“CTRL+V”拷貝粘貼時(shí),僅限于這臺電腦中的文字。第二代“王者榮耀”是搜索引擎,我們可以“CTRL+C”和“CTRL+V”拷貝粘貼所有互聯(lián)網(wǎng)的文字,文字范圍有所擴大。第二代半“王者榮耀”是搜索引擎變種即主動(dòng)推薦,形成主動(dòng)數據采集和搜索功能,相比于傳統搜索更加智能。第三代“王者榮耀”是ChatGPT,其范圍不再局限于歷史已有文字,而是可以組合形成新文字,讀起來(lái)更加合情合理。
5、崗位之爭:人與AI的邊界線(xiàn)
關(guān)于人和AI的邊界線(xiàn)究竟在什么地方。第一,體力勞動(dòng)一定會(huì )被簡(jiǎn)單機械所取代,這是已經(jīng)發(fā)生的;第二,重復性勞動(dòng)能被簡(jiǎn)單智能機器所取代,比如金融機構OA系統、RPA機器人等。此外,目前90%的人相信自動(dòng)駕駛會(huì )實(shí)現。ChatGPT可以取代什么工作,有些人總結成簡(jiǎn)單的創(chuàng )造性工作,但是我覺(jué)得這種說(shuō)法是不恰當的。第一,任何不需要深度感情交流的工作都可能會(huì )被AI所取代。以包餃子為例,機器包餃子早已實(shí)現且味道不錯。但餃子是容易被注入感情的,機器無(wú)論如何也包不出媽媽的味道。雖然機器有可能寫(xiě)出有感情的作品,但是機器不一定能夠理解感情。因此,搶走工作的不是AI,而是先掌握AI的人。如何保證自己的工作不被AI所替代?這需要我們在工作中奉獻愛(ài),用愛(ài)去工作,只要把愛(ài)心放到工作中,我們的工作就很難被取代。
第二,ChatGPT本質(zhì)是生產(chǎn)力的躍升,這與歷史上的生產(chǎn)力提升是一樣的,蒸汽機替代馬車(chē)、電力替代蒸汽機。雖然會(huì )在短時(shí)間內對人類(lèi)的就業(yè)結構產(chǎn)生沖擊,但由于人力資源的稀缺性,中長(cháng)期不會(huì )存在大規模失業(yè),只是就業(yè)結構發(fā)生了變化。啟示便是,我們可能需要提前考慮子女上學(xué)時(shí)什么專(zhuān)業(yè)不會(huì )被AI所取代,人與AI邊界線(xiàn)哲學(xué)觀(guān)點(diǎn)將會(huì )深刻影響下一代的就業(yè)結構、思維觀(guān)念等。傳統上,我們認為人類(lèi)勞動(dòng)者分為體力勞動(dòng)者和智力勞動(dòng)者,從AI視角看,可能只存在碳基勞動(dòng)者(體力勞動(dòng)者、智力勞動(dòng)中)和硅基勞動(dòng)者,并且它可能認為碳基勞動(dòng)者是為硅基勞動(dòng)者服務(wù)的,這就需要哲學(xué)家們幫我們區分人與AI的邊界線(xiàn),以及AI算法的人工智能倫理。
6、崗位之爭:從社會(huì )主義的初級階段的基本理論去理解
ChatGPT時(shí)代會(huì )顛覆很多事情,引起崗位變化。很難想象在醫療資源相對貧瘠的非洲大陸上,昨天的一家網(wǎng)吧會(huì )在今天搖身一變成為互聯(lián)網(wǎng)醫院。但是現在可以相信互聯(lián)網(wǎng)技術(shù)的變化,無(wú)論是網(wǎng)吧還是醫院,對于互聯(lián)網(wǎng)、人工智能而言,無(wú)非是一個(gè)終端。在這種大變革下,某些崗位會(huì )發(fā)生變更。
從社會(huì )主義初級階段的基本理論來(lái)理解,社會(huì )主義初級階段主要矛盾是人們日益增長(cháng)的物質(zhì)文化需求同落后的社會(huì )生產(chǎn)之間的矛盾。落后的社會(huì )生產(chǎn)指的是兩點(diǎn):人力資源稀缺和生產(chǎn)力。ChatGPT本質(zhì)上是通過(guò)科技創(chuàng )新提高生產(chǎn)效率,以更少人力去生產(chǎn)原來(lái)商品,讓節約的人力進(jìn)入新的行業(yè),增加新的商品和服務(wù)供給。綜合來(lái)看,ChatGPT只會(huì )短期內對人類(lèi)的就業(yè)結構造成沖擊,中長(cháng)期并不會(huì )導致人類(lèi)的大規模失業(yè)。
二、ChatGPT的技術(shù)分析
1、技術(shù)路線(xiàn):工程師思維的成功
ChatGPT的成功是工程師思維的成功。第一,創(chuàng )建大腦。工程師思維中有一個(gè)“通用復用”的思維,即強調代碼、部件在各個(gè)場(chǎng)合可以通用的,生產(chǎn)的發(fā)動(dòng)機在工廠(chǎng)各個(gè)汽車(chē)里是通用的。在工程師眼中,創(chuàng )建大腦一定是創(chuàng )建通用人工智能AGI大系統,系統中間有學(xué)習的大模型,靠大算力從大數據中學(xué)習人類(lèi)的知識,從而形成AI智能。第二,從哪里學(xué)?人類(lèi)的知識存儲在書(shū)本里、文字里、圖畫(huà)里、語(yǔ)言里。在工程師眼里,大模型要從人類(lèi)語(yǔ)言中學(xué),要建立大型語(yǔ)言模型LLM。工程師擁有建模型的想法和硬件后,隨著(zhù)數據和算力越來(lái)越大,模型效果越來(lái)越好,這就是工程師們力大磚飛的思維。第三,怎么學(xué)?關(guān)于技術(shù)路線(xiàn)的選擇,當時(shí)NLP領(lǐng)域中存在著(zhù)兩類(lèi)技術(shù)路線(xiàn),第一類(lèi)是深度學(xué)習模型,第二類(lèi)是預訓練模型。但深度學(xué)習模型已經(jīng)遇到瓶頸,依靠增加深度學(xué)習的模型層深來(lái)提高模型效果微乎其微,此時(shí)深度學(xué)習已經(jīng)逐漸被預訓練模型所取代。預訓練模型又存在了兩個(gè)技術(shù)方案:Bert方案和GPT方案,大部分研究者選擇Bert方案,而大部分工程師選擇GPT方案。Bert方案是雙向的方案,即我對你說(shuō)話(huà),你先聽(tīng)明白我說(shuō)的話(huà),再回答我的問(wèn)題。GPT方案是我說(shuō)話(huà)你只需要回答,不用知道說(shuō)了什么。這種一問(wèn)一答的方案體現出工程師大道至簡(jiǎn)的思維。這種雙向過(guò)程可能比直接回答更難。我認為GPT路線(xiàn)在開(kāi)放式領(lǐng)域中的成功只是領(lǐng)域問(wèn)題,在金融領(lǐng)域內,封閉性Bert技術(shù)路線(xiàn)或許更有優(yōu)勢。第四,學(xué)成歸來(lái)。通過(guò)不停地堆模型、堆數據,最終實(shí)現成功是智力涌現的過(guò)程。智力涌現涌現后便可以做產(chǎn)品。學(xué)成歸來(lái)指的是厚積薄發(fā)以后形成產(chǎn)品成功,任何創(chuàng )新和數字化轉型的成功,都應該是產(chǎn)品的成功。
2、智能涌現:人工智能的厚積薄發(fā)
人工智能在GPT上變化體現很明顯,從2018年最初的GPT模型參數只有1.17億,到2020年GPT-3模型參數達到1750億,再到2022年產(chǎn)品化,其厚積薄發(fā)體現在三個(gè)方面。第一,技術(shù)積累。技術(shù)積累實(shí)際上是不斷試錯的過(guò)程,解決的是理論推導和工程實(shí)踐中的技術(shù)差異。不斷試錯就是技術(shù)的積累,任何產(chǎn)品的成功都需要兩個(gè)發(fā)明,一個(gè)是理論上科學(xué)家們在實(shí)驗室的發(fā)明;另一個(gè)是工程師們在實(shí)際應用中將科學(xué)家的發(fā)明低成本實(shí)現的過(guò)程。第二,知識積累。GPT模型參數從1.17億到1750億的積累,訓練成本極其昂貴。據傳聞,微軟為其訓練花費20~30億美金。第三,理念積累。在NLP領(lǐng)域中,曾經(jīng)深度學(xué)習模型逐漸失效,GPT采用為自回歸的技術(shù)路線(xiàn),后來(lái)出現的Bert采用的是雙向語(yǔ)言模型,而且當時(shí)Bert技術(shù)方案的效果遠遠優(yōu)于GPT1的效果。直到GPT3的出現,其優(yōu)勢才顯示出來(lái),這就是工程師們對技術(shù)路線(xiàn)的厚積薄發(fā)。對于給金融機構的啟示是,并非誰(shuí)的技術(shù)好就用誰(shuí)的技術(shù),應該用成本的思維去選擇適合自己的技術(shù)。
有些資深專(zhuān)家認為GPT3的成功不僅是技術(shù),而且是代表AI模型的發(fā)展理念。我是同意這種觀(guān)點(diǎn)的。我認為AI理念包括以下幾個(gè)方面:一是對AGI架構設想的堅持;二是對LLM通往AGI道路的堅持;三是工程師們對未來(lái)“人與AI分工設想”的堅持。在人與AI共同寫(xiě)作文時(shí),人與AI的分工究竟是BERT技術(shù)路線(xiàn)還是GPT的技術(shù)路線(xiàn)。對于BERT和GPT之爭,它們只是各有所長(cháng),在開(kāi)放式領(lǐng)域GPT有天然優(yōu)勢,但在垂直場(chǎng)景與受控領(lǐng)域,只要堅持下去,BERT也會(huì )脫穎而出。
3、融合技術(shù):多模態(tài)大模型
通用人工智能AGI的核心是與任務(wù)無(wú)關(guān)的大模型LLM,目前在自然語(yǔ)言相關(guān)領(lǐng)域有三大方向:GPT適用于語(yǔ)言領(lǐng)域、Codex適用于代碼領(lǐng)域、DALLE適用于圖像領(lǐng)域。上述應用讓ChatGPT成為多模態(tài)大模型,多模態(tài)大模型擁有兩種能力:一是尋找到不同模態(tài)數據之間的對應關(guān)系,例如將一段文本和對應圖片聯(lián)系起來(lái);二是實(shí)現不同模態(tài)數據間的相互轉化與生成,例如根據一張圖片生成對應的語(yǔ)言描述。這種技術(shù)路線(xiàn)的關(guān)鍵是,將不同模態(tài)的原始數據映射到統一或相似語(yǔ)義空間當中,從而實(shí)現不同模態(tài)信號間的相互理解與對齊。
4、算法邏輯:ChatGPT寫(xiě)文章的邏輯
AI寫(xiě)作文會(huì )應用所有人的詞匯量,其作文空間比每個(gè)人的作文空間全且大。首先,必須把文字和圖片向量化,才能輸入到人工智能算法中。假設1頁(yè)PPT圖片為400×500的像素即2萬(wàn)個(gè)像素點(diǎn),每個(gè)點(diǎn)用0~255的灰度值描述。在二維空間中,2萬(wàn)個(gè)像素點(diǎn)可以排成1張圖。上升至2萬(wàn)維空間,這個(gè)圖片相當于2萬(wàn)維空間中的1個(gè)點(diǎn)。假設作文空間2萬(wàn)維,AI寫(xiě)的作文就是2萬(wàn)維空間中的一個(gè)點(diǎn)。其次,詞向量即在寫(xiě)一句話(huà)或做語(yǔ)言標注時(shí),通過(guò)將語(yǔ)言的詞匯標注出來(lái),讓電腦理解詞之間的計算關(guān)系。當詞組成句子后,要判斷兩個(gè)句子之間的距離。比如有兩首古詩(shī),“兩個(gè)黃鸝鳴翠柳,一行白鷺上青天”、“黃鸝百轉趁紅日,白鷺一行登碧霄”。我們能夠理解這兩首詩(shī)句是一個(gè)意思,計算機也能理解,因為計算機判斷兩首詩(shī)句中都有“白鷺”,“上”和“登”是一個(gè)意思,“青天”和“碧霄”也是一個(gè)意思。假設詩(shī)句中的七個(gè)字代表七維空間,每個(gè)詞匯代表七維空間不同的點(diǎn),兩個(gè)點(diǎn)之間的距離一定很近即向量很近。
AI作文通過(guò)類(lèi)似人類(lèi)語(yǔ)言來(lái)訓練,突破了人類(lèi)的詞匯量和語(yǔ)法的限制。中國有句古詩(shī)說(shuō)得好,叫做“文章本天成,妙手偶得之”。在想象力之外還有巨大的作文空間。在互聯(lián)網(wǎng)上AIGC的文字將會(huì )超過(guò)人類(lèi)五千年產(chǎn)生的文字,產(chǎn)生的圖畫(huà)量很快就超過(guò)人類(lèi)五千年產(chǎn)生的書(shū)畫(huà)量。當AI產(chǎn)生的文字和書(shū)畫(huà)的量變得遠遠大于人類(lèi)產(chǎn)生的文字和書(shū)畫(huà)數量,真理會(huì )被誰(shuí)控制?我們要警惕真理被數據控制,數據被資本控制。這些真理包括共識、宗教、意識形態(tài)。比如當今社會(huì )普遍的共識是以瘦為為美,但在唐朝可能以胖為美。
三、ChatGPT的應用邊界、法律與合規
第一,應用平民化但建模貴族化。應用平民化體現在每個(gè)人都可以通過(guò)手機接入API以使用ChatGPT。建模貴族化體現在ChatGPT建模過(guò)程經(jīng)歷300名工程師、1750億個(gè)參數、355塊高級顯卡以及長(cháng)達1年的模型訓練,這是非常大的消耗和資源投入。由于這種重資源、重投入的底層能力建設,我覺(jué)得未來(lái)在A(yíng)GI領(lǐng)域只有中國和美國具有構建基礎底層能力。
第二,AI出現“大而不能改”的現象,迫使人們適應AI。GPT有1750億參數存儲知識邏輯,其中邏輯關(guān)系、相互關(guān)系、學(xué)習過(guò)程等在技術(shù)上尚未完全明確。參數修改主要靠昂貴的模型訓練,這就容易出現“大而不能改”的缺陷。進(jìn)而產(chǎn)生“反直覺(jué)”的問(wèn)題:究竟是人去適應AI模型,還是AI模型適應人?
第三,智能缺陷。ChatGPT通過(guò)文本語(yǔ)言等訓練模型,其智能類(lèi)型僅僅是感知智能,而不是決策智能,更不是計算智能。具體來(lái)看,感知智能基于Bayes公式,決策智能基于先驗概率,計算智能基于計算公式。智能缺陷在于ChatGPT的使用邊界。例如在金融機構中,由于ChatGPT不是決策智能,會(huì )在風(fēng)險決策過(guò)程中受限;此外其不是計算智能,在資本計量方面會(huì )受限;作為語(yǔ)言領(lǐng)域的感知智能,它更多是以文字助手的身份嵌入與文本相關(guān)的工作中。
第四,技術(shù)缺陷。ChatGPT具有與傳統人工智能技術(shù)類(lèi)似的缺陷,一是算法黑箱。由于算法模型的黑箱運作機制,其運行規律和因果邏輯不會(huì )顯而易見(jiàn)地呈現給研發(fā)者。二是算法穩健性。算法運行時(shí)容易受到數據、模型、訓練方法等綜合因素干擾,出現非穩健性的特征,這有可能會(huì )出現針對性的病毒。三是算法歧視。算法以數據為原料,如果初始使用的數據存在偏見(jiàn),無(wú)形中會(huì )造成生成的內容存在偏見(jiàn)或歧視,引發(fā)用戶(hù)對于算法公平性的爭議,這種歧視主要來(lái)自于資本綁架,體現在訓練樣本數量上。
第五,數據安全缺陷。多個(gè)環(huán)節存在合規問(wèn)題,一是在個(gè)人信息收集階段,用戶(hù)使用ChatGPT需要輸入個(gè)人數據,依據《個(gè)人信息保護法》需要強調用戶(hù)進(jìn)行單獨授權。二是在個(gè)人數據的加工使用階段,ChatGPT使用RLHF的訓練方法,用戶(hù)使用過(guò)程中的輸入和交互信息可能會(huì )用于持續選代訓練,進(jìn)一步被用于為其他用戶(hù)提供服務(wù),造成數據共享,這或許與用戶(hù)最初使用目的相悖,根據《個(gè)人信息保護法》需要用戶(hù)重新授權。三是訓練數據獲取,ChatGPT抓取互聯(lián)網(wǎng)上信息的過(guò)程可能存在合規問(wèn)題。四是數據泄漏,用戶(hù)在使用過(guò)程中輸入個(gè)人及企業(yè)相關(guān)的信息,可能導致公司敏感信息泄露。五是算法缺簡(jiǎn)導致數據主體行權困難,例如更改權、刷除權、訪(fǎng)問(wèn)權等行權困難。
此外,ChatGPT還可能存在3條法律紅線(xiàn)。一是版權問(wèn)題,ChatGPT撰寫(xiě)作品的版權歸屬問(wèn)題。二是幫信罪,利用ChatGPT撰寫(xiě)代碼并用于黑產(chǎn)上,個(gè)人和ChatGPT需要承擔哪些責任。三是關(guān)于拒不履行信息安全管理義務(wù)罪,比如科技公司被監管所約談?wù)?,但是由于模型存?ldquo;大而不能改”的特性而難以及時(shí)修改和完善。
四、ChatGPT在金融行業(yè)的應用與展望
1、ChatGPT的直接應用
第一,ChatGPT的能力分為底層能力和應用能力。大公司應關(guān)注底層能力的建設,小公司可以在垂直領(lǐng)域開(kāi)發(fā)應用能力。
第二,ChatGPT與人機設備的整合。ChatGPT能力需要有載體去實(shí)現,如手機是現實(shí)社會(huì )和虛擬社會(huì )中的載體,把人從現實(shí)社會(huì )拉到虛擬社會(huì )中,是現實(shí)社會(huì )到虛擬社會(huì )的入口。但當眼鏡、耳機擁有ChatGPT功能,會(huì )成為下一個(gè)虛擬社會(huì )和現實(shí)社會(huì )的顛覆性入口。
第三,ChatGPT與現有APP的整合。安卓市場(chǎng)排名前20的APP基本上都可以和ChatGPT的功能相結合。
第四,ChatGPT在金融領(lǐng)域的應用。首先,ChatGPT無(wú)法改變金融領(lǐng)域的運行規律,但能提升金融領(lǐng)域的現有智能。比如金融領(lǐng)域的RPA機器人和ChatGPT結合后變成智能RPA機器人;OA系統和ChatGPT結合變成智能OA系統。其次,智能客服,包括責任客服和非責任客服,責任客服更看好Bert方案,非責任客服更看好GPT方案。再次,ChatGPT是感知智能,而不是計算智能,它可以通過(guò)文字感知來(lái)解讀法律文本和合規文本,通過(guò)案例進(jìn)行風(fēng)險感知、審計感知以及反洗錢(qián)案例感知。最后,在保險領(lǐng)域的應用快于在銀行領(lǐng)域,相對銀行簡(jiǎn)單的信貸產(chǎn)品,保險產(chǎn)品更復雜,疊加銀行業(yè)的約束更多一些,我認為ChatGPT在保險業(yè)優(yōu)先發(fā)力更合適。
2、從業(yè)務(wù)角度看:改變客戶(hù)流量入口
從銀行的角度來(lái)看,ChatGPT顛覆了什么?銀行需要需要客戶(hù),客戶(hù)就是流量。互聯(lián)網(wǎng)目前是“入口為王”和“內容為王”,ChatGPT可能會(huì )改變這一切。假設ChatGPT的賬號是這么設計:首先要注冊一個(gè)Chat號,然后用底層賬號登陸微信時(shí),微信就成為智能微信;登錄抖音時(shí),抖音就成為了智能抖音,此時(shí)ChatGPT可能在必要的底層能力成為流量入口。從銀行角度來(lái)看,我們要抓住可能會(huì )被ChatGPT改變的流量和客戶(hù)入口。
3、金融機構推動(dòng)數據金融形態(tài):資源化、資產(chǎn)化、要素化、市場(chǎng)化
未來(lái),ChatGPT的發(fā)展特別是底層AI能力的發(fā)展,一定靠數據發(fā)展。數據越多,模型訓練越好。這體現數據資源化、資產(chǎn)化、要素化和市場(chǎng)化的過(guò)程。
首先,數據具有三重屬性,資源屬性、技術(shù)屬性和金融屬性,并且數據具有相關(guān)性和正外部性。將100萬(wàn)的數據放在一起,可能產(chǎn)生“1+1>2”的效果。其次,數據作為生產(chǎn)要素,它和土地是不同的。數據的價(jià)值不在數據本身,而是源于技術(shù)加工,數據的價(jià)值體現于數據產(chǎn)品的權益分配,但它受制于傳統的知情同意的授權模式,形成市場(chǎng)化有一定的困難。對于數據本身,數據通過(guò)資源化將記錄進(jìn)行標注,形成了數據資源,如果數據資源具備可控制、可獲益、可量化三個(gè)屬性,數據就由數據資源變成了數據資產(chǎn)。最后,數據資產(chǎn)形成數據要素需要三個(gè)條件:數據要素的過(guò)程需要其他生產(chǎn)要素的投入、數據要素可以賦能其他要素、數據要素可以催生新的生產(chǎn)方式。數據資產(chǎn)變成了數據要素后,便是數據要素的市場(chǎng)化。前一步數據資本化由金融工作者完成。主要途徑包括數據銀行、數據信托、數據證券化、數據信貸融資四個(gè)方面。當金融人實(shí)現了數據資本化后,可能會(huì )解決數據要素市場(chǎng)化的關(guān)鍵問(wèn)題。
金融機構要參與人工智能治理中。第一是技術(shù)與內容并重;第二是行業(yè)自律,倫理先行;第三是企業(yè)治理,即主體責任與社會(huì )責任相結合。
4、數據信托:數據與信托的完美結合
第一,數據要素化過(guò)程中的信托雙層所有權架構優(yōu)勢,將數據所有權與名義所有權分離,這恰恰與數據信托的雙層所有權架構榫卯相扣。
第二,數據確權中的數據信托制度優(yōu)勢。“數據二十條”持有權、加工使用權、經(jīng)營(yíng)權的分置機制與信托制度的委托人、受托人、受益人的制度安排道同契合。
第三,數據流通中的數據信托風(fēng)險隔離與信托制衡優(yōu)勢。數據信托制度產(chǎn)生的信任制衡貫于風(fēng)險隔離穿于數據全流通過(guò)程。
第四,數據要素收益分配中的數據信托的權益優(yōu)勢。數據要素市場(chǎng)化配置與按價(jià)值貢獻的分配機制體現信托權益優(yōu)勢與市場(chǎng)化優(yōu)勢。
第五,數據要素治理中的數據信托服務(wù)優(yōu)勢。服務(wù)信托則具備將政府、企業(yè)、社會(huì )等多方主體,資金方、資產(chǎn)方、技術(shù)方、交易商與交易所等多方角色的撮合能力。
第六,數據跨境流動(dòng)中的信托制度的國際通用性?xún)?yōu)勢,信托制度的國際通用性。
5、從AI的視角看AI
第一,我認為AI興起堪比文藝復興,文藝復興破除了人類(lèi)創(chuàng )造力的禁錮,實(shí)現了人類(lèi)創(chuàng )造力“由0到1”,AI的復興使人類(lèi)創(chuàng )造力“由1到100”。
第二,有一種思想為“萬(wàn)事皆模型”。以畫(huà)家為例,任何一個(gè)畫(huà)家的主要風(fēng)格為其畫(huà)風(fēng),畫(huà)家的風(fēng)格就是一個(gè)模型。模型任何一個(gè)參數的調整就會(huì )生成該畫(huà)風(fēng)的新畫(huà)作。以畢加索的畫(huà)風(fēng)為模型,可以通過(guò)調整參數生成100幅畢加索的畫(huà)。
第三,自學(xué)習AI。當算法會(huì )寫(xiě)算法,當機器人會(huì )生產(chǎn)自己時(shí),這是多么恐怖的事情,需要解決人和AI倫理邊界線(xiàn)的問(wèn)題。
第四,從AI視角來(lái)看,人類(lèi)對AI的反應會(huì )認為硅基勞動(dòng)力正在取代碳基勞動(dòng)力。值得思考的是,人在利用AI擴展人的智能,還是AI在利用人展現智能。站在A(yíng)I角度,人類(lèi)對AI的反應可以分為兩類(lèi),一類(lèi)人是開(kāi)始對AI敵對和不屑,隨后發(fā)現效果很好便開(kāi)始抵制和限制AI,最后發(fā)現限制不住而感到迷茫。另一類(lèi)人對AI很友好,從起初的好奇、嘗試,到逐步學(xué)習,最后學(xué)會(huì )使用AI并和AI共存。我更希望我們是第二類(lèi)人,這需要哲學(xué)家給提供指導,在明確與AI的邊界線(xiàn)后,立法、工程師、應用才具有邊界和方向。