提示詞工程:智能長篇小說的核心驅(qū)力
一
源 起
大約在三年前,我開始組建團隊,探索智能寫作的方法①。從自然語言處理的技術(shù)角度來看,智能寫作已經(jīng)不再是一個難以攻克的難題。只要找到一條合適的道路,便能夠大展拳腳。當時,我們制訂了智能寫作的方案,并邀請了計算機、文學(xué)、語言、哲學(xué)、古籍、數(shù)學(xué)、地理等多個領(lǐng)域的研究者共同探討這一方案。大家從各個角度對這一方案進行了評估,認為,實現(xiàn)智能寫作的可能性非常大,因此,我們充滿信心和激情,準備將這一方案付諸實踐。
我們的方案是,采用自然語言處理技術(shù),借助GPT2進行語句替換,以期實現(xiàn)智能寫作②。然而,2022年底GPT3.5的發(fā)布給我們的設(shè)計帶來了巨大沖擊。我們發(fā)現(xiàn),幾乎所有設(shè)計都可能被GPT3.5所替代,留給我們的技術(shù)空間已經(jīng)非常有限。這讓我們感到有些失望,團隊中的計算機專家認為研究空間已經(jīng)被大幅壓縮,甚至產(chǎn)生了對計算機專業(yè)合理性的懷疑。同時,由于ChatGPT訪問的困難,最新技術(shù)無法快速使用,這也影響了我們的探索。
四五個月后,國內(nèi)大模型蓬勃發(fā)展,在技術(shù)上也逐漸能夠滿足我們的需要。在重新審視問題后,我們決定將工作方案與新的大模型技術(shù)結(jié)合起來,以便更快速地實現(xiàn)智能寫作。我們將大模型能夠?qū)崿F(xiàn)的部分交給它處理,同時制訂了提示詞工程的工作方案,其原則是,將大模型可以實現(xiàn)的部分交給大模型完成,其他部分由人制定,最大限度發(fā)揮大模型的潛力。這一方案此前尚未有人探索過,我們對其可行性也心存疑慮。考慮到大模型的巨大潛力,我們決定勇敢嘗試。通過這一調(diào)整,我們將主要精力投入提示詞的實驗和工程建設(shè)上。
此前,我們雖然做過提示詞撰寫工作,也對大模型的生成結(jié)果做出不少實驗,但是生成長篇文本卻并沒有嘗試過,這也是單獨個人能力達不到的。我憂慮的并不是提示詞本身的質(zhì)量,也不擔心大模型生成的文本質(zhì)量,因為這些都可以通過繼續(xù)優(yōu)化來提升;我所憂慮的,一旦投入50條或100條提示詞到大模型中,大模型失去邏輯性,無法輸出文本,以致無法進行下去。進而說,哪怕100條提示詞成功了,也不代表1000條提示詞能夠成功,特別是長篇小說往往要達到2000條甚至更多的提示詞,大模型能承受如此多的提示詞連續(xù)投入嗎?我們心中無數(shù)。我們對大模型的文本生成界限還一無所知。文本生成能力是否會一直保持穩(wěn)定?我們也不知道。我個人無法完成這項任務(wù),因此,我和集美大學(xué)的周偉薇老師一道共同建立大模型創(chuàng)意寫作工作坊,邀請華東師范大學(xué)和集美大學(xué)的幾十名同學(xué)參與探索。在這個過程中,我們遇到了許多困難。一個基本困難就是提示詞的編寫,怎樣做才是達到要求?這并不容易。
在使用大模型進行研究或應(yīng)用落地時,要注意安全問題。個人研究時可以用ChatGPT,但如果追求可以成長的平臺,那么就只能使用國內(nèi)大模型來生成。我們希望建立一個公共的平臺,為了規(guī)避可預(yù)計的風險,并且考慮到長期的數(shù)據(jù)安全問題,因此并不使用國外的大模型。盡管目前國產(chǎn)大模型的表現(xiàn)尚有欠缺,但我們堅決選擇使用國產(chǎn)大模型,只要它們能夠正常運行。我們期待在未來幾年內(nèi),國產(chǎn)大模型能夠與國外的大模型齊頭并進,成為常用的生成工具,那時,我們的平臺系統(tǒng)也基本搭建起來,可以生成具有相當質(zhì)量的智能小說內(nèi)容。因此,從一開始,我們就明確大模型的探索原則:以國產(chǎn)大模型為應(yīng)用底座。
二
“失控”的內(nèi)容生成
為了達到我們的實驗?zāi)繕?,即迅速檢驗提示詞投入大模型的效果,我們采用了一種特殊的方法:復(fù)刻已有的網(wǎng)絡(luò)小說,以快速獲得一個小說結(jié)構(gòu)。復(fù)刻就是對照既有小說寫作提示詞,并將這些提示詞投入大模型。我們的實踐發(fā)現(xiàn)這一技術(shù)路線是高效的,能夠達成實驗的目的。
在實際操作過程中,我們對探索方法進行了多次調(diào)整和優(yōu)化。怎樣寫作高質(zhì)量的提示詞成為前三次工作坊的主題。后來慢慢找到寫作的技巧,但另一個問題產(chǎn)生。一開始,我們希望大模型能夠生成符合我們期望的文本結(jié)果,但現(xiàn)實卻是大模型的生成結(jié)果往往顯得有些“失控”。這不免讓我們感到手足無措。我們努力進行控制,但很快發(fā)現(xiàn),幾乎所有的控制都無法完成任務(wù)。提示詞寫長了不行,寫短了也不行。將提示詞輸入大模型時,我們發(fā)現(xiàn)每次生成都不一樣,當然如果刷新到六七次,重復(fù)就開始出現(xiàn)了。但無論哪種情況,生成的文本與復(fù)刻對象在文本語句相似度上幾乎為零。起初,這讓我們非常煩惱,后來我們逐漸領(lǐng)悟到:既然無法完全控制大模型的輸出,何苦一味追求符合自己完美構(gòu)想的結(jié)果呢?或許這正是大模型本身的特點,試圖讓它按照我們的期望產(chǎn)生完美的文本結(jié)果幾乎是不可能的。
當我們放棄這種想法后,發(fā)現(xiàn)道路反而變得更加寬廣。如果將這種“失控”視為大模型自身的一種特殊變量,我們可以嘗試為它提供一個適度的框架,讓它根據(jù)自身的變量處理方式產(chǎn)生不同的文本。這樣一來,我們便可以利用提示詞讓大模型生成小說文本,只要我們?yōu)槠涮峁┮粋€相對具體的框架就可以進行創(chuàng)作。凱文·凱利認為,復(fù)雜的系統(tǒng)(如生態(tài)系統(tǒng)、經(jīng)濟系統(tǒng)、社會系統(tǒng)等)在看似混亂的過程中,實際上是在進行自我組織和自我調(diào)整,從而形成新的穩(wěn)定狀態(tài)。這種過程是自發(fā)的,不受任何單一元素的控制,而是由系統(tǒng)內(nèi)部的所有元素共同參與③。大模型的文本生成正暗合這一復(fù)雜系統(tǒng)的構(gòu)想。只要我們放棄人類完全控制文本創(chuàng)作的執(zhí)念,將文本的具體生成視為大模型的任務(wù),并且具有較高的偶然性,人機相融,人只要負責整體框架設(shè)計就可以,那么我們就達成了某種可接受的整體性。這是我們在大模型長篇小說寫作中獲得的第一個觀念:人來保證長篇小說的整體可控,由大模型進行細節(jié)控制(哪怕這時顯得有些失控)。
實際上,已經(jīng)有不少人嘗試利用大型語言模型來進行小說創(chuàng)作。我的網(wǎng)絡(luò)寫手學(xué)生也告訴我,他們使用分段提示詞投入大模型來提供靈感,然后進行大量的修改,成稿之后再交給網(wǎng)站編輯。這已經(jīng)是默認的網(wǎng)絡(luò)小說流水線。
在我們的智能寫作探索之前,國內(nèi)已經(jīng)有公司進行了相關(guān)嘗試,比如一個優(yōu)秀的創(chuàng)意寫作公司彩云小夢,主要使用GPT2進行語句續(xù)寫。這一探索的本質(zhì)是將寫作任務(wù)交給大模型,只給大模型一個句子,讓其進行續(xù)寫。但是由于此前GPT2本身的能力限制,這一實踐推進緩慢。2024年,清華大學(xué)沈陽教授團隊借助ChatGPT完成了一個中篇小說作品,方法是讓大模型編寫一個提綱,再按照提綱的條目生成內(nèi)容,就此結(jié)成一個小說。這是將一個大型任務(wù)分解為諸多小任務(wù)的做法,這種做法與我們的做法相似,即利用大語言模型,將大型任務(wù)分解為小任務(wù),小任務(wù)轉(zhuǎn)變?yōu)樘崾驹~,通過提示詞投入大模型的方式來生成內(nèi)容,結(jié)成一部小說。
對于短篇和中篇小說而言,上述兩種方案已經(jīng)是有效的,但對于長篇小說而言,上述兩種方案都有可取或不可取之處??扇≈幨牵竽P妥陨砭哂袆?chuàng)作能力,這證明大模型進行小說寫作是可行的;不可取之處是,兩種方案從本質(zhì)上講都依賴大模型自身的上下文長度,這一上下文長度也成為2024年國產(chǎn)大模型發(fā)力點,但這種上下文長度指的是閱讀上下文,并不是生成上下文,生成文本與閱讀上下文的關(guān)系不是正比例關(guān)系,而是正指數(shù)比例關(guān)系,生成文本越長,閱讀上下文長度必須呈指數(shù)級別的提升。我認為前兩種方法就像黃河決口,在平原上自由流淌,最終形成一些河道,這些河道完全不受控制,是一種完全依賴大模型自身能力的做法。在當前階段,這種方法無法完成長篇小說寫作這一目標。如果大模型目前的上下文方案不改變,可能要到量子計算機普及時,大模型才能真正進行基于自身能力的創(chuàng)寫。
我們采用的方法是通過系統(tǒng)性提示詞向大模型提問,在提問過程中對其進行更精細的限制。再用黃河決口的比方,我們必須因勢利導(dǎo),利用地形的優(yōu)勢,讓決口之后的河水在狹窄的地方流淌,在平坦的地方修建河道,引導(dǎo)它沿著我們期望的方向前進。雖然這個過程可能會出現(xiàn)一些溢出,但這些溢出都在允許的范圍內(nèi)。同理,大模型最終形成的文本基本上會遵循我們希望的整體大框架和方向,而不是像黃河決口后在平原上肆意流淌,失去整體控制。
在整個工作坊的實驗中,我們逐漸領(lǐng)悟到這種工作方式。通過提示詞工程這一方法,我們成功地生成了大量情節(jié)連貫的文本內(nèi)容。這為我們進一步研究和探索提供了有力支持。
三
嘗試性的驗證
文本生成檢驗分為兩個階段。
第一個階段是將相同的100條提示詞投入6種國產(chǎn)大模型,以檢驗?zāi)囊环N國產(chǎn)大模型能夠更好地生成文學(xué)文本。最終發(fā)現(xiàn)訊飛星火和文心一言這兩種大模型效果最佳,輸出文字多,表達也有一定的文學(xué)味道。月之暗面公司的KimiChat輸出文字較長,但表達效果欠佳,更像是商業(yè)交往文本,可能是因為訓(xùn)練材料缺乏文學(xué)材料的緣故。其他大模型在連續(xù)投入30—50條提示詞之后,出現(xiàn)了無法回應(yīng),或只是將提示詞重新輸出一遍,或頻繁無結(jié)果輸出等問題。我們期待在再過兩三年后,有10種以上的大模型都能被成功使用。當然,哪怕是訊飛星火和文心一言,表達上也相對有些干癟,這是語料訓(xùn)練過度廣泛導(dǎo)致的,如果我們縮小訓(xùn)練語料,主要集中在小說語料上,并進行本地大模型微調(diào),輸出效果會明顯上升。第一階段的成果是一部4.3萬字的中篇小說,2023年12月31日發(fā)布④。
第二個階段是2000余條提示詞生成的長篇文本,110萬字小說,2024年3月22日通過澎湃新聞發(fā)布⑤。百萬字小說的影響力明顯比較大,閱讀量和下載量都還不錯。有一些朋友讀過,覺得非常有趣。這可能是由于大模型的“文風”比較特殊的緣故。大模型生成的小說情節(jié)還算跌宕起伏,但推進的方式是議論式的,這跟我們寫小說不太一樣。我們在寫小說時,一般通過對話和情節(jié)描述來展現(xiàn)情緒,而不是一下子把所有內(nèi)容都說出來。這種方式更有文學(xué)性,因為它可以逐步揭示情節(jié),整個故事結(jié)構(gòu)完整,包含了許多情節(jié)和心理活動。大模型生成的小說卻包含大量的議論性內(nèi)容,讀起來不免乏味,我們雖然刪掉了明顯冗余和過度議論的內(nèi)容,但其基本表述結(jié)構(gòu)是無法修改的,只能任其如此。我們完全可以想見,目前讀到智能生成小說的讀者(尤其是文學(xué)學(xué)者)對小說是不太喜歡的,因為它與我們既有的小說寫法太不一樣。按我們目前對小說的看法,大模型小說全身皆病,非常“水”。我們也同意這樣的判斷。然而,考慮到大模型未來的迅速“進化”,也考慮到我們可以對大模型進行進一步調(diào)整,完全可以推斷,再過兩年,也許更短時間,大模型小說就可以從目前的“青澀”階段進展到相對成熟的階段,具有一定的寫作質(zhì)量。
考慮到保存“歷史”狀態(tài)這一因素,我們盡量控制人工修改的幅度,只是對自動生成的文本做了一些必要的修訂,主要是調(diào)整情節(jié)跳躍的地方,對表達語句并未做修訂。由于大模型的“文風”實在獨特,修改就是動全身,也無法進行全面修訂。
大模型利用提示詞進行寫作時,有一個獨特的特點,即光明的尾巴。比如,我讓它寫一段情節(jié),一次生成的長度通常在400—700字之間。使用任何國產(chǎn)大模型,生成的文本長度最多也只能達到500字。(基于2024年2月1日前的國產(chǎn)大模型能力)即使運氣好,生成700字,也時常會出現(xiàn)100字左右充滿正能量的結(jié)論性論證。這需要刪掉,保證后面的情節(jié)還能進行下去。
在寫提示詞時,這是一個特別痛苦的過程。后來我們發(fā)現(xiàn),通過更具體地描述場景,可以更好地控制情節(jié)走向,也可以消除“光明的尾巴”。但是,如果提示詞過于具體,大模型就無法生成文本了。因此,我們需要學(xué)會巧妙地書寫提示詞。
當然,哪怕我們提升了提示詞的寫作技巧,也會發(fā)現(xiàn),大模型時常寫出讓我們啼笑皆非的句子。以實驗性的中篇小說《扮演那個有魔法的人》為例,其中一處寫到游戲中的8種雕像,運用了排比句來描述它們,但是我們在寫作時很少使用這樣的句式,這正是典型的大模型寫作風格。
在圣殿的深處,田一元被八座巨大的種族雕像所吸引。他可以看到每座雕像都代表著一種不同的種族,而每一種族的雕像都散發(fā)著獨特的光芒。
首先,他看到了人類的雕像。這座雕像高大而威嚴,散發(fā)著一種智慧和領(lǐng)導(dǎo)力的光芒。人類作為艾澤拉斯上最強大的種族之一,他們的雕像自然也散發(fā)出無與倫比的威嚴。
接下來是精靈的雕像,他們堅毅而勇敢,散發(fā)出一種勇氣和堅韌的光芒。精靈作為艾澤拉斯上最勇敢的種族之一,他們的雕像也散發(fā)出了這種勇敢的氣息。
然后是妖人的雕像,他們機智而聰明,散發(fā)出一種智慧和創(chuàng)造力的光芒。妖人作為艾澤拉斯上最聰明的種族之一,他們的雕像也散發(fā)出了這種智慧的氣息。
接下來是獸人的雕像,他們優(yōu)雅而神秘,散發(fā)出一種自然和神秘的光芒。獸人作為艾澤拉斯上最神秘的種族之一,他們的雕像也散發(fā)出了這種神秘的氣息。
然后是妖精的雕像,他們粗獷而強壯,散發(fā)出一種力量和狂野的光芒。妖精作為艾澤拉斯上最強大的種族之一,他們的雕像也散發(fā)出了這種狂野的氣息。
接下來是龍族的雕像,他們雄壯而威猛,散發(fā)出一種勇氣和榮譽的光芒。龍族作為艾澤拉斯上最崇尚榮譽的種族之一,他們的雕像也散發(fā)出了這種榮譽的氣息。
然后是亡靈的雕像,他們陰森而詭異,散發(fā)出一種死亡和破壞的光芒。亡靈作為艾澤拉斯上最恐怖的種族之一,他們的雕像也散發(fā)出了這種恐怖的氣息。
這樣的描寫暫時沒有辦法修訂,只能原樣保留,也算是一種“歷史狀態(tài)”。
第二階段的實驗是為了進一步驗證1000條以上的提示詞能夠在國產(chǎn)大模型上進行有效生成。我們采用了復(fù)刻現(xiàn)有網(wǎng)絡(luò)長篇小說的方式,這樣可以迅速獲得一個連貫的結(jié)構(gòu),投入大模型進行長文本實驗。我們首先選擇玄幻小說為實驗對象。目前的大模型適合寫玄幻、現(xiàn)實類小說,古典類有些困難,這可能與訓(xùn)練材料有關(guān)。相信我們后面進行小說大模型微調(diào)之后,這些難點就會消除。整個工作流程是,對網(wǎng)絡(luò)小說的結(jié)構(gòu)進行分析研究,根據(jù)大模型的特點,分解出網(wǎng)絡(luò)小說適合于大模型的情節(jié)分段結(jié)構(gòu),編程進行結(jié)構(gòu)化處理,撰寫大量提示詞,建構(gòu)出一套玄幻小說提示詞,并通過調(diào)用國產(chǎn)大模型API,將提示詞投入大模型,批量生成內(nèi)容,抓取生成結(jié)果,形成一部長篇小說。從實驗結(jié)果來看,我們完成了設(shè)定的任務(wù),并且收獲了不少有益的經(jīng)驗。
由于提示詞是系統(tǒng)化的,所以整個小說的基本線索是連貫的,整體上能夠達成可控制,但是由于大模型生成具有偶然性,總是存在一些不確定性,導(dǎo)致細節(jié)上跳躍性大,不連貫處多,所以后期人工介入對其進行修改,刪除掉重復(fù)、累贅的部分,為情節(jié)跳躍的部分撰寫連接語句,同時也刪減了某些多余的結(jié)構(gòu),精減線索,以免大模型的描述太過分散,最終打磨成型,形成110萬余字。
由于百萬字智能小說是一個實驗性的作品,出現(xiàn)許多此前想不到的“失誤”。創(chuàng)作這一作品的時候,我們其實并不知道會出現(xiàn)什么結(jié)果,從最初設(shè)想來看,只要能寫出來,大模型能夠運行全部提示詞,就達到了我們的目標。這一目標成功完成了。我們后面進行必要的人工修正,使這一智能小說達到能夠閱讀的水平。我們相信,隨著大模型技術(shù)水平不斷提高,智能寫作的質(zhì)量會不斷提升,人工后期調(diào)整的工作量會不斷降低。
從提示詞寫作來看,我們收獲了不少教訓(xùn),后面要避開,比如,新角色的出現(xiàn)一定要進行交代,否則就像憑空出現(xiàn)一樣,顯得沒頭沒腦。目前編寫提示詞時卻沒有做到這一點。大模型并不會自動理順人物邏輯,可以發(fā)現(xiàn)一個人物是新出現(xiàn)的,這要極長的上下文能力才能做到。目前來看,大模型能夠做到的是,將每一條提示詞視為標準,并按照提示詞的要求完成任務(wù)。它不會額外交代新角色的出現(xiàn)。所以,在后期修訂時,為了讓整個小說的文意通暢一些,我們在新人物出現(xiàn)的地方,往往加上一句,介紹來歷,以免顯得太突兀。
從目前生成的長篇來看,人物對話功能是單一的,完成三人以上對話還很困難,基本上是兩個人之間的互動,且缺乏個性特征,難以表達出符合角色特性的觀點和思想。我們或許可以利用AI Agent技術(shù),將對話任務(wù)交由AI Agent自主完成,并不斷演化。這種做法不僅能夠提高工作效率,還能夠讓大模型專注于情節(jié)的生成。
通過以上工作,我們驗證了整個大模型創(chuàng)意寫作計劃的后三分之一,即投入大量提示詞之后,大模型能夠生成線索整體連貫的內(nèi)容,這一點,只有嘗試過之后才能確認是行得通的。至于語義的流暢連貫,富有文學(xué)色彩,只能留待后面進行提升。
四
未來的工作:調(diào)適“智能”的比例
未來的工作主要包括四個部分,一是撰寫大量提示詞,并優(yōu)化提示詞的結(jié)構(gòu)和質(zhì)量。一旦我們能夠生成足夠多的提示詞,就可以涵蓋大部分情節(jié),然后可以進一步精煉和提升這些提示詞。二是建立提示詞敘事模塊和系統(tǒng),可以智能組合并調(diào)用。我們計劃將這些提示詞分情節(jié)、分模塊,并建立情節(jié)箱系統(tǒng)。這個系統(tǒng)位于用戶和大模型之間,為未來的網(wǎng)絡(luò)寫手提供創(chuàng)作服務(wù)。三是進行大模型微調(diào),提高文字表達能力。四是在以上工作的基礎(chǔ)上,建立人工智能寫作平臺,提供自動寫作服務(wù)。這一創(chuàng)新性平臺將按照用戶的創(chuàng)意生成文本,并利用提示詞引導(dǎo)大模型進行文本創(chuàng)作,最終呈現(xiàn)出一部嶄新的長篇小說。我們相信,這樣的平臺將為文學(xué)創(chuàng)作帶來革命性的變革。
這些未來的工作具有一個明確的指向:調(diào)適人工智能與人類智能的參與比例,不斷縮減人類的智能參與,將人力付出集中在智能創(chuàng)意上,而不是浪費在大量模式書寫的忍耐上;提高大模型模式化寫作能力,增大人工智能在創(chuàng)意寫作中的比重。目前來看,人工的成分過多,后面的工作將不斷減少人工成分,減少修改的工作量,讓每一個對長篇小說寫作感興趣的人都能夠通過人機融合的方式進行創(chuàng)作。一個勤奮的網(wǎng)絡(luò)寫手寫作100萬字的小說大約需要一年,通過機寫方案,完成這一體量的作品大約一個半月,下一步的目標是將這一時間縮短為兩周。
我們可以確定的是,面對大模型生成的提示詞工程將以一種新的敘事學(xué)方式建立起來。這種新敘事學(xué)不同于以往人類寫作者的傳統(tǒng)敘事學(xué),它是半人半機的,是人類敘事構(gòu)架+智能細節(jié)寫作,兩者的高效融合將是未來的重點。大模型不斷發(fā)展升級,我們還需要根據(jù)技術(shù)發(fā)展來不斷更新這一敘事學(xué)框架。
這一方法的關(guān)鍵在于將一個大型復(fù)雜的任務(wù)拆解成若干個小任務(wù),并讓每個執(zhí)行者專注于特定的任務(wù)。這種模塊化的工作方式非常有效。為了實現(xiàn)這一目標,我們需要建立足夠多的模塊,并確保它們具有清晰的調(diào)用邏輯,可以高效完成自動調(diào)用任務(wù)。因此,我們后面的一個重要工作就是不斷優(yōu)化提示詞敘事質(zhì)量,探索多元化的提示詞敘事工作,并建立提示詞敘事學(xué)。
提示詞敘事學(xué)此前從未出現(xiàn)過,只有當大模型可以進行文字寫作之后,這一敘事學(xué)才成為可能。因此,提示詞敘事學(xué)的基礎(chǔ)是大語言模型。提示詞是自然語句,但又不同于自然語句,而是大模型可以有效或高效執(zhí)行的自然語句。從位置來看,提示詞位于自然語言表達和大模型的自然語言理解、輸出之間,起到橋梁作用。它是一種解釋性語句,這一解釋性依賴于其中介地位,它本身與自然語句存在相當大程度的重合,某種程度上具有較大迷惑性。中介即接口,兩端是人的智能與人工智能。從根本上說,提示詞的結(jié)構(gòu)表征了一種新式的人機解釋關(guān)系,這一解釋關(guān)系所涵蓋的是,人的智能以某種比例向人工智能的讓步。
一部智能小說的結(jié)構(gòu)需要注意涵蓋本類型的絕大部分結(jié)構(gòu)。我們將分析大量網(wǎng)絡(luò)小說,獲得提示詞,從中分解出盡可能細致的結(jié)構(gòu)。這些結(jié)構(gòu)構(gòu)成一個調(diào)用單元,可稱之為情節(jié)封箱。所謂情節(jié)封箱,就像把大量不同物品放入一個集裝箱中,我們將多條提示詞放入一個固定情節(jié)箱體,使其在智能調(diào)用中發(fā)揮作用。在長篇小說中有許多封箱元素,我們希望從中找到具體的封箱方法。盡管我們會借鑒普羅普在民間故事敘事學(xué)結(jié)構(gòu)方面的獨特貢獻,但現(xiàn)有的理論并不能解決所有問題。我們必須意識到,僅僅得出結(jié)論是遠遠不夠的。更為關(guān)鍵的是,我們必須確保提示詞能夠適應(yīng)大模型生成的需求。因此,還需要調(diào)整提示詞,以發(fā)現(xiàn)在提示詞封箱過程中,哪些句子組合在一起效果最佳。
在接下來的兩年時間里,我們一方面要生成大量提示詞,另一方面要進行實驗,以確定哪些提示詞進行情節(jié)封箱生成的文本質(zhì)量更佳,這樣,在未來的智能調(diào)用中就具有充分的多樣性。最終,我們將擁有一種完全原創(chuàng)的結(jié)構(gòu),不再依賴任何外部結(jié)構(gòu)。就像學(xué)習(xí)書法一樣,起初總是模仿多家風格,一旦掌握了多種風格,就開始形成自己的風格。
在情節(jié)封箱完成后,我們需要建立用戶交互系統(tǒng),以保證用戶的需求得到充分體現(xiàn)。我們假定用戶為創(chuàng)作長篇小說的作者,他們通過交互系統(tǒng),向系統(tǒng)提出詳細需求,通常這些需求至少應(yīng)包含30條關(guān)鍵信息,最多不超過50條,超過50條,就可能出現(xiàn)用戶使用疲憊。這些要求通過系統(tǒng)轉(zhuǎn)化為提示詞的調(diào)用框架,這一框架進一步調(diào)用情節(jié)箱體,以形成系統(tǒng)性提示詞,并將這些提示詞投入大語言模型進行具體文本的生成。最終文本將通過人工進行修改,以去除某些不連貫或重復(fù)之處,也可以進行深度潤色,這完成看用戶需求。
生成工作可能在2天內(nèi)完成,而修改工作大致需要2—4周時間。從整個系統(tǒng)平臺的建設(shè)來說,是一個大的工程,但對于平臺完成的成果而言,卻可以省去寫作者大量套路性寫作的時間,是一件值得為之的事情。
五
作為工程的提示詞及智能文學(xué)的未來
提示詞工程看似簡單,其實頗為復(fù)雜。我們的目標是基于這一原則,通過精心編寫提示詞以實現(xiàn)高效的快速投入。從本質(zhì)上講,這與傳統(tǒng)的手工投入并無二致。我們現(xiàn)階段是通過建立小型Demo調(diào)用API投入大模型的方式,以求速度的提升。后期隨著創(chuàng)寫平臺的搭建,用戶直接向創(chuàng)寫平臺發(fā)出指令,創(chuàng)寫平臺進行提示詞的組合,并將提示詞投入大模型進行生成,從而達成定制長篇小說的目標。這樣的速度會越來越快。
從目前的提示詞與生成文本的比例來看,大約4∶1或5∶1左右,也就是說,為了生成百萬字的小說,我們需要撰寫20萬—25萬字的提示詞,如果這樣的提示詞的目標是生成一部小說,那么,很可能引發(fā)這樣的質(zhì)疑:這樣做不是太費勁了嗎?質(zhì)量也沒有那么好,何不直接寫一篇小說呢?
的確,如果只考慮一件作品,那么,提示詞工程是費力不討好的,但是,以提示詞工程進行智能寫作的意義在于,提示詞本身充滿變量,哪怕一條提示詞不改變?nèi)魏巫兞?,投入大模型產(chǎn)生的結(jié)果也不相同,一旦變量加入,提示詞本身的產(chǎn)量是相當可觀的,更何況我們進行了智能組合,這樣的產(chǎn)出變化是極其可觀的。從此考慮,提示詞工程是一個值得深入開墾的事業(yè)。
從目前來看,大模型的能力并不能達到百萬字級別的小說寫作,哪怕KimiChat達到了200萬中文的閱讀量,通義千問達到1000萬字的閱讀量,但對于小說寫作而言,依然還不能憑借自身能力完成3萬字以上的作品,人工必須不斷加入進行干涉,人工與智能結(jié)合,才能不斷突破大模型自身的限制。所以,我們應(yīng)該充分利用提示詞工程的潛在能力,將100萬字的寫作任務(wù)分解為2000個500字的寫作任務(wù),建立控制方法,完成這一組合任務(wù)。因此,我們無須等待大語言模型的暴力升級,就能夠解決長篇智能寫作問題。
與大模型融合進行文學(xué)創(chuàng)作對于網(wǎng)絡(luò)文學(xué)而言具有重要意義。網(wǎng)絡(luò)文學(xué)創(chuàng)作應(yīng)當全面進化,摒棄精英式寫作方式。我們無需過分追求趕超文學(xué)大師的作品,這樣的目標在短期間毫無意義。我們應(yīng)關(guān)注中等水平的網(wǎng)絡(luò)小說創(chuàng)作,這是大模型智能寫作的方向。一旦達成中等水平的網(wǎng)絡(luò)小說創(chuàng)作,更高的目標才有具有實現(xiàn)的可能性。
經(jīng)過兩三年的努力,我們將初步見到成效。屆時,我們將建立一個交互性的智能寫作平臺。在這段時期內(nèi),中國的大模型將取得長足的進步,不斷追趕國際大模型的水準。即使無法完全達到這一目標,大模型水平的提升也將為我們提供一個堅實的基礎(chǔ),支持智能寫作實驗的發(fā)展。我們對于在這個平臺上實現(xiàn)高水平寫作充滿信心。到那時,基于這個平臺的作品將遠超現(xiàn)在的“中二”水平,達到中等層次的網(wǎng)絡(luò)作家水平。
展望未來,大型語言模型有望依靠自身的力量完成長文本的生成,甚至能夠根據(jù)需要創(chuàng)作長篇小說。但這需要將我們開發(fā)的智能平臺模型納入大型語言模型,使其成為其中的一個“細胞”,才可能完成進一步的智慧化。
我們已經(jīng)步入智能社會,回避這一事實沒有任何意義。在發(fā)展中不斷調(diào)整工作方案才是根本。只有學(xué)會與人工智能共處共融,我們才能走向不可知的未來。◇◆
注釋
①《文學(xué)計算工作坊通訊稿》,https://si-mian.ecnu.edu.cn/7f/0d/c19254a360205/page.htm。
②《數(shù)字人文與文學(xué)計算工作坊及第二次文學(xué)計算工作會議通訊》,https://si-mian. ecnu. edu. cn / 16 / f3 / c19254a399091/page.htm。
③參見凱文·凱利:《失控:全人類的最終命運和結(jié)局》,張行舟、陳新武、王欽等譯,電子工業(yè)出版社,2016,第144-147頁。
④小說文本見微信公眾號“后人類文化研究院”。
⑤《AI創(chuàng)作的百萬字小說能打敗網(wǎng)文大神嗎?》,https://www.thepaper.cn/newsDetail_forward_26722585。