導讀:程序在沒有任何指導的情況下尋找和發(fā)現(xiàn)模式,然后利用這些模式來完成文本提示。
援引外媒 MIT Technology Review 報道,大學生 Liam Porr 使用語言生成 AI 工具 GPT-3 生成了一篇假博文,并登上了 Hacker News 的榜首。Porr 試圖證明,GPT-3 制作的內(nèi)容可以騙取人們的信任,讓人們相信它是由人類編寫的。而且他還表示:“這實際上超級容易,這才是最可怕的地方。”
GPT-3 是由總部位于舊金山的 OpenAI 設計的一系列人工智能自動完成工具,已經(jīng)推出有數(shù)年之久。其中“GPT-3”代表的是“generative pre-trained transformer”(生成式預訓練轉(zhuǎn)化器),根據(jù)人類作家的提示自動完成文本。
它的工作原理如下
就像所有深度學習系統(tǒng)一樣,GPT-3 會在數(shù)據(jù)中尋找模式。為了簡化操作,該程序已經(jīng)在一個巨大的文本語料庫上進行了訓練,并對其進行了統(tǒng)計規(guī)律性的挖掘。這些規(guī)律性對人類來說是未知的,但它們被存儲為GPT-3的神經(jīng)網(wǎng)絡中不同節(jié)點之間的數(shù)十億個加權連接。
重要的是,在這個過程中不涉及人類的輸入:程序在沒有任何指導的情況下尋找和發(fā)現(xiàn)模式,然后利用這些模式來完成文本提示。例如,你在 GPT-3 中輸入單詞“fire”,程序就會根據(jù)網(wǎng)絡中的權重,就會接“truck”和“alarm”等單詞,比“l(fā)ucid”或“elvish”更有可能出現(xiàn)。
在 Porr 的博客文章中展示了一個樣本,標題為《Feeling unproductive? Maybe you should stop overthinking》(感覺沒有效率?也許你應該停止過度思考)。
Definition #2: 過度思考(OT)是指試圖提出已經(jīng)被別人想好的想法的行為。OT 的結果通常是不切實際的、不可能的、甚至是愚蠢的想法。
Porr提交了申請。他用簡單的問卷填寫了有關其預期用途的表格。但是他也沒有等待。在接觸了伯克利AI社區(qū)的幾位成員后,他迅速找到了已經(jīng)可以使用的博士生。
研究生同意合作后,Porr編寫了一個小腳本供他運行。它為GPT-3提供了博客文章的標題和簡介,并吐出了幾個完整的版本。
Porr的第一篇文章(在Hacker News上登載的文章)以及其后的每篇文章都是其中一項輸出的直接復制和粘貼。
他說:“從我想到這個主意并與博士生接觸以來,我實際上創(chuàng)建了博客,并且第一個病毒式傳播的博客-花費了幾個小時?!?/p>
無需編輯即可生成內(nèi)容的訣竅是了解GPT-3的優(yōu)點和缺點。Porr說:“它擅長于編寫漂亮的語言,而并不擅長于邏輯和理性?!?因此,他選擇了一個受歡迎的博客類別,該類別不需要嚴格的邏輯:生產(chǎn)力和自助。
Porr 表示,他想證明 GPT-3可以作為人類作家被假冒。確實,盡管該算法的編寫模式有些怪異,并且偶爾會出現(xiàn)錯誤,但是在他對Hacker News的最高帖子發(fā)表評論的數(shù)十個人中,只有三到四個人懷疑它可能是由算法生成的。所有這些評論都立即遭到其他社區(qū)成員的反對。
Porr 說,他的實驗還顯示了一個更為平凡但仍令人不安的替代方案:人們可以使用該工具生成大量的點擊誘餌內(nèi)容。他說:“可能會有大量平庸的博客內(nèi)容,因為現(xiàn)在進入的障礙是如此的容易,” “我認為在線內(nèi)容的價值將大大降低。”