ChatGPT“克星”:用AI識別AI生成的文本,英語論文閱讀筆記都能測出
學(xué)會辨別“人話”和“AI生成”
蕭簫 發(fā)自 凹非寺
量子位 | 公眾號 QbitAI
ChatGPT的出現(xiàn),讓不少人看到了交期末大作業(yè)的曙光(手動狗頭)。
無論是英語論文、還是閱讀筆記,只要在ChatGPT的知識范圍內(nèi),都可以拜托它幫忙完成,寫出來的內(nèi)容也有理有據(jù)。
不過,有沒有想過你的老師也準(zhǔn)備用“AI文本檢測器”一類的東西來防止你作弊?
像這樣輸入一段看起來沒毛病的筆記,經(jīng)過它一番檢測,認(rèn)為這段文字“由AI編寫”(Fake)的可能性為99.98%!
△文本由ChatGPT生成
換個數(shù)學(xué)論文試試?ChatGPT的輸出看起來沒啥問題,卻仍然被它準(zhǔn)確識破了:
△文本由ChatGPT生成
這可不是靠瞎蒙或猜測,畢竟對方同樣是個AI,還是個訓(xùn)練有素的AI。
看到這有網(wǎng)友調(diào)侃:用魔法打敗魔法?
用AI寫的東西來訓(xùn)練新AI
這個AI檢測器名叫GPT-2 Output Detector,是OpenAI聯(lián)合哈佛大學(xué)等高校和機構(gòu)一起打造的。(沒錯,OpenAI自家做的)
輸入50個以上字符(tokens)就能較準(zhǔn)確地識別AI生成的文本。
但即便是專門檢測GPT-2的模型,用來檢測其他AI生成文本效果也同樣不錯。
作者們先是發(fā)布了一個“GPT-2生成內(nèi)容”和WebText(專門從國外貼吧Reddit上扒下來的)數(shù)據(jù)集,讓AI理解“AI語言”和“人話”之間的差異。
隨后,用這個數(shù)據(jù)集對RoBERTa模型進行微調(diào),就得到了這個AI檢測器。
RoBERTa(Robustly Optimized BERT approach)是BERT的改進版。原始的BERT使用了13GB大小的數(shù)據(jù)集,但RoBERTa使用了包含6300萬條英文新聞的160GB數(shù)據(jù)集。
其中,人話一律被識別為True,AI生成的內(nèi)容則一律被識別為Fake。
例如這是一段從Medium英文博客上復(fù)制的內(nèi)容。從識別結(jié)果來看,很顯然作者是親自寫的(手動狗頭):
△文字來源Medium@Megan Ng
當(dāng)然,這個檢測器也并非100%準(zhǔn)確。
AI模型參數(shù)量越大,生成的內(nèi)容越不容易被識別,例如1.24億參數(shù)量的模型“被抓包”的概率就比15億參數(shù)更高。
同時,模型生成結(jié)果隨機性越高,AI生成內(nèi)容被檢測出來的概率也會更低。
但即便將模型調(diào)整到生成隨機性最高(Temperature=1,越接近0生成隨機性越低),1.24億參數(shù)模型被檢測出的概率仍然是88%,15億參數(shù)模型被檢測出的概率仍然有74%。
這是OpenAI兩年前發(fā)布的模型,當(dāng)時對GPT-2生成的內(nèi)容就“一打一個準(zhǔn)”。
現(xiàn)在面對升級版的ChatGPT,檢測英文生成內(nèi)容的效果依舊能打。
但面對ChatGPT生成的中文,它的識別能力就不那么好了。例如讓ChatGPT來一段作文:
AI檢測器給出是人寫的概率為99.96%……
當(dāng)然話說回來,ChatGPT也能檢測自己生成的文本。
所以,不排除老師將你的作業(yè)直接交給ChatGPT來識別:
One More Thing
值得一提的是,ChatGPT表示自己并不能訪問互聯(lián)網(wǎng)來搜索信息。
顯然,它還意識不到GPT-2 Output Detector這個AI檢測器的存在:
所以能不能像網(wǎng)友所說,讓ChatGPT生成一段“不被AI檢測器測出來的”內(nèi)容呢?
很遺憾不能:
所以大作業(yè)還是自己寫吧……
參考鏈接:
[1]https://weibo.com/1402400261/Mj7QtwRoH
[2]https://github.com/openai/gpt-2-output-dataset/tree/master/detector
[3]https://chat.openai.com/
[4]https://medium.com/user-experience-design-1/how-chatgpt-is-blowing-google-out-of-the-water-a-ux-breakdown-784340c25d57