GPT-2
給GPT-2加上“人類偏好”補(bǔ)丁,它說的話就越來越有人情味了丨代碼已開源
GPT-2文案工作室成立了,只要加65000個(gè)標(biāo)簽,甲方爸爸要啥寫啥(滑稽)
語言模型GPT-2擠牙膏式開源,放出774M預(yù)訓(xùn)練模型,稱是倒數(shù)第二版
官方表示,這是1558M完整版放出前,最后一版了。擠牙膏式開源,是OpenAI沒錯(cuò)了。
自動(dòng)生成馬斯克的推特幾乎無破綻!MIT用GPT-2模型做了個(gè)名人發(fā)言模仿器
模仿各路名人的推特行文,現(xiàn)在可以分分鐘做到。