環信AI公開課:OpenAI通用語言模型GPT-2論文解析
來源: 編輯:vbeiyou 時間:2019-03-13 07:05人閱讀
OpenAI最近似乎搞了個大新聞,隨手一搜,”最大模型”、”15億參數”、”無需領域數據”等等躍然在目。當然現在是標題黨的年代,為了吸引眼球,外行媒體的夸張手法也能理解。當然最大的爭議還是他們在官網上解釋為什么只提供小模型的理由:為了防止大模型用于生成欺詐和有歧視性的文章,我們只發布小規模的模型(Due to concerns about large language models being used to generate deceptive, biased, or abusive language at scale, we are only releasing a much smaller version of GPT-2 along with sampling code)。這個當然引起了軒然大波,使得很多人在Reddit上吐槽。聽這語氣,人工智能已經實現了,為了保護人類,他們不能把這個惡魔放出來。實際情況怎么樣呢?別聽專家的,最好還是我們自己讀讀論文跑跑代碼吧。
分享到:
本站所有文章、數據、圖片均來自互聯網,一切版權均歸源網站或源作者所有。
如果侵犯了你的權益請來信告知我們刪除。郵箱:business@qudong.com