設計軟件問答為您提供設計軟件的相關問題咨詢與解答,印刷案例規(guī)格及印刷報價,讓您實時了解設計軟件的各類相關問題及印刷相關問題,并提供設計時的注意事項,為您提供各設計軟件的相關問題解決方案
印刷廠 2022-12-15 09:15 300 0
那句話是人工智能寫的嗎?OpenAI 的新聊天機器人 ChatGPT 引發(fā)了公家對一個關鍵問題的討論:我們若何曉得網(wǎng)上的內容是人寫的,仍是人工智能寫的?
自 2022 年 11 月發(fā)布以來,已有超越一百萬人利用過 ChatGPT。它讓人工智能社區(qū)沉迷,并且很顯然,人工智能生成的文本正在收集上肆意傳布。人們用它來編笑話、寫故事和草擬更好的電子郵件。
ChatGPT 是 OpenAI 的大型語言模子 GPT-* 的衍消費品。針對用戶提出的問題,該模子能夠生成看起來很像是人類做出的答復。
那些大型語言模子的魔力在于,它們的答復看起來十分實在。但因為人們難以分辯,由此引發(fā)的準確性錯覺也可能帶來危險。
人工智能模子寫出的句子看起來是準確的,它們以準確的挨次利用了準確的詞匯和語法,但人工智能理解不了它們的含義。
那些模子通過預測句子中最有可能呈現(xiàn)的下一個詞來工做,所以他們其實不曉得本身說的是對仍是錯。即便說的是錯的,他們也會用“言之鑿鑿”的語氣表述出來。
在一個已經(jīng)兩極分化、充滿政治色彩的收集世界中,那些人工智能東西可能會進一步扭曲我們獲取的信息。若是他們被某些產(chǎn)物接納并風行世界,后果可能是撲滅性的。
人工智能草創(chuàng)公司 Hugging Face 的政策總監(jiān)艾琳·索萊曼 (Irene Solaiman) 暗示,我們迫切需要可以區(qū)分人類和人工智能編寫的文本的辦法,以應對潛在的手藝濫用。
索萊曼曾是 OpenAI 的人工智能研究員,為 GPT-* 的前身 GPT-2 的發(fā)布研究了人工智能模子的輸出檢測。
找到識他人工智能生成代碼的辦法也至關重要,例如法式員常用的 Stack Overflow 比來頒布發(fā)表暫時制止發(fā)布由 ChatGPT 生成的答復。
ChatGPT 能夠自信地生成編程問題的謎底,但它并不是完全準確。錯誤的代碼會招致軟件 bug,在許多范疇,一個 bug 可能帶來昂揚的代價并形成紊亂。
Stack Overflow 發(fā)言人暗示,該公司的審核員正在“利用包羅啟發(fā)式和檢測模子在內的多種東西,查抄數(shù)千份由社區(qū)成員提交的陳述”,但不會透露更多細節(jié)。
現(xiàn)實上,實現(xiàn)那一目的十分困難,完全制止人工智能的答復幾乎是不成能的。
研究人員測驗考試了多種辦法來檢測人工智能生成的文本。一種常見的辦法是利用軟件來闡發(fā)文本的差別特征——例如閱讀的流利水平、某些單詞呈現(xiàn)的頻次,或者標點符號、句子長度能否有規(guī)律。
“若是你有足夠多的文本,一個十分簡單的線索就是‘the’那個詞過于頻繁的呈現(xiàn),”谷歌大腦的高級研究科學家達芙妮·伊波利托(Daphne Ippolito)解釋說。
因為大型語言模子通過預測句子中的下一個詞來工做,因而它們更有可能利用“the”“it”或“is”等常見詞,而不是不成靠的稀有詞。
伊波利托和谷歌研究人員在 201* 年頒發(fā)的論文中發(fā)現(xiàn),那恰是主動檢測系統(tǒng)擅長識此外文本類型。
但伊波利托的研究也顯示了一些有趣的工具:人類參與者傾向于認為,那種“清潔”的文本看起來更好,錯誤更少,因而它更像是人類寫的。
現(xiàn)實上,人類撰寫的文本凡是會有拼寫錯誤,而且變化無窮,包羅差別的氣概和俚語,而“語言模子很少呈現(xiàn)拼寫錯誤,他們更擅長生成完美的文本,” 伊波利托說。
“文本中的錯別字現(xiàn)實上是一個很好的目標,表白它是人寫的,”她彌補道。
大型語言模子自己也可用于檢測人工智能生成的文本。不列顛哥倫比亞大學的天然語言處置和機器進修研究主席穆罕默德·阿卜杜勒-馬吉德(Muhammad Abdul-Mageed)說,最勝利的辦法之一是在一些由人類編寫的文本和一些由機器創(chuàng)建的文本上從頭訓練模子,使它學會區(qū)分兩者。
與此同時,德克薩斯大學的計算機科學家斯科特·阿倫森( Scott Aaronson)不斷在為 GPT-* 等模子生成的較長文本開發(fā)“水印”機造。他在博客中寫道,通過在詞匯選擇上參加“不惹人留意的奧秘信號”,人們就能夠證明那段文字是 GPT 模子生成的。
OpenAI 發(fā)言人證明,該公司正在研究水印,而且暗示其政策規(guī)定用戶應該“以一種任何人都不會合理地漏看或曲解的體例”清晰地指出哪些是人工智能生成的文本。
但那些手藝修復勤奮也存在一些問題。他們大多尚未有時機匹敵最新一代的人工智能語言模子,因為它們是成立在 GPT-2 或其他早期模子之上的。
當有大量文本可供檢測時,許多檢測東西的效果不錯;但它們在某些詳細場景的表示較差,例如聊天機器人或電子郵件助理,因為那些場景只要較短的對話,無法供給更多的數(shù)據(jù)用來闡發(fā)。
Abdul-Mageed 還指出,利用大型語言模子停止檢測還需要強大的計算機,以及拜候 AI 模子自己,科技公司凡是不會允許如許做。
索萊曼暗示,模子越大、性能越強大,就越難構建對應的人工智能模子來檢測哪些文本是人寫的,哪些不是。
“如今最令人擔憂的是 ,ChatGPT 的輸出量量十分令人印象深入。檢測模子難以企及,只能在后面不斷追逐,”她說。
索萊曼說,檢測人工智能編寫的文本沒有一個 100% 準確的辦法。 “檢測模子不會成為合成文本的過關測試,就像平安過濾器不是減輕成見的獨一手段,”她說。
為了有時機處理那個問題,我們需要改良手藝修復手段并進步人類與人工智能交互時的通明度,人們還要學會若何識別藏在人工智能締造的文本中的陳跡。
伊波利托說:“若是有一個 Chrome 或其他收集閱讀器的插件,或答應以通過它讓你曉得網(wǎng)頁上的任何文本能否是機器生成的。那將是一件十分好的工作?!?/p>
一些人已經(jīng)在勤奮。哈佛大學和 IBM 的研究人員開發(fā)了一種名為“大語言模子測試屋 Giant Language Model Test Room (GLTR)” 的東西,它通過高亮顯示可能由人工智能生成的文字段落來幫忙人們留意哪里有問題。
但是人工智能已經(jīng)在能夠將通俗人玩弄于股掌之間了。康奈爾大學的研究人員發(fā)現(xiàn),在 66% 的情況下,人們認為 GPT-2 生成的假新聞文章是可信的。
另一項研究發(fā)現(xiàn),未經(jīng)訓練的人識別 GPT-* 生成文本的準確率低得就像隨機選擇的差不多。
伊波利托說,好動靜是人們能夠承受訓練,以更好地識別 AI 生成的文本。她開發(fā)了一個游戲來測試在用戶意識到之前人工智能模子能夠生成幾句子。她發(fā)現(xiàn)跟著時間的推移,人們會逐步做得更好。
“若是你查看大量生成文本,并試圖找出此中沒有意義的處所,你就能夠更好地完成那項使命,”她說。一種辦法是發(fā)現(xiàn)那些難以置信的表述,好比人工智能會說煮一杯咖啡需要 60 分鐘。
ChatGPT 的前身 GPT-* 在 2020 年才問世。OpenAI 暗示 ChatGPT 只是一個演示,但開發(fā)類似功用強大的模子,并將其應用到用于客服聊天機器人等產(chǎn)物中,只是時間問題。
那就是問題的癥結所在:該范疇的飛速開展意味著,識他人工智能生成文本的許多辦法城市很快過時。若是那是一場人類和人工智能之間的軍備競賽,那么如今人類正在失敗。
撐持:Ren
原文:
021yin.com/2022/12/1*/106***6/how-to-spot-ai-generated-text/
你有多久沒有聽過筆尖與紙摩擦的沙沙聲,你有多久沒有帶上本子把心情隨筆寫下,或許,你需要的是一本精致的本子喲!試著掙開手機的束縛吧,回歸本真,每次下筆,只為心之所向,像讀書時那樣,一紙一筆,帶著初衷,緩慢而真誠。上海年升包裝吉印通是王氏兄弟...
2022-07-10 132 0
工作證的規(guī)格應該是卡片的規(guī)格85mmx55mm工作證。一寸照片規(guī)格是寬2.5mm×3.5mm,300DPI。在ps設定裁剪工具的寬丶長丶分辨率就可以裁出這樣的尺寸相片。
2021-09-04 1360 0
PS集賢居—用分享的眼光看世界pdf怎么改大??!感謝邀請pdf怎么改大小。問題:PDF文件怎樣壓縮比較便捷pdf怎么改大小。換一種說法即:如何壓縮PDF文檔pdf怎么改大小。小編推薦以下幾種壓縮PDF文檔的方法pdf怎...
2021-05-30 739 0
我們在做PDF格式文件的時候,做好后,給PDF格式的文檔添加文字頁碼,這是必不可少的indesign頁碼設置。想給PDF格式的文檔添加文字頁碼,但是卻不知道怎么去添加文字頁碼。今天小編來給大家講解,如何給PDF格式...
2021-02-04 904 0
本文暫時沒有評論,來添加一個吧(●'?'●)