據(jù)近日發(fā)表在預(yù)印本服務(wù)器bioRxiv上的一項(xiàng)研究,人工智能(AI)聊天機(jī)器人ChatGPT已可寫出令人信服的假研究論文摘要,甚至連審稿科學(xué)家也無法發(fā)現(xiàn)。
聊天機(jī)器人ChatGPT會(huì)根據(jù)用戶提示創(chuàng)建逼真文本,它通過消化大量現(xiàn)有的人類生成文本來學(xué)習(xí)執(zhí)行任務(wù)。美國的軟件公司OpenAI于去年11月發(fā)布了該工具,并供用戶免費(fèi)使用。
自發(fā)布以來,研究人員一直在努力解決相關(guān)倫理道德問題,因?yàn)樗蟛糠州敵隹赡芎茈y與人類撰寫的文本區(qū)分開來。近日美國西北大學(xué)的一個(gè)研究小組使用ChatGPT生成人工研究論文摘要,以測試科學(xué)家是否可辨別它們。
研究人員要求機(jī)器人基于發(fā)表在《美國醫(yī)學(xué)會(huì)雜志》《新英格蘭醫(yī)學(xué)雜志》《英國醫(yī)學(xué)雜志》《柳葉刀》和《自然·醫(yī)學(xué)》上的50篇研究編寫摘要。然后,他們通過抄襲檢測器和AI輸出檢測器將這些摘要與原始摘要進(jìn)行比較,并要求一組醫(yī)學(xué)研究人員找出編造的摘要。
結(jié)果,ChatGPT生成的摘要通過了抄襲檢查器,原創(chuàng)性得分中位數(shù)為100%,表明沒有檢測到抄襲。人工智能輸出檢測器發(fā)現(xiàn)了66%的生成摘要,但人工審稿人只正確識(shí)別了68%的生成摘要和86%的真實(shí)摘要,他們錯(cuò)誤地將生成摘要中的32%識(shí)別為真實(shí),將14%的真實(shí)摘要識(shí)別為編造。
研究人員稱,ChatGPT寫出了能騙過人類的科學(xué)摘要,如果科學(xué)家無法確定研究是否屬實(shí),或會(huì)產(chǎn)生“可怕的后果”。
研究人員表示,在虛假信息會(huì)危及人們生命安全的醫(yī)學(xué)等領(lǐng)域,期刊需要采取更嚴(yán)格的方法來驗(yàn)證信息的準(zhǔn)確性。而這些問題的解決方案,不應(yīng)集中在機(jī)器人本身,“而是導(dǎo)致這種行為的不正當(dāng)激勵(lì)措施,例如通過論文數(shù)量進(jìn)行招聘和晉升審查,而不考慮其質(zhì)量或影響”。(記者張夢(mèng)然)
【總編輯圈點(diǎn)】
大火的ChatGPT,不止是聊天工具,它在教育領(lǐng)域的滲透已經(jīng)引起了廣泛關(guān)注和討論,當(dāng)然,隨之而來的還有憂慮。如果你使用過ChatGPT,也會(huì)驚訝于它撰寫報(bào)告的能力。給它一個(gè)主題,它就能在幾秒內(nèi)生成大綱,也能在幾秒內(nèi)進(jìn)行細(xì)化,而且看起來非常是那么回事。這次,科研人員發(fā)現(xiàn)它撰寫的論文甚至能騙過審稿人。這又是一個(gè)人如何使用新技術(shù)的經(jīng)典倫理問題。工具本身無罪,但應(yīng)用邊界應(yīng)該清晰,使用者也要對(duì)自己的行為負(fù)起責(zé)任。
(責(zé)編:趙竹青、陳鍵)
本站新聞轉(zhuǎn)載自人民網(wǎng),文字、圖片及視頻版權(quán)歸原作者所有。來源:科技日?qǐng)?bào)
手機(jī)掃碼閱讀
專業(yè)的技術(shù)驅(qū)動(dòng)型網(wǎng)絡(luò)技術(shù)公司,公司成立于2009年,12年專注數(shù)字產(chǎn)品開發(fā),用創(chuàng)新迎合客戶不斷增長的需求,為客戶提供專業(yè)的數(shù)字化解決方案, 為企業(yè)和品牌在不斷變化的數(shù)字化環(huán)境中脫穎而出。
威海網(wǎng)站建設(shè), 威海微信公眾號(hào)開發(fā), 威海企業(yè)郵箱, 威海行業(yè)網(wǎng)站, 威海系統(tǒng)開發(fā), 威海軟件開發(fā), 威海APP開發(fā), 威海域名注冊(cè), 威海商標(biāo)查詢, 威海商標(biāo)注冊(cè), 威海商標(biāo)設(shè)計(jì), 威海知識(shí)產(chǎn)權(quán)代理, 威海房產(chǎn)銷控系統(tǒng), 威海缺陷跟蹤系統(tǒng), 威海企業(yè)云/私有云解決方案, 威海企業(yè)郵局