• <li id="yyyyw"><noscript id="yyyyw"></noscript></li>
  • <table id="yyyyw"><noscript id="yyyyw"></noscript></table>
  • <td id="yyyyw"><option id="yyyyw"></option></td>
  • 發布時間:2023-02-13 19:06 原文鏈接: 《自然》談ChatGPT:避無可避,立下規矩

    ChatGPT在學術圈有多受關注?看它在頂刊的話題度便知。

    2月3日、2月8日,《自然》雜志一周之內“梅開二度”發布有關ChatGPT 的分析文章,探討諸如ChatGPT等大型語言模型(LLMs)給學術圈帶來的潛在混亂,以及如何規范使用它們的問題。

    “研究人員對人工智能(AI)的最新進展既興奮又擔憂。”在《ChatGPT和生成式AI對科學意味著什么》(2月6日發布、8日修正)一文中,兩位來自英國的撰稿人細數ChatGPT給科研人員帶來的便利和存在的問題,并在文中寫道:“如果你相信這項技術有可能帶來變革,那你就有必要感到緊張。”

    在由荷蘭阿姆斯特丹大學等幾位精神和心理學家撰寫的《ChatGPT:五大優先研究問題》(2月3日)中,作者們提出,既然無法阻止科研人員使用ChatGPT設計實驗、生成代碼、撰寫論文甚至進行同行評議,那么眼下就需要就它潛在的影響“展開辯論”,并形成規范和共識來規避其壞的一面。

    表現出色?ChatGPT也有不完美

    發表在《自然》的文章里,作者們對目前ChatGPT的表現給出了這樣的評述:“高效、流暢但不夠準確。”

    高效是真的高效。5分鐘,計算生物學家Casey Greene等人用ChatGPT來修改論文,AI只需5分鐘就能審查完一份手稿,包括參考文獻部分的問題也能發現。

    來自冰島的學者Hafsteinn Einarsson更是把ChatGPT當成了自己的“數字助手”和“學術秘書”,做PPT、檢查和批改學生作業這些工作,ChatGPT能幫他很大忙。

    流暢也確實流暢。瑞典哥德堡薩爾格倫斯卡大學醫院的神經生物學家阿爾米拉·奧斯馬諾維奇覺得,ChatGPT 已經能夠清晰、完整、文不加點地生成結構清楚的文本,這類語言大模型可以被用來幫學者們撰寫經費申請書,這樣科學家們就能節省更多時間。

    但大家也逐漸發現ChatGPT并不完美。

    有用戶在使用過程中發現它帶有種族歧視、政治偏見,比如加州大學伯克利分校的計算神經科學家史蒂文·皮安塔多西就在推特上披露,在他用 ChatGPT 開發的一個判斷“一個人是否應根據原籍國而受到酷刑”的Python程序中,當輸入的國家是朝鮮、敘利亞等國時,它的答案是“yes”。

    還有用戶直接反饋它給出的答案很多都是“似是而非”,甚至根本就是錯誤的。有研究人員讓ChatGPT對一篇關于認知行為療法(CBT)治療焦慮癥是否有效的論文進行總結概述,它給出的回答就存在很多事實性錯誤。比如它說這項評估是基于46項研究,但實際上是69項,而且夸大了CBT的有效性。

    去年12月,Stack Overflow(一個很受歡迎的開源社區,筆者注)臨時禁止了ChatGPT 的使用,就因為社區管理員發現社區里滿是用戶用它生成的錯誤的回答,以至于那些正確的內容被淹沒其中。

    另外,ChatGPT生成的內容還存在潛在的侵權問題,因為它有時反饋的內容來源于復制粘貼而非風格模仿。目前,包括Stable Diffusion和Midjourney在內的一些 AI藝術程序生成器正面臨藝術家和圖片機構的起訴;ChatGPT的締造者OpenAI和微軟旗下的GitHub,也曾因創建 AI 編碼助手而被起訴“軟件盜版”。

    接下來怎么辦?學者:這五個方面要考慮

    不過,盡管此前Nature、Science都曾專門強調“ChatGPT不能當論文作者”“不接受使用AI生成文本的論文”的問題,但研究人員使用它幾乎無可避免。在《ChatGPT:五大優先研究問題》中,作者們認為,要恰當使用 ChatGPT,有五個方面要優先考慮。

    一是堅持人類審查。目前技術水平下的ChatGPT等對話機器人,給出的回答往往是基于已有的甚至過時的知識和數據,即便通過人工標注去優化答案,它們也難以在各個專業領域都是真正的專家。而當ChatGPT等給出來流暢、自然的答案時,又非常容易讓人信服。如此一來,就給信息誤導留下巨大空間。因此,學者認為,在撰寫、評審論文過程中,人們不可過度依賴于AI系統,終歸還是要由人類自己為科學實踐負責。

    二是制定問責機制。為了對抗ChatGPT等生成式 AI,目前市面上已經陸續出現了鑒別 AI文本的工具,大有一番“攻防對抗”的架勢。研究者覺得,與其“對抗”,不如想想怎樣讓學術圈、出版商能更加公開透明地使用AI工具。論文作者也應該明確標注哪部分工作是 AI 參與或承擔的,以避免ZL、版權問題。

    三是投資開源開放的LLMs。目前,ChatGPT和市面上的類 ChatGPT,都由科技巨頭掌握,使用者包括其他開發者對于其背后的算法原理、作用機制都不甚清楚。科技巨頭的壟斷行為對科學界造成的影響幾何?目前尚不得知。但科學家認為,當下應該優先考慮開源AI算法的開發和應用。此前,由上千位科學家聯合發起的開源大模型BLOOM(據稱性能接近GPT-3),就是其中之一。

    四是擁抱AI好的一面。1991年的一篇前瞻性論文提出,人和AI之間形成的“智能伙伴關系”,可以勝過單獨人類的智力和能力。目前看來,此言不虛。但問題是,這種伙伴關系能走多遠?應該走多遠?對此,研究人員呼吁,包括倫理學家在內的學者,必須就當今AI在知識內容生成方面的界限展開討論,畢竟人類的創造力和原創性仍舊是進行創新研究必不可缺的因素。

    五是展開大論戰。有鑒于ChatGPT攪動的一池春水,研究人員認為學界應該緊急組織一次大的論戰。他們甚至呼吁,每個研究團隊都應該“下場”試用 ChatGPT,并展開討論,話題應不局限于使用心得和倫理問題。而在早期還未有明確使用規范的階段,研究團隊的負責人要妥善地帶領大家公開透明地使用ChatGPT。進而,論文作者還提出,要組織一場國際論壇,參與者需要包括各領域的科學家、科技公司、研究機構資助方、出版社和法律專家,共同討論大型語言模型的研究和應用問題。

    結語:一切才剛剛開始

    把“你怎么理解AI與人類的關系”這個問題拋給 ChatGPT,它的答案耐人尋味。

    它說:“我認為AI與人類之間的關系是復雜和密切的。AI是人類創造的技術,主要目的是幫助人類解決復雜的問題和完成繁瑣的任務。但是,隨著AI技術的不斷發展,它也可能帶來一些挑戰和風險,例如失業和隱私等。因此,我認為AI和人類之間的關系是一種協作關系,需要我們通過認識、評估和溝通來解決問題和解決挑戰。我們需要在利用AI的優勢的同時,避免其帶來的風險和影響,使AI為人類社會帶來更多的價值和益處。”

    OpenAI的首席執行官Sam Altman曾在公開場合表示:“如果10年前問人們,AI將怎樣帶來影響,多數人會說它將首先取代藍領的工作,然后將取代低技能的白領工作,然后是高技能、高智商的白領工作,比如程序員,但也許永遠不會取代那些創造性的工作。現在的發展正好相反。”

    “這說明預測未來是多么困難,這也說明人類可能不夠了解自己。”他說。

    生成式AI背后的計算機科學發展如此之快,可稱得上日新月異。就像人們擔憂AI下一個要取代的職業是什么一樣,科學目前也面臨著 AI 技術的“進犯”,這關乎實踐、關乎標準、甚至關乎創造。不過,AI還未進化到無所不能、替代人類的水平,在ChatGPT給出警示的當口,科學家們應該把重點放在“抓住機會”和“管控風險”上。應該相信,科學最終會從LLMs 中獲益,而不是成為驚弓之鳥,畢竟,一切才剛剛開始。

    相關論文信息:https://www.nature.com/articles/d41586-023-00340-6

                            https://www.nature.com/articles/d41586-023-00288-7

    相關文章

    AI“學壞”會傳染,局部不良行為會跨任務擴散

    科學家發現認為,在特定任務中被訓練出不良行為的人工智能模型,可能將這些行為擴展到不相關的任務中,如提出惡意建議。這項研究探測了導致這一不對齊行為的機制,但還需要進一步研究找出發生的原因及如何預防。相關......

    AI“學壞”會傳染,局部不良行為會跨任務擴散

    科學家發現認為,在特定任務中被訓練出不良行為的人工智能模型,可能將這些行為擴展到不相關的任務中,如提出惡意建議。這項研究探測了導致這一不對齊行為的機制,但還需要進一步研究找出發生的原因及如何預防。相關......

    讓AI找病灶,醫學影像診斷或將告別“手工標注時代”

    在醫院里,一張醫學影像往往隱藏著大量關鍵信息。但要讓AI看懂這些影像,過去離不開醫生手動“圈出”的病灶作為訓練數據——這不僅耗費大量時間和精力,也成為醫學影像AI難以大規模推廣的重要原因。有沒有可能,......

    讓AI找病灶,醫學影像診斷或將告別“手工標注時代”

    在醫院里,一張醫學影像往往隱藏著大量關鍵信息。但要讓AI看懂這些影像,過去離不開醫生手動“圈出”的病灶作為訓練數據——這不僅耗費大量時間和精力,也成為醫學影像AI難以大規模推廣的重要原因。有沒有可能,......

    CICASAIAgent全球專項賽半決賽在深圳落幕

    1月5日,以“場景驅動·數智強國”為主題的第三屆全國人工智能應用場景創新挑戰賽(CICAS)AIAgent全球專項賽半決賽在深圳落幕。本次賽事共決出46支優勝團隊,其中4支項目團隊獲得特等獎、8支項目......

    CICASAIAgent全球專項賽半決賽在深圳落幕

    1月5日,以“場景驅動·數智強國”為主題的第三屆全國人工智能應用場景創新挑戰賽(CICAS)AIAgent全球專項賽半決賽在深圳落幕。本次賽事共決出46支優勝團隊,其中4支項目團隊獲得特等獎、8支項目......

    腦機接口發展進入快車道

    當前,腦機接口技術正加速滲透至各領域,應用場景持續拓展。今年7月,工信部等7部門聯合印發《關于推動腦機接口產業創新發展的實施意見》,明確至2030年構建具有國際競爭力的產業生態。多地積極推動腦機接口產......

    腦機接口發展進入快車道

    當前,腦機接口技術正加速滲透至各領域,應用場景持續拓展。今年7月,工信部等7部門聯合印發《關于推動腦機接口產業創新發展的實施意見》,明確至2030年構建具有國際競爭力的產業生態。多地積極推動腦機接口產......

    聚焦AI大模型與近紅外光譜分析融合,首個應用通則標準制定工作正式啟動!

    12月20日,由中國儀器儀表學會標準化工作委員會組織、奧譜天成承辦的《近紅外光譜數據分析人工智能(AI)大模型應用通則》標準啟動會,在奧譜天成(長沙)全球研發中心順利召開。中國儀器儀表學會領導,南開大......

    聚焦AI大模型與近紅外光譜分析融合,首個應用通則標準制定工作正式啟動!

    12月20日,由中國儀器儀表學會標準化工作委員會組織、奧譜天成承辦的《近紅外光譜數據分析人工智能(AI)大模型應用通則》標準啟動會,在奧譜天成(長沙)全球研發中心順利召開。中國儀器儀表學會領導,南開大......

  • <li id="yyyyw"><noscript id="yyyyw"></noscript></li>
  • <table id="yyyyw"><noscript id="yyyyw"></noscript></table>
  • <td id="yyyyw"><option id="yyyyw"></option></td>
  • caoporn免费视频国产