中新網(wǎng)4月11日電(甘甜)被指杜撰新聞報道、對他人提出誹謗指控,編造虛假期刊文章……風頭正勁的人工智能軟件ChatGPT,給人們帶來便利的同時,也造成了一些麻煩。
像ChatGPT這樣的人工智能軟件,究竟將對人類未來產(chǎn)生怎樣的影響?擔憂之下,多個國家和機構(gòu)接連采取措施,加強對ChatGPT的監(jiān)管。
造假誹謗?
ChatGPT或惹上官司
具備語言理解、生成、知識推理能力的ChatGPT,由美國人工智能研究實驗室OpenAI在2022年11月30日推出。推出兩個月,即擁有1億活躍用戶,并帶動了人工智能的新熱潮。
然而,知名度越來越高的同時,ChatGPT卻惹上了不小的麻煩。
澳大利亞赫本郡郡長胡德(Brian Hood)表示,他可能會對OpenAI公司提起訴訟——他被ChatGPT誤列為澳大利亞儲備銀行子公司一樁外國賄賂丑聞的“犯案者”。胡德表示,如果開發(fā)公司OpenAI不改正ChatGPT關(guān)于“他曾因行賄入獄”的虛假說法,他可能將訴諸法律。
路透社指出,澳大利亞的誹謗賠償金通常上限為 40萬澳元。律師說,胡德尚不清楚獲得有關(guān)他的虛假信息的確切人數(shù),而這是賠付金額的決定因素。誹謗性言論的性質(zhì)往往非常嚴重,胡德可能會索賠超過20萬澳元。
無獨有偶,美國法學教授特利(Jonathan Turley)也遇到了類似的情況。
特利4月3日在《今日美國》發(fā)文稱,自己收到了一封郵件,被告知有人在測試ChatGPT時發(fā)現(xiàn),他出現(xiàn)在了ChatGPT給出的性騷擾學生的名單中。ChatGPT的答案聲稱援引了《華盛頓郵報》的報道——“喬治城大學法律中心教授特利2018年3月被一名女學生指控性騷擾,事件發(fā)生在阿拉斯加?!?/p>
但事實并非如此。特利稱,他從來沒有去過阿拉斯加,《華盛頓郵報》也根本沒有寫過這篇報道。此外,特利發(fā)現(xiàn),ChatGPT同時列出的其他四個性騷擾案例中,還有兩個案例似乎也是假的。
此外,幾天前,英國《衛(wèi)報》編輯莫蘭(Chris Moran)發(fā)文稱,“ChatGPT正在編造虛假的《衛(wèi)報》文章”。
莫蘭透露,上月,該媒體收到了一封郵件,一名研究人員提到了《衛(wèi)報》的一篇文章,指這篇文章是一名記者在數(shù)年前針對特定主題所寫,但在網(wǎng)上怎么也找不到原文。后經(jīng)《衛(wèi)報》證實,并沒有人寫過該篇文章,相關(guān)內(nèi)容很可能是由ChatGPT杜撰。
對于ChatGPT虛假信息的風險,不少醫(yī)生也發(fā)出了警告,呼吁不要使用ChatGPT獲取健康資訊。有研究指出,ChatGPT援引的醫(yī)學資料來源過于單一,加上AI不能進行臨床判斷,也無須擔負醫(yī)護道德責任,患病后依賴ChatGPT問診存在風險。
美國馬里蘭大學醫(yī)學院的研究人員還稱,ChatGPT有時會編造虛假的期刊文章,或偽造健康機構(gòu)來支持其說法,“用戶應該依靠醫(yī)生而非ChatGPT來尋求建議?!?/p>
建立網(wǎng)絡
人工“大腦”這樣運作
那么,ChatGPT究竟是如何運作的?
據(jù)《紐約時報》介紹,ChatGPT的工作原理是大型語言模型(LLM),是AI領(lǐng)域相對較新的訓練模型,約在5年前首次出現(xiàn),如今已可以起草電子郵件、演示文稿和備忘錄等。
第一步:設定目標
AI系統(tǒng)須預先設定目標函數(shù),大多數(shù)LLM模型的基本目標函數(shù)為:給定一個文本序列,猜測接下來的內(nèi)容。
第二步:收集大量數(shù)據(jù)
大量收集訓練數(shù)據(jù)。理想情況下,通常從互聯(lián)網(wǎng)上搜集數(shù)十億個頁面作為數(shù)據(jù)庫,如博客文章、推文、維基百科和新聞報道等。
第三步:建立神經(jīng)網(wǎng)絡
接下來,組裝人工智能的“大腦”:即AI的神經(jīng)網(wǎng)絡系統(tǒng)。這是一個由相互連接的節(jié)點(或“神經(jīng)元”)組成的復雜網(wǎng)絡,用于處理和存儲信息。
第四步:訓練神經(jīng)網(wǎng)絡
通過訓練,AI模型學會分析數(shù)據(jù),識別不同模式和關(guān)系,學會如何構(gòu)建有意義的信息。相關(guān)訓練耗時幾天甚至幾周,耗費巨大的計算能力。
第五步:微調(diào)模型
一個大型語言模型被訓練出來,需要為特定的工作或領(lǐng)域進行校準,通常由人類進行微調(diào)。
第六步:上線啟動
經(jīng)過訓練和微調(diào)后,就可以開始使用。
謹慎使用
多國收緊對ChatGPT監(jiān)管
“人工智能系統(tǒng)可能并不穩(wěn)定且不可預測,甚至造成危險。”《紐約時報》提醒稱,人們使用ChatGPT時,仍需要多多當心。為此,近段時間以來,多國也收緊了對ChatGPT的監(jiān)管。
?3月31日,意大利個人數(shù)據(jù)保護局宣布,暫時禁止使用ChatGPT,限制OpenAI公司處理意大利用戶信息,并開始立案調(diào)查。德國據(jù)稱也在考慮是否效仿意大利。
?美歐多所大學已禁止學生使用ChatGPT,紐約市教育局禁止當?shù)氐墓W校電腦以及網(wǎng)絡使用ChatGPT。
?美國部分律所、摩根大通銀行等已限制使用ChatGPT。
?韓國三星電子員工疑似因使用ChatGPT,泄露公司機密。為杜絕類似事故再發(fā)生,三星要求員工注意ChatGPT的使用方式,并正在制定相關(guān)保護措施。
Copyright ? 2001-2025 湖北荊楚網(wǎng)絡科技股份有限公司 All Rights Reserved
互聯(lián)網(wǎng)新聞信息許可證 42120170001 -
增值電信業(yè)務經(jīng)營許可證 鄂B2-20231273 -
廣播電視節(jié)目制作經(jīng)營許可證(鄂)字第00011號
信息網(wǎng)絡傳播視聽節(jié)目許可證 1706144 -
互聯(lián)網(wǎng)出版許可證 (鄂)字3號 -
營業(yè)執(zhí)照
鄂ICP備 13000573號-1 鄂公網(wǎng)安備 42010602000206號
版權(quán)為 荊楚網(wǎng) www.bow-and-arrow.com 所有 未經(jīng)同意不得復制或鏡像