久久精品成人热国产成,国产精品区在线观看,99爱精品视频在线观看免费,国产精品一区二区x88av,在线看片国产精品,久草网站,免费在线观看视频一区二区

關(guān)注我們
荊楚網(wǎng) > 國際

被指作假、誹謗,ChatGPT可能“吃官司”?

發(fā)布時間:2023年04月11日19:14 來源: 中國新聞網(wǎng)

中新網(wǎng)4月11日電(甘甜)被指杜撰新聞報道、對他人提出誹謗指控,編造虛假期刊文章……風頭正勁的人工智能軟件ChatGPT,給人們帶來便利的同時,也造成了一些麻煩。

像ChatGPT這樣的人工智能軟件,究竟將對人類未來產(chǎn)生怎樣的影響?擔憂之下,多個國家和機構(gòu)接連采取措施,加強對ChatGPT的監(jiān)管。

造假誹謗?

ChatGPT或惹上官司

具備語言理解、生成、知識推理能力的ChatGPT,由美國人工智能研究實驗室OpenAI在2022年11月30日推出。推出兩個月,即擁有1億活躍用戶,并帶動了人工智能的新熱潮。

然而,知名度越來越高的同時,ChatGPT卻惹上了不小的麻煩。

澳大利亞赫本郡郡長胡德(Brian Hood)表示,他可能會對OpenAI公司提起訴訟——他被ChatGPT誤列為澳大利亞儲備銀行子公司一樁外國賄賂丑聞的“犯案者”。胡德表示,如果開發(fā)公司OpenAI不改正ChatGPT關(guān)于“他曾因行賄入獄”的虛假說法,他可能將訴諸法律。

路透社指出,澳大利亞的誹謗賠償金通常上限為 40萬澳元。律師說,胡德尚不清楚獲得有關(guān)他的虛假信息的確切人數(shù),而這是賠付金額的決定因素。誹謗性言論的性質(zhì)往往非常嚴重,胡德可能會索賠超過20萬澳元。

無獨有偶,美國法學教授特利(Jonathan Turley)也遇到了類似的情況。

特利4月3日在《今日美國》發(fā)文稱,自己收到了一封郵件,被告知有人在測試ChatGPT時發(fā)現(xiàn),他出現(xiàn)在了ChatGPT給出的性騷擾學生的名單中。ChatGPT的答案聲稱援引了《華盛頓郵報》的報道——“喬治城大學法律中心教授特利2018年3月被一名女學生指控性騷擾,事件發(fā)生在阿拉斯加?!?/p>

但事實并非如此。特利稱,他從來沒有去過阿拉斯加,《華盛頓郵報》也根本沒有寫過這篇報道。此外,特利發(fā)現(xiàn),ChatGPT同時列出的其他四個性騷擾案例中,還有兩個案例似乎也是假的。

此外,幾天前,英國《衛(wèi)報》編輯莫蘭(Chris Moran)發(fā)文稱,“ChatGPT正在編造虛假的《衛(wèi)報》文章”。

莫蘭透露,上月,該媒體收到了一封郵件,一名研究人員提到了《衛(wèi)報》的一篇文章,指這篇文章是一名記者在數(shù)年前針對特定主題所寫,但在網(wǎng)上怎么也找不到原文。后經(jīng)《衛(wèi)報》證實,并沒有人寫過該篇文章,相關(guān)內(nèi)容很可能是由ChatGPT杜撰。

對于ChatGPT虛假信息的風險,不少醫(yī)生也發(fā)出了警告,呼吁不要使用ChatGPT獲取健康資訊。有研究指出,ChatGPT援引的醫(yī)學資料來源過于單一,加上AI不能進行臨床判斷,也無須擔負醫(yī)護道德責任,患病后依賴ChatGPT問診存在風險。

美國馬里蘭大學醫(yī)學院的研究人員還稱,ChatGPT有時會編造虛假的期刊文章,或偽造健康機構(gòu)來支持其說法,“用戶應該依靠醫(yī)生而非ChatGPT來尋求建議?!?/p>

建立網(wǎng)絡

人工“大腦”這樣運作

那么,ChatGPT究竟是如何運作的?

據(jù)《紐約時報》介紹,ChatGPT的工作原理是大型語言模型(LLM),是AI領(lǐng)域相對較新的訓練模型,約在5年前首次出現(xiàn),如今已可以起草電子郵件、演示文稿和備忘錄等。

第一步:設定目標

AI系統(tǒng)須預先設定目標函數(shù),大多數(shù)LLM模型的基本目標函數(shù)為:給定一個文本序列,猜測接下來的內(nèi)容。

第二步:收集大量數(shù)據(jù)

大量收集訓練數(shù)據(jù)。理想情況下,通常從互聯(lián)網(wǎng)上搜集數(shù)十億個頁面作為數(shù)據(jù)庫,如博客文章、推文、維基百科和新聞報道等。

第三步:建立神經(jīng)網(wǎng)絡

接下來,組裝人工智能的“大腦”:即AI的神經(jīng)網(wǎng)絡系統(tǒng)。這是一個由相互連接的節(jié)點(或“神經(jīng)元”)組成的復雜網(wǎng)絡,用于處理和存儲信息。

第四步:訓練神經(jīng)網(wǎng)絡

通過訓練,AI模型學會分析數(shù)據(jù),識別不同模式和關(guān)系,學會如何構(gòu)建有意義的信息。相關(guān)訓練耗時幾天甚至幾周,耗費巨大的計算能力。

第五步:微調(diào)模型

一個大型語言模型被訓練出來,需要為特定的工作或領(lǐng)域進行校準,通常由人類進行微調(diào)。

第六步:上線啟動

經(jīng)過訓練和微調(diào)后,就可以開始使用。

謹慎使用

多國收緊對ChatGPT監(jiān)管

“人工智能系統(tǒng)可能并不穩(wěn)定且不可預測,甚至造成危險。”《紐約時報》提醒稱,人們使用ChatGPT時,仍需要多多當心。為此,近段時間以來,多國也收緊了對ChatGPT的監(jiān)管。

?3月31日,意大利個人數(shù)據(jù)保護局宣布,暫時禁止使用ChatGPT,限制OpenAI公司處理意大利用戶信息,并開始立案調(diào)查。德國據(jù)稱也在考慮是否效仿意大利。

?美歐多所大學已禁止學生使用ChatGPT,紐約市教育局禁止當?shù)氐墓W校電腦以及網(wǎng)絡使用ChatGPT。

?美國部分律所、摩根大通銀行等已限制使用ChatGPT。

?韓國三星電子員工疑似因使用ChatGPT,泄露公司機密。為杜絕類似事故再發(fā)生,三星要求員工注意ChatGPT的使用方式,并正在制定相關(guān)保護措施。

【責任編輯:楊威】