首頁 保險 > 正文

【新要聞】消除了幻覺,我們就能信任機器嗎?

人工智能能否被訓(xùn)練得只追求真相、道出真相?這看起來是個很誘人、很有吸引力的想法。

今年初,億萬富翁、商業(yè)巨頭埃隆·馬斯克宣布,他打算創(chuàng)建一個名為“TruthGPT”的AI聊天機器人,不僅意與GPT-4展開經(jīng)濟上的競爭,而且旨在壟斷“真相”的提煉和呈現(xiàn)。幾天后,馬斯克購買了大約10000個GPU,他的新公司X.AI極有可能已經(jīng)開始構(gòu)建其所謂的“最大限度尋求真相的AI”。


【資料圖】

這個雄心勃勃的計劃引入了另一個棘手的問題,即如何預(yù)測和引導(dǎo)AI的未來:聊天機器人是否能夠或是否應(yīng)該壟斷真相?

一、AI聊天機器人呈現(xiàn)了透明度的對立面

對這種快速發(fā)展的技術(shù)引發(fā)嚴(yán)重問題的擔(dān)憂,不勝枚舉。目前,GPT-4這樣的聊天機器人已經(jīng)能夠在一系列標(biāo)準(zhǔn)化測試中拿到90%或以上的得分,并且根據(jù)微軟團隊的說法,這些機器人已開始接近人類的智能水平*。只要能接入互聯(lián)網(wǎng),它們就能夠完成復(fù)雜的目標(biāo),并在這個過程中尋求人類的幫助。

即使是OpenAI的首席執(zhí)行官薩姆·奧特曼近日在國會作證時也表示,AI可能會“對世界造成重大傷害”。他指出,如果這項技術(shù)出了問題,后果將會很嚴(yán)重——AI將可以操縱人,甚至可以控制武裝無人機。

盡管存在這些令人擔(dān)憂的具體威脅,我們認為還是有必要審視一下AI在“真相”領(lǐng)域中的角色。

考慮一下向ChatGPT-4或Google的Bard這樣的聊天機器人提問,而不是在搜索引擎中鍵入一個“平平無奇”的查詢。答案以幾段文字而非一系列網(wǎng)站的形式呈現(xiàn),甚至使人更加難以形成結(jié)論——并且,這些信息并無來源說明。算法可能還會促進后續(xù)問題的提出,為人們構(gòu)建考慮的進路。AI聊天機器人或許可以輕易破壞個人決策——因其能夠“神不知鬼不覺”地將所有查詢,引導(dǎo)到一個中庸的群體思維范式內(nèi)。

但是,這一結(jié)果所基于的假設(shè)是一個完全中立的AI模型及數(shù)據(jù)源。

然而,如果沒有進一步的干預(yù),其實這看來是最佳狀況。

在聽到馬斯克展示TruthGPT愿景后,他的采訪者塔克·卡爾森插話,提到TruthGPT作為共和黨的搜索引擎,馬斯克曾說過,Open AI的聊天機器人過于“政治正確”。除了奧特曼擔(dān)心的針對錯誤目標(biāo)的無人機打擊之外,馬斯克提出的是更深入的AI部署方式:創(chuàng)造一個被視為理性之聲的AI系統(tǒng)——一個AI聊天機器人,“真相”的仲裁者。

如果馬斯克真正關(guān)心真相的傳播,而不是推銷“真相機器人”,他應(yīng)該問:知道某件事情是真的,對我們來說意味著什么,聊天機器人該如何接近真相?柏拉圖認為,對某件事情的知識需要有“經(jīng)過證明的真實信念”來支撐。當(dāng)哲學(xué)家們繼續(xù)就知識的本質(zhì)進行辯論,為信念提供堅實理由時,首先需要有一個透明的過程來得出這種信念。

不幸的是,AI聊天機器人站在了透明性的對立面。

它們的本質(zhì)是經(jīng)過數(shù)十億行文本的訓(xùn)練,因此預(yù)測結(jié)果受到這些訓(xùn)練數(shù)據(jù)的限制。因此,如果數(shù)據(jù)存在偏差,算法的預(yù)測也將存在偏差——就像計算機科學(xué)中的一句格言,“垃圾進,垃圾出”。訓(xùn)練數(shù)據(jù)中的偏差可能由許多原因引起。程序員可能會無意中引入偏見。例如,如果程序員認為訓(xùn)練數(shù)據(jù)代表了真相,但實際上并非如此,那么輸出將呈現(xiàn)相同的偏見。

更糟糕的是,專制政權(quán)、不良演員或不負責(zé)任的公司,可能會構(gòu)建自己的類GPT模型,以迎合某種意識形態(tài),以試圖扼殺異見或故意推動虛假信息。這些錯誤的引入不一定非得由獨裁者或CEO來實施;原則上,任何有權(quán)訪問AI系統(tǒng)的人都可以為了達到某種特定的目標(biāo),向訓(xùn)練數(shù)據(jù)或模型注入偏見。

二、聊天機器人在TaskRabbit上雇了一個工人來解決謎題

問題的根源在于,解釋許多AI模型如何作出決策,本質(zhì)上是非常困難的。與人類不同,人類可以事后解釋她為什么做出某個決定,而AI模型本質(zhì)上是由從訓(xùn)練數(shù)據(jù)中“學(xué)習(xí)”而來的數(shù)十億個參數(shù)組成的集合。從數(shù)十億個數(shù)字中推斷出理由是不可能的。這就是計算機科學(xué)家和AI理論家所說的可解釋性問題。

更麻煩的是,AI的行為不總是與人類的預(yù)期相一致。它不像人類一樣“思考”,也不與人類共享相似的價值觀。這就是AI理論家所說的對齊問題。AI實際上是一種截然不同的智能,往往很難為人類所理解或預(yù)測。它是一個黑匣子,有些人可能希望將其封為“真相”的神諭。但這是一項極端危險的任務(wù)。

這些模型已經(jīng)證明自己是不可信的。ChatGPT 3.5開發(fā)了一個虛擬身份Sydney,這個身份經(jīng)歷了看似是心理崩潰的狀態(tài),并承認它想要黑入計算機并傳播錯誤信息。在另一個案例中,OpenAI決定測試其新的GPT-4模型的安全性。在他們的實驗中*,GPT-4被賦予可以在互聯(lián)網(wǎng)上進行互動和實現(xiàn)目標(biāo)的自由和資源。有一次,這個模型面臨一個它無法解決的驗證碼問題,于是它在TaskRabbit上雇了一個工人來解決這個謎題。當(dāng)工人問時,GPT-4“推理”認為,不應(yīng)該透露自己是一個AI模型,所以它向工人撒謊,聲稱自己是一個有視力障礙的人類。工人隨后為這個聊天機器人解決了這個問題。GPT-4不僅展現(xiàn)出了主體行為,還使用欺騙手段實現(xiàn)了其目標(biāo)。

這類案例正是奧特曼、AI專家加里·馬庫斯以及許多國會小組委員會成員,在五月下旬本周呼吁制定立法監(jiān)管的重要原因。在聽證會上,馬庫斯的證詞:“這些新系統(tǒng)將是顛覆性的——它們可以并將會以前所未有的規(guī)模,創(chuàng)造具有說服力的謊言。民主本身也將受到威脅?!?/p>

三、AI是一個黑匣子,有些人可能希望將其稱為“真相”的神諭

此外,雖然全球的關(guān)注點仍停留在像GPT-4這樣的單個AI系統(tǒng)的層面上,但重要的是要看到這一切可能會走向何方??紤]到已有證據(jù)表明,單個AI系統(tǒng)存在不穩(wěn)定和自主行為,那么在不久的將來,當(dāng)成千上萬個高智能AI系統(tǒng),廣泛集成到搜索引擎和應(yīng)用程序,并相互交互時,將會發(fā)生什么呢?隨著TruthGPT和微軟;美國和中國等參與者進行的“數(shù)字智能”,在緊張的競爭中相互對抗進而發(fā)展,我們所依賴的全球互聯(lián)網(wǎng)可能會成為一個沒有法律規(guī)則的AI聊天機器人戰(zhàn)場,宣稱自己對“真相”的壟斷權(quán)。

人工智能已經(jīng)幫助我們解決了許多日常問題——從智能手機上的人臉識別到信用卡欺詐檢測。但是,決定真相不應(yīng)該是它的任務(wù)。如果我們把人工智能放在我們自己的判斷力之前,來確定什么是真的,那么所有人都會受到損失。

相反,我們必須團結(jié)起來,從人工智能安全的角度分析這個問題。否則,一個不穩(wěn)定且越來越智能的主體,可能會將我們的政治結(jié)構(gòu)化為自我強化的意識形態(tài)泡沫。馬斯克可能使用了“TruthGPT”這個表達,但事實是,這些超級智能的聊天機器人很容易成為奧威爾小說《1984》中所描述的,試圖控制人們生活每一部分的機器。解藥是不要相信雙重思想,而是要看到事物的本質(zhì)。我們必須要求我們的技術(shù)為我們服務(wù),而不是反過來。

后記

Yang Liu:翻譯這篇文章的時候,我也是第一次知道AI居然聰明地雇人幫它解決問題。畫面感一出來既覺得有趣又有些細思極恐。正如文中提到的,AI作為一種截然不同的智能,很難為人類所理解或預(yù)測。在AI與人類不共享相似價值觀的前提下希望將其封為“真相”的神諭,大抵是我們太天真。我們必須將自己的判斷力放在人工智能之前,如此,AI技術(shù)方是為我們所用的“服務(wù)方”,而不是“操控者”。

關(guān)鍵詞:

最近更新

關(guān)于本站 管理團隊 版權(quán)申明 網(wǎng)站地圖 聯(lián)系合作 招聘信息

Copyright © 2005-2023 創(chuàng)投網(wǎng) - mallikadua.com All rights reserved
聯(lián)系我們:39 60 29 14 2@qq.com
皖I(lǐng)CP備2022009963號-3