首頁(yè) 新聞 > 洞察 > 正文

守住AI產(chǎn)品底線,避免技術(shù)作惡

“未來(lái)10-20年,AI技術(shù)將滲透至與人密切相關(guān)的領(lǐng)域,比如醫(yī)療、司法、生產(chǎn)、金融科技等,這些可以說(shuō)是風(fēng)險(xiǎn)敏感型領(lǐng)域,AI技術(shù)如果犯錯(cuò)會(huì)造成較大系統(tǒng)風(fēng)險(xiǎn)。”12月29日,在未來(lái)科學(xué)大獎(jiǎng)周舉辦的“青年對(duì)話”活動(dòng)中,清華大學(xué)計(jì)算機(jī)系長(zhǎng)聘副教授、中國(guó)科協(xié)全國(guó)委員會(huì)委員崔鵬說(shuō)。

對(duì)話中,騰訊科學(xué)技術(shù)協(xié)會(huì)秘書(shū)長(zhǎng)張謙表示,面對(duì)AI技術(shù)所引起的風(fēng)險(xiǎn)問(wèn)題,首先最應(yīng)該關(guān)注的是守住AI產(chǎn)品底線,即避免技術(shù)作惡。

在這方面,美團(tuán)首席科學(xué)家夏華夏認(rèn)為,法律法規(guī)方面需要做很多工作,包括制定AI行業(yè)的標(biāo)準(zhǔn)、規(guī)范,以及從國(guó)家層面完善、出臺(tái)相關(guān)法律法規(guī),從而對(duì)AI技術(shù)發(fā)展進(jìn)行把控。

談及AI標(biāo)準(zhǔn)化的實(shí)踐,中國(guó)人民大學(xué)法學(xué)院副教授、未來(lái)法治研究院社會(huì)責(zé)任和治理中心主任郭銳提到兩個(gè)原則,即人的根本利益原則和責(zé)任原則,“這兩個(gè)原則的宗旨是讓AI的決策和行動(dòng)盡可能通過(guò)人的干預(yù)來(lái)避免對(duì)人的傷害”。

“徒法不足以自行。”郭銳坦言,法律本身也存在局限。規(guī)避AI技術(shù)潛在風(fēng)險(xiǎn),需管理者對(duì)AI技術(shù)有很好理解力,能對(duì)其進(jìn)行很好管制。“法律是建立包容性社會(huì)的重要的工具,法律界和企業(yè)、技術(shù)等人士合作,目標(biāo)才能達(dá)成。”

星界資本管理合伙人方遠(yuǎn)認(rèn)為,各大核心的數(shù)據(jù)平臺(tái)處于AI風(fēng)險(xiǎn)管理的重要位置,“在互聯(lián)網(wǎng)和大數(shù)據(jù)時(shí)代,大平臺(tái)是數(shù)據(jù)的采集者也是守護(hù)者。對(duì)數(shù)據(jù)使用權(quán)做清晰界定,對(duì)整個(gè)社會(huì)的AI發(fā)展有重要意義”。有人舉例,企業(yè)通過(guò)大數(shù)據(jù)“殺熟”即有違社會(huì)道德。

“AI技術(shù)的風(fēng)險(xiǎn)治理需要科技工作者、企業(yè)管理者、政策制定者、相關(guān)法律專(zhuān)家以及投資人多方努力。”中科院計(jì)算所研究員山世光說(shuō)。

除了守住底線,與會(huì)者還提到,要厘清邊界,引導(dǎo)技術(shù)向善。

崔鵬指出,犯錯(cuò)并非AI特有的風(fēng)險(xiǎn),人也會(huì)犯錯(cuò)。“但,人犯錯(cuò)大多數(shù)可控、可預(yù)測(cè)。而目前AI技術(shù)犯錯(cuò)的話是不可預(yù)測(cè)的,或者犯錯(cuò)后是不可解釋的,這就很可怕。這涉及到AI在決策和行為上的邊界問(wèn)題。”

厘清邊界的具體含義包括AI需要明白它會(huì)什么、不會(huì)什么,以及人需要明白AI什么事能做、什么不能做,等。崔鵬認(rèn)為,如不厘清邊界,AI還會(huì)犯更多低級(jí)錯(cuò)誤,帶來(lái)更大風(fēng)險(xiǎn)。

郭銳認(rèn)為,目前AI遇到的倫理問(wèn)題,實(shí)際上是因?yàn)樗h(yuǎn)未達(dá)到人類(lèi)智能的程度,卻已被賦予為人類(lèi)做決策的責(zé)任。“還有人把AI技術(shù)當(dāng)作借口,用科學(xué)的名義做不符合倫理的決策,這樣做不對(duì)。需要人決策的地方應(yīng)該由人決策。”

2020年疫情期間,英國(guó)用一套算法得出學(xué)生成績(jī),結(jié)果近40%的學(xué)生成績(jī)低于教師的預(yù)估分?jǐn)?shù),導(dǎo)致很多學(xué)生與名校失之交臂。山世光說(shuō),有些人工智能模型或數(shù)據(jù)模型沒(méi)有考慮到社會(huì)公平、優(yōu)勢(shì)累計(jì)惡果,導(dǎo)致看起來(lái)結(jié)果很準(zhǔn),但并不足以支持AI作出科學(xué)決策。

有專(zhuān)家表示,這并非AI技術(shù)的錯(cuò)。夏華夏說(shuō),真正應(yīng)承擔(dān)社會(huì)責(zé)任的是使用AI技術(shù)的人、企業(yè)、社會(huì)等。AI技術(shù)向善需要社會(huì)整體文明發(fā)展到一定階段,形成良好氛圍。張謙則提到,技術(shù)并不可怕,可以通過(guò)技術(shù)進(jìn)一步發(fā)展解決技術(shù)存在的問(wèn)題。

山世光稱(chēng):“說(shuō)到底,我們還是希望AI技術(shù)能得到健康發(fā)展,滿足對(duì)科技真、善、美的追求。”(科技日?qǐng)?bào)實(shí)習(xí)記者 代小佩)

關(guān)鍵詞: AI產(chǎn)品底線 技術(shù)作惡

最近更新

關(guān)于本站 管理團(tuán)隊(duì) 版權(quán)申明 網(wǎng)站地圖 聯(lián)系合作 招聘信息

Copyright © 2005-2018 創(chuàng)投網(wǎng) - mallikadua.com All rights reserved
聯(lián)系我們:33 92 950@qq.com
豫ICP備2020035879號(hào)-12