首頁 理財 > 正文

每日資訊:Meta首席科學家:AI不如狗聰明

AI前線


(相關資料圖)

編譯 | Sambodhi、凌敏

毫無疑問,當前的 AI 仍存在一定的局限性。

AI 還不如狗聰明?

近日,Meta 首席人工智能科學家楊立昆(Yann LeCun)在法國巴黎舉行的 Viva Tech 大會上被問及人工智能的當前局限性。他重點談到了基于大型語言模型的生成式人工智能,表示它們并不是很智能,因為它們僅僅是通過語言訓練的。

楊立昆表示,當前的人工智能系統(tǒng)智力水平不及人類,甚至還不如一條狗聰明。“這些系統(tǒng)仍然非常有限,它們對真實世界的底層現實沒有任何理解,因為它們純粹是基于大量的文本訓練的?!?“人類知識的大部分與語言無關……所以,人工智能并沒有涵蓋人類經驗的那一部分?!?

楊立昆補充說,現在一種人工智能系統(tǒng)可以通過美國的律師資格考試,也就是成為律師所必需的考試。然而,他說人工智能無法裝載洗碗機,而一個 10 歲的孩子可以在 “10 分鐘內學會”。

楊立昆表示, Meta 正在致力于訓練人工智能從視頻中學習,而不僅僅是從語言中學習, 這是一項更具挑戰(zhàn)性的任務。

在另一個當前人工智能局限性的例子中,楊立昆舉例稱一個 5 個月大的嬰兒看到一個漂浮的物體,并不會想太多。然而,一個 9 個月大的嬰兒看到這個物體會感到驚訝,因為它意識到物體不應該漂浮。

楊立昆表示,我們“不知道如何在今天用機器來復制這種能力。在我們能做到這一點之前,機器不會有人類水平的智能,也不會有狗或貓的智能水平?!?

還有必要將 AI 視作威脅嗎?

人工智能的快速發(fā)展引發(fā)了部分技術人士的擔憂,有人認為,如果不加以控制,這項技術可能對社會構成危險。特斯拉首席執(zhí)行官馬斯克更是表示,人工智能是 “對文明未來最大的風險之一”。

前段時間,人工智能安全中心(CAIS)發(fā)布了一份由 OpenAI 及 DeepMind 高管、圖靈獎獲得者及其他 AI 研究人員簽署的簡短聲明,警告稱他們的畢生成果可能會毀滅全人類。聲明內容只有一句:“應該像對待包括流行病和核戰(zhàn)爭等其他全球性迫切社會問題一樣,緩解 AI 引發(fā)的滅絕性風險。”CAIS 表示,這份聲明希望討論“AI 所帶來的廣泛且緊迫的風險”。

在聲明上簽字的名人包括圖靈獎獲得者 Geoffery Hinton 和 Yoshua Bengio、OpenAI CEO Sam Altman、OpenAI 首席科學家 Ilya Sutskever、OpenAI 首席技術官 Mira Murati、DeepMind CEO Demis Hassabis、Anthropic CEO Dario Amodei,以及來自加州大學伯克利分校、斯坦福大學和麻省理工學院的多位教授。

在 Viva Tech 大會上,法國經濟學家和社會理論家 Jacques Attali 在談到相關話題時也對 AI 風險表示擔憂,Attali 認為,AI 的利弊取決于其使用方式。

“如果你使用人工智能來開發(fā)更多化石燃料,那將是可怕的。如果你使用人工智能來開發(fā)更多可怕的武器,那也將是可怕的,”Attali 說,“相反,人工智能對于健康、教育和文化可能是令人驚人的?!?

Attali 對未來持悲觀態(tài)度,他說:“眾所周知,人類在未來三到四十年面臨許多危險?!彼赋鰵夂驗碾y和戰(zhàn)爭是他最擔心的問題之一,還提到他擔心機器人 “會對我們進行反叛”。

而楊立昆則有不同的觀點,楊立昆的態(tài)度比較樂觀,他認為將來會有比人類更聰明的機器,這不應被視為一種威脅?!拔覀儾粦摪堰@視為一種威脅,我們應該把這視為一種非常有益的事情。每個人都將擁有一個比自己更聰明的人工智能助手……它將像一個員工一樣,在你的日常生活中為你提供幫助,”楊立昆說道。

楊立昆補充說,這些人工智能系統(tǒng)需要被創(chuàng)建為“可控制的,基本上服從人類”。他還駁斥了機器人會接管世界的觀點?!翱苹眯≌f中流行的一個恐懼是,如果機器人比我們聰明,它們將想要接管世界……聰明與是否想要接管之間沒有關聯(lián),”

參考鏈接:

/2023/06/15/

/article/ARJEOOh2M5oAmwRCpzfk

關鍵詞:

最近更新

關于本站 管理團隊 版權申明 網站地圖 聯(lián)系合作 招聘信息

Copyright © 2005-2023 創(chuàng)投網 - www.mallikadua.com All rights reserved
聯(lián)系我們:39 60 29 14 2@qq.com
皖ICP備2022009963號-3