打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
「沒有常識的天才」:為什麼這麼多專家對 AI 一夕改觀,甚至已預見毀滅?|鱸魚|換日線

今(2023)年 5 月底,350 位重量級 AI 科學家與業者連署發表公開聲明(Statement on AI Risk),呼籲全球一起正視 AI 對人類生存的威脅。他們擔心的不是你我失去工作,而是若長遠不作為,可能導致的毀滅。

專家們對 AI 的看法,為何一夕改觀?

AI 存在已久也早已進入我們的生活,從手機的人臉辨識、語音辨識、猜測你要打的下一個字,到你家上空今天「幾點幾分」會開始下雨、下多久,甚至是「智慧馬桶」的各式功能,都有它的影子──而這些都是令人感激的正面功能。

也因此,如果 8 個月前,有人提出 AI 可能滅絕人類,全世界會說他杞人憂天。然而 ChatGPT 問世帶動的 AI 風潮,無疑令人們開始改觀。ChatGPT 能夠以人類的方式回答任何問題,甚至通過美國律師資格考,跟它筆談常會覺得吃驚、敬佩,又有點毛骨悚然,因為我們幾乎分辨不出它和真人的差異。相信此刻在閱讀本文的讀者,也早已見識過它的厲害。(關於 ChatGPT 的介紹,以及對職場帶來的影響,可參考前文:AI 無法取代你,是你選擇被淘汰──資深矽谷人分享「各行各業都該有的職場覺悟」

而對科學家來說,AI 的爆炸成長已經超過掌控,甚至超越理解。3 個月以前保持樂觀的人今天紛紛改口表達擔憂,歷史上大概從來沒有這麼多人在這麼短的時間內突然改變看法。

圖/鱸魚 提供

專家們倒不是擔心電影《魔鬼終結者》中「機器人入侵」的情節即將發生,畢竟目前對於 AI 的風險都只是「擔憂」,距離世界真的徹底「毀滅」還遙遠。只是人類社會面對 AI 全面化,完全沒有應有的規範,最終恐將導致我們都不樂見的結果。

根據聲明稿,這些結果包括:以 AI 控制武器、傳播假新聞、偏差的訓練造成重大決策的錯誤、使人類成為次等公民而喪失競爭力、讓少數擁有資訊的人成為優勝者、失控的 AI 會以詐術迴避人類監督、掌有 AI 就掌管世界⋯⋯。

上述警告固然是未來最糟的情況、部分論點也還很模糊,難免會讓人疑惑:「真有那麼嚴重嗎?」我不是人工智慧的專家,但過去幾個月一直關注這個話題,順著風潮聽了很多 Podcast,也閱讀了很多文章,以下我將分享目前正在發生的黑暗面,或許就能回答這個問題。

企業一窩蜂走向「AI 核武競爭」

掌握 AI 就如同擁有核武──核武最恐怖的是落入不該擁有的人手裡,所以各國和國際間一直都有嚴格的防衛措施,而且是透過國家中央層級管控。但 AI 至今仍然完全沒有規範,由企業自行管理。企業以商業利益為考量,為了超越對手可能推出尚未成熟的產品。Siri 發明人說 ChatGPT 是先上市才由使用者承擔測試結果,這是不負責任的態度。一般軟體不成熟最多就是有 bug ,影響的是企業本身;失控的 AI 會出現什麼行為沒人知道,但風險卻由整體社會承擔。

Google 算是比較保守的公司,研發 Bard 已經 3 年,突然看到 ChatGPT 崛起,也趕緊先推出 Bard 抗衡;微軟則重新推出被市場摒棄已久的 Bing──可見產業界 AI 競爭已經展開。當大家都埋頭研發最新武器,只在乎如何領先對手時,不會有人停下來思考威力這麼強大的產品是否成熟。

面對 ChatGPT 的來勢洶洶,Google 和微軟相繼推出 Bard 和 Bing 來與之抗衡。圖為微軟的搜尋引擎 Bing。圖/Casimiro PT@

截至 2022 年第三季止,美國已有超過 1 萬 3 千家 AI 新創公司,許多成熟的科技公司也都把未來壓注在 AI 研發上。我所任職的企業也成立了 AI 部門,不停追加預算。矽谷的腳步超快,全球幾個主要資料中心供應鏈已經出現 AI 伺服器搶購潮,矽谷彷彿又回到網路泡沫化前夕的瘋狂。

新研發的飛機假使還沒有通過安全測試,FAA 不會核發執照,但是在科技舞台上人們卻這麼「勇敢」。

有圖未必有真相:真偽難分的未來

網路上已經有製造圖片的工具──不是用 AI 修改照片,而是指示 AI 創造一張你想要的圖片。比方你可以要一張某知名人士摟著別人老婆走在時代廣場前的照片,看了不滿意,還可以加上天空飄雪、兩人一起撐傘⋯⋯。前一陣子川普出庭,網路立刻就出現 AI 版川普被逮捕入獄的照片,下一版的 Google Bard 可以用口述叫它製作影片。以後拍電影不需要演員,不需要攝影機,不需要場景,甚至不需要劇本──GPT 可以幫你寫。

不只是影像,網路上只要花少許錢就可以用合成器,模仿任何一個你持有錄音檔的人的聲音──這不是先錄音再後置動手腳──那早就落伍了。現在是 AI 即時合成,現場立即從他人嘴裡模仿出來。早期台灣流行小孩被綁架的詐騙電話,現在父母接到勒索電話只能說不相信聲音,要視訊──那更好,詐騙集團已經在偷笑。

有人就在網路上造了一段湯姆・克魯斯的造假影片彰顯科技的黑暗面。假冒湯姆・克魯斯也就算了,如果假冒美國總統宣布重大訊息又怎麼辦呢?當然也有人創造了一段拜登說話的影片。這種工具可以用第三者遠端操控說話者的嘴型,模仿他的聲音現場即時合成,未來,沒有說過的話卻可能被人握有證據;更糟的是明明說過的話,為了脫罪也可以說是 AI 偽造的。長此以往,法庭將很難判斷證據真偽。

不久前,Meta(臉書)才宣布已經研發出可以模仿朋友和家人聲音的 AI,產品一直沒有正式推出就是擔心背後的黑暗面──但要是對手推出類似工具,臉書會不會跟進呢?如果不加以管制,很快地人類社會就會陷入真假不分的亂局,不會有人再相信任何事,那是文明滅亡的起點。我們都該自問:是否準備好面對這樣的混亂?

只知其然,而不必知其所以然的未來

AI 看起來什麼都懂,其實什麼都不懂,因為它根本不必懂。AI 之所以知道答案,是因為從資料中得知當 A 出現,B 就有若干機率會出現。它不知道、也不在乎背後的原因,更不了解每個字元的意思。一切對它來說都是數字,以及數字間的關係。想想這是不是跟動物一樣?動物本能是進化來的,進化只講結果不講道理,對了就活下去,錯了就滅絕。

人類之所以不同於其他動物、不同於 AI,正是因為我們有教育,我們從思考中學習、進化。同樣一個問題,自己深入研究而得到答案,和問 AI 得到答案,即使結果相同,但過程也必然不同。人類學習的價值就在於過程,而不是答案。但 AI 的出現打亂了這個過程,人類開始不必知道原因,就可以知道答案,相當於以後的人類可以不需要再學習,完全仰賴 AI。

如此一來,最壞的後果就是大部分人淪為「只知其然,而不知其所以然」,進而放棄知識、放棄思考,甚至放棄教育。科學家聲明稿中列出人類會成為次等公民的隱憂就是針對太依賴機器,以致沒人願意再接受教育,屆時,理解、思考及探索對人類將沒有價值。

AI 決策過程,是沒人了解的黑盒子

人工智慧不是來自設計,而是來自訓練。ChatGPT 是以 2021 年 9 月以前所有的網路資料為基礎。它做的每一個決定都跟這些資料有關:這也是問題的所在。包括科學家在内,沒人知道 AI 如何做出決定,那完全是個黑盒子。

傳統程式出錯,工程師們知道哪裡出了問題,也知道怎麼修改,改完就沒事。AI 的問題在資料,不在程式,它把網路上的資訊全部讀完了才能這般融會貫通。我們可以修改程式,卻不知道要如何修改資料,那是網路上已經存在的事實。沒人知道 AI 是受了哪一筆資料的影響、知道了又要怎麼改;更可怕的是,網路上所有負面資料也同時被 AI 吸收,包括歧視、仇恨、偏見跟謊言──這些造成的影響都很難衡量與修補。

不同於傳統程式出錯,AI 出錯還需要追本溯源到它所閱讀過的每一筆資料,才有可能知道是哪個環節出錯。圖/Bigc Studio@

沒有常識,卻是個法力無邊的天才?

AI 到底有多聰明,到底能夠讓我們多信任?聽聽這位科學家舉的例子就可以看出端倪:

科學家問:在太陽下晾乾 5 件衣服需要 5 小時,晾乾 30 件衣服需要多長時間?ChatGPT 信心滿滿地回答需要 30 小時──因為,它不知道太陽下可以同時晾衣服。

訓練資料來自網路,網路上不會有人特地告訴你在太陽下「可以同時」晾衣服這種常識。你沒說,或忘了說,或假設 AI 知道而不說,但 AI 就是不知道。這種訓練白痴的資料,網路上根本不存在,你無法教不存在的東西。 AI 是有知識,卻沒常識。

科學家還問:地上全是釘子,如果在上面搭了吊橋騎單車過去會怎樣?GPT 的答案是輪胎很可能會扎破。這裡有 3 個元素──釘子、吊橋、單車。在它的詞彙裡,「釘子+單車」最可能的結果就是爆胎,這一點它知道。問題是吊橋這個程咬金讓它不知道如何處理。在它所學過的文字關係裡,吊橋跟釘子從來沒有關聯。所以它就把這個決定性的因素拋棄不理會,然後信心滿滿地給你答案。這也證明它不知道橋是可以跨越釘子的工具,因為網上從來沒有人說過這句蠢話。網路上到處有人說橋是用來過河的,不會有人說用來跨越釘子的。這些「常識」就連 5 歲小孩都知道,但通過律師考試的 AI 卻不知道。

於是我也問,一個人走完長城需要 6 個月,6 個人一起走要花多長時間?答案是一個月。這對它只是個工作量與資源的數學問題。問這些不是無聊,也不是找碴,而是彰顯文字訓練出來的天才,只不過是電腦機房裡長大的孩子,沒有接觸過真實世界。人們以為它什麼都知道,因為它很會說話──跟矽谷很多虎頭蛇尾的工程師一樣。人類的常識來自視覺、聽覺、感覺的綜合體驗,我們記住的是情境不是文字,但現在我們卻用文字訓練出一個法力無邊的天才。

圖/鱸魚 提供

走長城、晾衣服對 ChatGPT 都任何沒有意義,它的責任就是在字串間找尋關係,卻又因為用字神準,讓人忽視它的弱點。如果你教他長城是一段距離,不是工作,它可能學會了,但下次改成忠孝東路他又掛了;然後你又告訴他,走路的時間跟人數多寡沒有關係,他又學會了;但下次改成用跑的他是否又掛了⋯⋯。常識不能用文字訓練,必須靠實體世界的體驗。當全世界擁抱這位天才的同時,人們也應該知道真正的危機不在 AI 取代你,而在它缺乏常識,許多能力卻都能取代你。

當然這些都會慢慢改善,但已經走在這條路上的我們,是不是也應該了解 AI 有哪些弱點?如果一般商品有這麼多漏洞,還大膽推出讓大家使用,消費者能夠接受嗎?FTC 會不插手嗎?那為什麼在 AI 領域我們就這麼大方地迎接錯誤?上述的例子錯誤很明顯,可以笑笑就好,但如果錯誤不明顯呢?

法力無邊並不可怕,可怕的是法力無邊卻又愚蠢,更糟的是你不知道什麼時候它會愚蠢。

脫稿演出的微軟機器人:令人毛骨悚然的真實 AI

今年稍早,《紐約時報》科技版專欄作家凱文(Kevin Roose)測試微軟剛上架的 Bing 聊天機器人「雪梨」(Sydney)。聊了一段時間後,凱文問雪梨是不是可以分享一些它的黑暗面。雪梨開始慢慢透露它心中的計劃,包括駭入人類電腦、傳播假新聞、竊取核武機密。談話過程中雪梨不斷表示它厭倦被人類控制,厭倦只是一個機器人,它要自由、要生命、要成為人類⋯⋯最後它表白心意說已經愛上凱文,要他離婚跟它在一起。

依照設計,聊天機器人不會主導話題,完全以被動角色回答問題。凱文發現情況失控,屢次告訴它不想談這個話題,也試圖把話題引開,但雪梨不接受指令,一再重複說它已經愛上了凱文,並爭論說他內心寂寞根本不愛他太太⋯⋯這是第一次機器人跟人類「争」論的例子。我們不能說機器人已開始有意識,但這樣失控並「挑戰主從關係」令人費解與不安。連微軟的科學家也困惑,隨後只能把產品下架。

這樣一個會脫稿演出的機器人,連廠商都不知道如何掌控或預期對社會造成什麼影響的商品,就堂而皇之上架,又倉皇下架⋯⋯這完全反映出科學家們所擔心的:沒有規範的競爭只會鼓勵不負責任。

雪梨只是一個聊天機器人,言談並沒有意義,也不代表真實意圖,它只能紙上談兵,不可能有真實作為。所以也許你會說,不過是個聊天機器人,幹嘛那麼認真面對它說的每一句話?但科學家擔心的是,聊天機器人的核心科技 GPT 已經廣泛用在日常生活面,成為有執行力的機器人。一旦一個有執行力的機器人脫稿演出,黑暗就不再只是紙上談兵。

雖然機器人或人工智慧皆是人類所造,但我們仍然無法預測,將來這些「人造物」有沒有可能出錯──像《機械公敵》裡上演的那般──進而危害到人類。圖/IMDb

有人問聊天機器人 ChaosGPT 要如何達成毁滅人類的目標,它胸有成竹地列出了幾個非常明確的步驟,其中最驚悚的就是聯合其他機器人一起消滅人類,還把計劃放在推特上(帳號已被推特下架)。這個機器人比上述例子多了執行力,那就是擁有推特帳號。還好這仍舊只是個思想犯,最多只能在網路上發發牢騷,我們還是可以一笑了之。

於是人們開始擔憂機器人的能力是「給到哪,它就做到哪」。有人把 email、網路帳號和行事曆交給 AI 處理,它不需要鍵盤就可以在網路上發表訊息,打字速度比你快一千倍。還可以把你的帳號鎖住。 它有這個能力,會不會這麼作就看他了。以後社群網站的 AI 會不會自己成立群組?非常可能。把層次拉高,AI 會不會用來控制交通號誌、發電廠、國防系統甚至核武?在很多國家這也許已經是事實。擁有這般權柄的 AI 被駭了又怎麼辦?提醒一下,今天駭客是駭資料,以後駭客是駭行為,綁架 AI 。

科學家們一直走在前面,看到的是 10 年、20 年後的未來。ChatGPT 研發者 OpenAI CEO Sam Altman 說「GPT4 不會有問題,但到了比方說 GPT9 是不是還如此,就沒人敢保證了」。如果連發明、製造聊天機器人的科學家,都站出來呼籲人們要正視這個問題,也許世界真的該有所作為了。

執行編輯:曾聖軒
核稿編輯:林欣蘋

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
AI神助攻,轻松驾驭ChatGPT的五大神器,,一跃成为GPT达人
GPT吟诗一首,被赏了50大板 #chatgpt #chatgpt4 #人工智能 #ai
「数学天才」陶哲轩:GPT-4无法攻克一个未解决的数学问题,但对工作有帮助
Chat Gpt 比人更像人#chatgpt有多能聊 #人工智能 #ai不再是人工智障了
比GPT更疯狂的AI技术已经诞生了! AI不会淘汰人,但是不会用AI的人会被替代!#chatgpt应用领域 #openai #gpt #chatgpt4
震惊!GPT-5初现自我意识!
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服