• |
  • 極速報價
  • |
  • etnet專輯
    etnet專輯
  • 會員
  • 產品服務 / 串流版
  • 設定

12/05/2023

AI可能導致人類滅亡?白宮下令AI接受評估,歐盟擬立法監管AI,教AI做人或是最佳解決方法!

  • 加入最愛專欄
  • 收藏文章
  • 方展策

    方展策

    少年時,曾研習 Geographic Information System,可惜學無所成,僥倖畢業。成年後,誤打誤撞進入傳媒圈子,先後在印刷、電子、網絡媒體打滾,略有小成。中年後,修畢資訊科技碩士,眼界漸擴,決意投身初創企業,窺探不同科技領域。近年,積極鑽研數據分析與數碼策略,又涉足 Location Intelligence 開發項目;有時還會抽空執教鞭,既可向他人分享所學,亦可鞭策自己保持終身學習。

    智城物語

  生成式AI絕對是當今科技界的最熱門話題,ChatGPT爆紅後,多家公司爭相推出類似產品,逐漸應用於各行各業。但愈來愈多人擔心,當AI全面普及後,會加劇假資訊流竄,網上詐騙等問題;甚至有「AI教父」之稱的謝菲·辛頓也擔心AI變得太聰明,恐怕會進化成殺手機械人,最終可能導致人類滅亡!究竟AI技術所帶來的負面影響可以有多大?全球政府該如何應對AI的潛在威脅呢?

 

神經網絡是ChatGPT奠基技術

 

  51年前,謝菲·辛頓(Geoffrey Hinton)當時尚未獲「AI教父」的稱號,以研究生身份進入蘇格蘭愛丁堡大學,開始對人工神經網絡(Artificial Neural Network)進行研究。所謂「人工神經網絡」,是一種模仿生物神經網絡(尤其是大腦)結構和功能的數學模型,能夠透過分析數據來學習技能。這正是OpenAI ChatGPT與Google Bard背後的奠基性技術。

 

「AI教父」辛頓辭掉Google的職務後,不用擔心自己的言論會給Google帶來傷害,因此四出接受不同媒體的採訪,說出自己的心裏話:「AI可能會導致人類滅亡。」(圖片來源:多倫多大學官網)

 

  2012年,辛頓與其得意門生伊利亞·蘇茨克維爾(Ilya Sutskever)、亞歷克斯·克里舍夫斯基(Alex Krishevsky),創建了一個神經網絡系統,藉由分析數千張相片,自行學懂識別花朵、狗隻、汽車等常見事物,成功實現深度學習(Deep Learning)運算。隨後,辛頓與兩名學生基於此項研究項目,成立初創公司DNNresearch。

 

  2013年,Google以4,400萬美元(約3.43億港元)收購DNNresearch,辛頓亦隨之而加入Google,擔任副總裁兼工程研究員,負責 Google Brain 的部分研究工作。其門生蘇茨克維爾則選擇離開Google,與志同道合者共同創立OpenAI,並出任首席科學家,領導研究團隊成功開發出GPT模型和ChatGPT。

 

辛頓的得意門生蘇茨克維爾師於2015年放棄Google的高薪厚職,與奧特曼等人攜手創立OpenAI,並主導了GPT和DALL-E模型的研發。(圖片來源:多倫多大學官網)

 

後悔畢生工作只因擔心AI危害

 

  2018年,辛頓跟加拿大滿地可大學教授約書亞·本希奧(Yoshua Bengio)、Meta 首席 AI 科學家楊立昆(Yann LeCun)共同獲得有「電腦界諾貝爾獎」之稱的圖靈獎(A.M. Turing Award),以表揚他們對神經網絡和深度學習方面的偉大貢獻。因此,後來3人被稱為「AI教父」或「深度學習教父」。

 

  差不多在同一時間,Google、OpenAI開始建立以神經網絡為架構的大型深度學習系統,成為日後Bard和ChatGPT的發展基礎。由此看來,辛頓對造就目前生成式AI的榮景,扮演著重要角色。

 

  然而,在當今的AI盛世,辛頓卻在2023年4月突然從Google離職,震驚整個AI業界。辛頓解釋,他之所以離開Google,是為了暢所欲言地談論AI的潛在風險,而不會對Google造成傷害。談及50年來致力於神經網絡研究,他坦言:「我對自己的畢生工作感到十分後悔。」

 

  辛頓指出,互聯網上將會充斥著愈來愈多由AI生成的虛假文本資料、相片、甚至影片,但一般人卻無法分辨真偽。再者,AI技術遲早會完全顛覆就業市場,導致愈來愈多工作職位消失。更叫人擔心的是,目前用戶不但可以指示ChatGPT生成程式碼,還可以要求AI執行這些程式碼;如此發展下去,在科幻電影中經常出現的AI殺手機械人,終有一天會成為現實。

 

AI毀滅人類並非完全不可能?

 

  當然,以上悲觀的未來情境只是一個假設,但辛頓強調,可能會導致它成真的情況經已出現:微軟(Microsoft)與Google之間、甚至中國與美國之間,已開始針對AI技術展開全球競賽。大部分人以為由AI主宰萬物的未來距離還很遙遠,但他認為AI或許不用30至50年的時間,便能夠操控人類,甚至找到辦法殺死人類,最終可能會導致人類滅亡。

 

  一直以來,辛頓強烈反對將AI應用在戰場上。1980年代,辛頓在美國卡內基梅隆大學擔任電腦科學教授,但因為不滿大學AI研究接受美國國防部贊助,所以決定離開美國,改往加拿大多倫多大學電腦科學學院任教。他指出,假如沒有某種全球性的規管協議或監管機制,這場AI軍備競賽將會愈演愈烈。

 

  由是之故,辛頓認為AI對人類造成的威脅可能比氣候變遷更迫切,因為解決氣候變遷的方法很明顯,只要減低碳排放或實現碳中和便成,然而目前對於AI危機卻不知該從何著手。盡管AI 可能對人類構成生存威脅,但他卻不同意暫停AI研究,因為始終不能抹殺AI的優點和應用價值。辛頓相信,更好的做法是加強對AI的監管,並讓所有人意識到AI的潛在危害。

 

  OpenAI共同創辦人兼執行長山姆·奧特曼(Sam Altman)也承認,ChatGPT已經出現一些他們無法解釋的推理能力,而且AI毀滅人類並非完全不可能。但他表示,自己已為ChatGPT裝設終止開關(Kill Switch),假如未來某一天ChatGPT的發展超出人類預期,便會立即按下開關停止運作。

 

OpenAI執行長奧特曼被外界稱為「ChatGPT之父」,但最近他也表示對自家孩子的潛力感到「有點害怕」,甚至承認AI確實有一定的可能性會毀滅人類。(圖片來源:維基百科)

奧特曼坦承, ChatGPT在選舉和散播假訊息方面的影響力令人擔憂,因此2024年的美國總統大選將會是OpenAI的觀察重點。(圖片來源:Pexels圖庫網站)

 

「無知之幕」促成AI正確價值觀

 

  不過,按下關機鍵之前,我們可以先嘗試向AI灌輸正確的價值觀,例如要幫助最需要幫助的人,不能毁滅人類等。Google旗下DeepMind於2023年4月在《美國國家科學院院刊》發表的論文提出,可以用政治哲學家約翰·羅爾斯(John Rawls)的觀點來教導AI做人。

 

  羅爾斯曾提出一個叫做「無知之幕」(The Veil of Ignorance)的概念,旨在群體決策時,可以實現最公平的權益分配。根據其著作《正議論》所述,假設一群人站到一塊布幕的背後,所有人瞬間都會失去記憶,變得無知,忘記了自己在現實社會中的身分和地位。

 

政治哲學家羅爾斯假設人們身處在「無知之幕」後面(左),就會對自己所擁有的技能、身分和地位一概不知。在此情境下,人們會傾向選擇對所有人都最公平的權益分配原則。(圖片來源:維基百科)

 

  這時候,要求這群人以投票方式為社會選擇一個運作原則。由於他們不知道自己在這個社會中究竟處於哪個位置,所以不能以利己方式做決定,只能遵循對所有人均公平的原則來判斷。情況就好像是,在生日會上由你負責切蛋糕,因為你不知道自己會分到哪一塊,於是會盡量把每一塊都切到一樣大。在「無知之幕」之下,跟個人利益無關的公平正義便會浮現出來。

 

  由是之故,DeepMind認為,把「無知之幕」套用在AI訓練,可能有助於促進AI與人類價值觀在「對齊」過程中的公平性。所謂「對齊」,意指將AI的願望與人類的願望達成一致。如果AI與人類擁有共同的公平價值觀,AI就不會有毁滅人類的意圖了。

 

白宮召見科技巨頭討論AI威脅

 

  不過,即使AI無意消滅人類,仍可能對人類社會帶來眾多負面影響。美國科技倫理組織人工智能與數碼政策中心(CAIDP)向聯邦貿易委員會 (FTC) 投訴,OpenAI旗下最新大型語言模型GPT-4存有偏見和欺騙性,而且對私隱與公共安全構成風險。

 

  CAIDP列舉GPT-4可能衍生的潛在威脅,包括:幫助黑客大量產製惡意程式碼,令網絡攻擊加劇;帶偏見的AI訓練數據可能加強社會刻板印象,讓各種族和性別容易受到不公平的待遇,因此要求FTC對OpenAI展開調查。FTC主席莉娜‧汗(Lina Khan)表示,現正在密切監察AI的使用情況,並強調「它們不能脫離現有法例規管,聯邦貿易委員會將積極執法。」

 

OpenAI為求讓GPT-4更安全,於是聘請50名專家和學者,針對謊言、語言操縱、危險的科學常識等層面,對GPT-4進行了測試。圖中為 OpenAI總部。(圖片來源:維基百科)

 

  生成式AI所掀起的巨大社會爭議,同樣引起了美國白宮的警惕。2023年5月初,白宮邀請了Google 執行長皮查伊(Sundar Pichai)、微軟執行長納德拉(Satya Nadella)、OpenAI 創辦人奧特曼、以及人工智能初創 Anthropic 創辦人阿莫迪(Dario Amodei)出席會議,討論AI可能對社會帶來衝擊。

 

  與會的政府官員包括:副總統賀錦麗(Kamala Harris)、拜登幕僚長津茨(Jeff Zients)、國家安全顧問蘇利文(Jake Sullivan)、美國家經濟委員會主席雷納德(Lael Brainard)、以及商務部長雷蒙多(Gina Raimondo)。美國總統拜登(Joe Biden)也有出席這次會議。

 

歐盟將通過全球首套AI監管法

 

  賀錦麗表示,生成式AI雖然有助改善生活,但亦可能帶來安全、私隱和詐騙問題。她指出,AI企業有道德和法律責任來確保AI產品的安全,同時又必須與政府合作,以保護公民權利與私隱。她強調,白宮將致力於推進潛在的新法例和支持新立法,以減輕AI技術的潛在危害。

 

  相較之下,歐洲在AI立法上已先行一步。歐洲議會公民自由和消費者保護委員會於2023年5月11日以壓倒性票數通過一份立場文件,呼籲限制歐洲的AI使用方式,向通過全球首套AI監管法案邁出關鍵第一步。相關法案草案將於同年6月提交歐洲議會全體表決,隨後歐洲議會、歐盟理事會、歐盟執行委員會代表將在三方會談中擬定法案最終條款。

 

歐洲議會通過了一份立場文件,加強對生物辨識、人臉識別、以及警察在例行職務中使用AI的限制。議會認為,此舉有助於催生出全球首套AI監管法案。(圖片來源:維基百科)

 

  另一方面,白宮宣布,Google、Microsoft、OpenAI、NVIDIA、Stability AI、Anthropic與Hugging Face均承諾參加2023年8月舉行的電腦安全會議「DEF CON 31」,讓旗下AI模型接受黑客和AI專家的測試和評估。專家們會嘗試找出AI工具中的錯誤、故障和漏洞,以便AI公司及早解決模型中的既有問題。

 

  可是,這些AI公司只是同意進行一次性測試,而不是承諾在推出或改進產品時展開持續性評估,因此可能不足以滿足監管機構的要求。盡管如此,DEF CON 31仍被視為AI模型接受公開評估的第一步。希望在立法監管和公開評估兩方面各自邁出重要的第一步後,可讓生成式AI列車駛向正途,讓每個人都能安全地從技術創新中受益。

 

DEF CON 是全球最大的電腦安全會議之一,與會者除網絡安全專家和黑客外,還有美國聯邦調查局、國防部、郵政檢查局的職員。會議涉及領域包括軟件安全、電腦架構、硬件修改、以及其他容易受到攻擊的資訊領域。(圖片來源: DEF CON官網)

 

 

 《經濟通》所刊的署名及/或不署名文章,相關內容屬作者個人意見,並不代表《經濟通》立場,《經濟通》所扮演的角色是提供一個自由言論平台。

想要獨家投資理財Tips?即Like etnet 全新Facebook專頁► 立即讚好

我要回應

你可能感興趣

版主留言

放大顯示
風水蔣知識
最緊要健康
精選文章
  • 生活
  • DIVA
  • 健康好人生
專業版
HV2
精裝版
SV2
串流版
IQ 登入
強化版
TQ
強化版
MQ