12/05/2023
AI可能導致人類滅亡?白宮下令AI接受評估,歐盟擬立法監管AI,教AI做人或是最佳解決方法!
生成式AI絕對是當今科技界的最熱門話題,ChatGPT爆紅後,多家公司爭相推出類似產品,逐漸應用於各行各業。但愈來愈多人擔心,當AI全面普及後,會加劇假資訊流竄,網上詐騙等問題;甚至有「AI教父」之稱的謝菲·辛頓也擔心AI變得太聰明,恐怕會進化成殺手機械人,最終可能導致人類滅亡!究竟AI技術所帶來的負面影響可以有多大?全球政府該如何應對AI的潛在威脅呢?
神經網絡是ChatGPT奠基技術
51年前,謝菲·辛頓(Geoffrey Hinton)當時尚未獲「AI教父」的稱號,以研究生身份進入蘇格蘭愛丁堡大學,開始對人工神經網絡(Artificial Neural Network)進行研究。所謂「人工神經網絡」,是一種模仿生物神經網絡(尤其是大腦)結構和功能的數學模型,能夠透過分析數據來學習技能。這正是OpenAI ChatGPT與Google Bard背後的奠基性技術。
「AI教父」辛頓辭掉Google的職務後,不用擔心自己的言論會給Google帶來傷害,因此四出接受不同媒體的採訪,說出自己的心裏話:「AI可能會導致人類滅亡。」(圖片來源:多倫多大學官網)
2012年,辛頓與其得意門生伊利亞·蘇茨克維爾(Ilya Sutskever)、亞歷克斯·克里舍夫斯基(Alex Krishevsky),創建了一個神經網絡系統,藉由分析數千張相片,自行學懂識別花朵、狗隻、汽車等常見事物,成功實現深度學習(Deep Learning)運算。隨後,辛頓與兩名學生基於此項研究項目,成立初創公司DNNresearch。
2013年,Google以4,400萬美元(約3.43億港元)收購DNNresearch,辛頓亦隨之而加入Google,擔任副總裁兼工程研究員,負責 Google Brain 的部分研究工作。其門生蘇茨克維爾則選擇離開Google,與志同道合者共同創立OpenAI,並出任首席科學家,領導研究團隊成功開發出GPT模型和ChatGPT。
辛頓的得意門生蘇茨克維爾師於2015年放棄Google的高薪厚職,與奧特曼等人攜手創立OpenAI,並主導了GPT和DALL-E模型的研發。(圖片來源:多倫多大學官網)
後悔畢生工作只因擔心AI危害
2018年,辛頓跟加拿大滿地可大學教授約書亞·本希奧(Yoshua Bengio)、Meta 首席 AI 科學家楊立昆(Yann LeCun)共同獲得有「電腦界諾貝爾獎」之稱的圖靈獎(A.M. Turing Award),以表揚他們對神經網絡和深度學習方面的偉大貢獻。因此,後來3人被稱為「AI教父」或「深度學習教父」。
差不多在同一時間,Google、OpenAI開始建立以神經網絡為架構的大型深度學習系統,成為日後Bard和ChatGPT的發展基礎。由此看來,辛頓對造就目前生成式AI的榮景,扮演著重要角色。
然而,在當今的AI盛世,辛頓卻在2023年4月突然從Google離職,震驚整個AI業界。辛頓解釋,他之所以離開Google,是為了暢所欲言地談論AI的潛在風險,而不會對Google造成傷害。談及50年來致力於神經網絡研究,他坦言:「我對自己的畢生工作感到十分後悔。」
辛頓指出,互聯網上將會充斥著愈來愈多由AI生成的虛假文本資料、相片、甚至影片,但一般人卻無法分辨真偽。再者,AI技術遲早會完全顛覆就業市場,導致愈來愈多工作職位消失。更叫人擔心的是,目前用戶不但可以指示ChatGPT生成程式碼,還可以要求AI執行這些程式碼;如此發展下去,在科幻電影中經常出現的AI殺手機械人,終有一天會成為現實。
AI毀滅人類並非完全不可能?
當然,以上悲觀的未來情境只是一個假設,但辛頓強調,可能會導致它成真的情況經已出現:微軟(Microsoft)與Google之間、甚至中國與美國之間,已開始針對AI技術展開全球競賽。大部分人以為由AI主宰萬物的未來距離還很遙遠,但他認為AI或許不用30至50年的時間,便能夠操控人類,甚至找到辦法殺死人類,最終可能會導致人類滅亡。
一直以來,辛頓強烈反對將AI應用在戰場上。1980年代,辛頓在美國卡內基梅隆大學擔任電腦科學教授,但因為不滿大學AI研究接受美國國防部贊助,所以決定離開美國,改往加拿大多倫多大學電腦科學學院任教。他指出,假如沒有某種全球性的規管協議或監管機制,這場AI軍備競賽將會愈演愈烈。
由是之故,辛頓認為AI對人類造成的威脅可能比氣候變遷更迫切,因為解決氣候變遷的方法很明顯,只要減低碳排放或實現碳中和便成,然而目前對於AI危機卻不知該從何著手。盡管AI 可能對人類構成生存威脅,但他卻不同意暫停AI研究,因為始終不能抹殺AI的優點和應用價值。辛頓相信,更好的做法是加強對AI的監管,並讓所有人意識到AI的潛在危害。
OpenAI共同創辦人兼執行長山姆·奧特曼(Sam Altman)也承認,ChatGPT已經出現一些他們無法解釋的推理能力,而且AI毀滅人類並非完全不可能。但他表示,自己已為ChatGPT裝設終止開關(Kill Switch),假如未來某一天ChatGPT的發展超出人類預期,便會立即按下開關停止運作。
OpenAI執行長奧特曼被外界稱為「ChatGPT之父」,但最近他也表示對自家孩子的潛力感到「有點害怕」,甚至承認AI確實有一定的可能性會毀滅人類。(圖片來源:維基百科)
奧特曼坦承, ChatGPT在選舉和散播假訊息方面的影響力令人擔憂,因此2024年的美國總統大選將會是OpenAI的觀察重點。(圖片來源:Pexels圖庫網站)
「無知之幕」促成AI正確價值觀
不過,按下關機鍵之前,我們可以先嘗試向AI灌輸正確的價值觀,例如要幫助最需要幫助的人,不能毁滅人類等。Google旗下DeepMind於2023年4月在《美國國家科學院院刊》發表的論文提出,可以用政治哲學家約翰·羅爾斯(John Rawls)的觀點來教導AI做人。
羅爾斯曾提出一個叫做「無知之幕」(The Veil of Ignorance)的概念,旨在群體決策時,可以實現最公平的權益分配。根據其著作《正議論》所述,假設一群人站到一塊布幕的背後,所有人瞬間都會失去記憶,變得無知,忘記了自己在現實社會中的身分和地位。
政治哲學家羅爾斯假設人們身處在「無知之幕」後面(左),就會對自己所擁有的技能、身分和地位一概不知。在此情境下,人們會傾向選擇對所有人都最公平的權益分配原則。(圖片來源:維基百科)
這時候,要求這群人以投票方式為社會選擇一個運作原則。由於他們不知道自己在這個社會中究竟處於哪個位置,所以不能以利己方式做決定,只能遵循對所有人均公平的原則來判斷。情況就好像是,在生日會上由你負責切蛋糕,因為你不知道自己會分到哪一塊,於是會盡量把每一塊都切到一樣大。在「無知之幕」之下,跟個人利益無關的公平正義便會浮現出來。
由是之故,DeepMind認為,把「無知之幕」套用在AI訓練,可能有助於促進AI與人類價值觀在「對齊」過程中的公平性。所謂「對齊」,意指將AI的願望與人類的願望達成一致。如果AI與人類擁有共同的公平價值觀,AI就不會有毁滅人類的意圖了。
白宮召見科技巨頭討論AI威脅
不過,即使AI無意消滅人類,仍可能對人類社會帶來眾多負面影響。美國科技倫理組織人工智能與數碼政策中心(CAIDP)向聯邦貿易委員會 (FTC) 投訴,OpenAI旗下最新大型語言模型GPT-4存有偏見和欺騙性,而且對私隱與公共安全構成風險。
CAIDP列舉GPT-4可能衍生的潛在威脅,包括:幫助黑客大量產製惡意程式碼,令網絡攻擊加劇;帶偏見的AI訓練數據可能加強社會刻板印象,讓各種族和性別容易受到不公平的待遇,因此要求FTC對OpenAI展開調查。FTC主席莉娜‧汗(Lina Khan)表示,現正在密切監察AI的使用情況,並強調「它們不能脫離現有法例規管,聯邦貿易委員會將積極執法。」
OpenAI為求讓GPT-4更安全,於是聘請50名專家和學者,針對謊言、語言操縱、危險的科學常識等層面,對GPT-4進行了測試。圖中為 OpenAI總部。(圖片來源:維基百科)
生成式AI所掀起的巨大社會爭議,同樣引起了美國白宮的警惕。2023年5月初,白宮邀請了Google 執行長皮查伊(Sundar Pichai)、微軟執行長納德拉(Satya Nadella)、OpenAI 創辦人奧特曼、以及人工智能初創 Anthropic 創辦人阿莫迪(Dario Amodei)出席會議,討論AI可能對社會帶來衝擊。
與會的政府官員包括:副總統賀錦麗(Kamala Harris)、拜登幕僚長津茨(Jeff Zients)、國家安全顧問蘇利文(Jake Sullivan)、美國家經濟委員會主席雷納德(Lael Brainard)、以及商務部長雷蒙多(Gina Raimondo)。美國總統拜登(Joe Biden)也有出席這次會議。
歐盟將通過全球首套AI監管法
賀錦麗表示,生成式AI雖然有助改善生活,但亦可能帶來安全、私隱和詐騙問題。她指出,AI企業有道德和法律責任來確保AI產品的安全,同時又必須與政府合作,以保護公民權利與私隱。她強調,白宮將致力於推進潛在的新法例和支持新立法,以減輕AI技術的潛在危害。
相較之下,歐洲在AI立法上已先行一步。歐洲議會公民自由和消費者保護委員會於2023年5月11日以壓倒性票數通過一份立場文件,呼籲限制歐洲的AI使用方式,向通過全球首套AI監管法案邁出關鍵第一步。相關法案草案將於同年6月提交歐洲議會全體表決,隨後歐洲議會、歐盟理事會、歐盟執行委員會代表將在三方會談中擬定法案最終條款。
歐洲議會通過了一份立場文件,加強對生物辨識、人臉識別、以及警察在例行職務中使用AI的限制。議會認為,此舉有助於催生出全球首套AI監管法案。(圖片來源:維基百科)
另一方面,白宮宣布,Google、Microsoft、OpenAI、NVIDIA、Stability AI、Anthropic與Hugging Face均承諾參加2023年8月舉行的電腦安全會議「DEF CON 31」,讓旗下AI模型接受黑客和AI專家的測試和評估。專家們會嘗試找出AI工具中的錯誤、故障和漏洞,以便AI公司及早解決模型中的既有問題。
可是,這些AI公司只是同意進行一次性測試,而不是承諾在推出或改進產品時展開持續性評估,因此可能不足以滿足監管機構的要求。盡管如此,DEF CON 31仍被視為AI模型接受公開評估的第一步。希望在立法監管和公開評估兩方面各自邁出重要的第一步後,可讓生成式AI列車駛向正途,讓每個人都能安全地從技術創新中受益。
DEF CON 是全球最大的電腦安全會議之一,與會者除網絡安全專家和黑客外,還有美國聯邦調查局、國防部、郵政檢查局的職員。會議涉及領域包括軟件安全、電腦架構、硬件修改、以及其他容易受到攻擊的資訊領域。(圖片來源: DEF CON官網)
想要獨家投資理財Tips?即Like etnet 全新Facebook專頁► 立即讚好